Vue normale

Élections municipales : comment TikTok se prépare aux ingérences et désinformations

20 février 2026 à 14:02
La taca-taca-taca-tac-tactique de TikTok
Élections municipales : comment TikTok se prépare aux ingérences et désinformations

À l’aune des élections municipales, prévues les 15 et 22 mars, TikTok, qui dénombre près de 28 millions d’utilisateurs actifs quotidiens en France, explique reposer sur 588 modérateurs « en langue française », et 50 experts en intégrité électorale, modération, presse et juridique.

« Pour ces municipales, nous avons adopté le dispositif que nous réservons d’ordinaire aux scrutins nationaux », indique aux Échos Gaultier Brand-Gazeau, l’ex-chef du service économique de la Direction générale du Trésor à Dublin, devenu en septembre 2025 directeur des affaires publiques et gouvernementales de TikTok France (dont le siège européen est en Irlande) :

« Nous avons une équipe de 50 experts en intégrité électorale, modération, presse et juridique. Nous travaillons avec l’ONG A voté, nous faisons de la pédagogie avec les créateurs de contenus, et j’ai rencontré tous les partis politiques. »

TikTok échange aussi régulièrement avec le Réseau de coordination et de protection des élections (RCPE), créé en réponse à la menace des ingérences étrangères en période électorale et composé d’administrations et d’autorités indépendantes compétentes en matière électorale : l’Arcom, la CNCCFP, le secrétariat général du Gouvernement, le ministère de l’Intérieur, le service de vigilance et protection contre les ingérences numériques étrangères VIGINUM et son Comité éthique et scientifique, chargé de suivre son activité.

588 modérateurs « en langue française »

« Nous n’avons jamais eu la prétention de devenir la place du village politique », pointe Gaultier Brand-Gazeau, mais a dû s’adapter, relèvent Les Échos avec près de 28 millions d’utilisateurs actifs quotidiens en France, dont des personnalités politiques très en vues : Jordan Bardella y dénombre 2,3 millions d’abonnés et près de 79 millions de « J’aime », Jean-Luc Mélenchon 2,7 millions d’abonnés et près de 47 millions de « J’aime », Emmanuel Macron 6,6 millions d’abonnés et près de 67 millions de « J’aime ».

Et ce, d’autant que TikTok était au cœur des opérations d’influence ayant conduit à l’annulation des élections en Roumanie en 2024, et que la Commission européenne a récemment « conclu à titre préliminaire que TikTok enfreignait la législation sur les services numériques en raison de sa conception addictive. Cela inclut des fonctionnalités telles que le défilement infini, la lecture automatique, les notifications push et son système de recommandation hautement personnalisé ».

Ancien responsable des affaires internationales de La French Tech, puis haut fonctionnaire de la Direction générale du Trésor, Gaultier Brand-Gazeau souligne que TikTok entend « protéger l’intégrité de l’information » grâce à 4 600 modérateurs, dont 588 « en langue française », sans pour autant préciser combien couvrent la France en propre, et non les pays francophones. À titre de comparaison, TikTok revendiquait, à l’aune des élections européennes de 2024, qu’« en Europe, plus de 6 000 personnes sont dédiées à la modération de contenu ».

Afin de protéger l’intégrité des élections, lutter contre la désinformation et les opérations d’influence, TikTok travaille en partenariat avec plus de 20 organisations de vérification des faits accréditées par l’International Fact-Checking Network (IFCN), dont l’AFP en France, chargés d’évaluer l’exactitude du contenu sur TikTok dans plus de 60 langues et 130 marchés du monde entier.

Des informations électorales « validées par le ministère de l’Intérieur »

TikTok aurait également investi 2 milliards d’euros dans l’IA, développé des modèles internes de détection des contenus générés par IA, et adhéré à la norme C2PA pour authentifier les contenus créés par IA.

Sur TikTok, les contenus réalistes générés par l’intelligence artificielle doivent en effet être étiquetés par leur créateur, rappelait un communiqué de presse en novembre dernier, qui avançait que 1,3 milliards de vidéos GenAI avaient déjà été étiquetées.

Ces derniers mois, TikTok a aussi enrichi l’étiquetage des contenus générés par l’IA (AIGC) en ajoutant davantage de contexte pour indiquer si un contenu avait été étiqueté grâce à la détection automatisée, par le créateur lui-même ou au moyen d’outils IA proposés sur la plateforme.

Les Échos précisent que l’application aurait aussi créé une page rassemblant les informations électorales, « validées par le ministère de l’Intérieur » (sans plus de précisions), qui renvoie vers du texte et bientôt des vidéos conçues par l’AFP.

L’AFP y publiait récemment un tour du monde de la désinformation électorale, mêlant contenus générés par IA, détournements d’images, manques de contexte, mais nous ne l’intégrerons pas à cette page : non content de ne pas proposer de fonctionnalité de confidentialité avancée comme le propose YouTube, la vidéo se lance en outre automatiquement, en autoplay.

Élections municipales : comment TikTok se prépare aux ingérences et désinformations

20 février 2026 à 14:02
La taca-taca-taca-tac-tactique de TikTok
Élections municipales : comment TikTok se prépare aux ingérences et désinformations

À l’aune des élections municipales, prévues les 15 et 22 mars, TikTok, qui dénombre près de 28 millions d’utilisateurs actifs quotidiens en France, explique reposer sur 588 modérateurs « en langue française », et 50 experts en intégrité électorale, modération, presse et juridique.

« Pour ces municipales, nous avons adopté le dispositif que nous réservons d’ordinaire aux scrutins nationaux », indique aux Échos Gaultier Brand-Gazeau, l’ex-chef du service économique de la Direction générale du Trésor à Dublin, devenu en septembre 2025 directeur des affaires publiques et gouvernementales de TikTok France (dont le siège européen est en Irlande) :

« Nous avons une équipe de 50 experts en intégrité électorale, modération, presse et juridique. Nous travaillons avec l’ONG A voté, nous faisons de la pédagogie avec les créateurs de contenus, et j’ai rencontré tous les partis politiques. »

TikTok échange aussi régulièrement avec le Réseau de coordination et de protection des élections (RCPE), créé en réponse à la menace des ingérences étrangères en période électorale et composé d’administrations et d’autorités indépendantes compétentes en matière électorale : l’Arcom, la CNCCFP, le secrétariat général du Gouvernement, le ministère de l’Intérieur, le service de vigilance et protection contre les ingérences numériques étrangères VIGINUM et son Comité éthique et scientifique, chargé de suivre son activité.

588 modérateurs « en langue française »

« Nous n’avons jamais eu la prétention de devenir la place du village politique », pointe Gaultier Brand-Gazeau, mais a dû s’adapter, relèvent Les Échos avec près de 28 millions d’utilisateurs actifs quotidiens en France, dont des personnalités politiques très en vues : Jordan Bardella y dénombre 2,3 millions d’abonnés et près de 79 millions de « J’aime », Jean-Luc Mélenchon 2,7 millions d’abonnés et près de 47 millions de « J’aime », Emmanuel Macron 6,6 millions d’abonnés et près de 67 millions de « J’aime ».

Et ce, d’autant que TikTok était au cœur des opérations d’influence ayant conduit à l’annulation des élections en Roumanie en 2024, et que la Commission européenne a récemment « conclu à titre préliminaire que TikTok enfreignait la législation sur les services numériques en raison de sa conception addictive. Cela inclut des fonctionnalités telles que le défilement infini, la lecture automatique, les notifications push et son système de recommandation hautement personnalisé ».

Ancien responsable des affaires internationales de La French Tech, puis haut fonctionnaire de la Direction générale du Trésor, Gaultier Brand-Gazeau souligne que TikTok entend « protéger l’intégrité de l’information » grâce à 4 600 modérateurs, dont 588 « en langue française », sans pour autant préciser combien couvrent la France en propre, et non les pays francophones. À titre de comparaison, TikTok revendiquait, à l’aune des élections européennes de 2024, qu’« en Europe, plus de 6 000 personnes sont dédiées à la modération de contenu ».

Afin de protéger l’intégrité des élections, lutter contre la désinformation et les opérations d’influence, TikTok travaille en partenariat avec plus de 20 organisations de vérification des faits accréditées par l’International Fact-Checking Network (IFCN), dont l’AFP en France, chargés d’évaluer l’exactitude du contenu sur TikTok dans plus de 60 langues et 130 marchés du monde entier.

Des informations électorales « validées par le ministère de l’Intérieur »

TikTok aurait également investi 2 milliards d’euros dans l’IA, développé des modèles internes de détection des contenus générés par IA, et adhéré à la norme C2PA pour authentifier les contenus créés par IA.

Sur TikTok, les contenus réalistes générés par l’intelligence artificielle doivent en effet être étiquetés par leur créateur, rappelait un communiqué de presse en novembre dernier, qui avançait que 1,3 milliards de vidéos GenAI avaient déjà été étiquetées.

Ces derniers mois, TikTok a aussi enrichi l’étiquetage des contenus générés par l’IA (AIGC) en ajoutant davantage de contexte pour indiquer si un contenu avait été étiqueté grâce à la détection automatisée, par le créateur lui-même ou au moyen d’outils IA proposés sur la plateforme.

Les Échos précisent que l’application aurait aussi créé une page rassemblant les informations électorales, « validées par le ministère de l’Intérieur » (sans plus de précisions), qui renvoie vers du texte et bientôt des vidéos conçues par l’AFP.

L’AFP y publiait récemment un tour du monde de la désinformation électorale, mêlant contenus générés par IA, détournements d’images, manques de contexte, mais nous ne l’intégrerons pas à cette page : non content de ne pas proposer de fonctionnalité de confidentialité avancée comme le propose YouTube, la vidéo se lance en outre automatiquement, en autoplay.

La Chancellerie et VIGINUM accélèrent la lutte contre les manipulations de l’information

20 février 2026 à 10:01
Le changement c'est maintenant !
La Chancellerie et VIGINUM accélèrent la lutte contre les manipulations de l’information

Le ministère de la Justice vient de publier deux circulaires relatives à la mobilisation de l’autorité judiciaire dans la lutte contre les ingérences étrangères et les manipulations de l’information. VIGINUM, de son côté, a accéléré le rythme et le volume de ses initiatives et partenariats.

La « Stratégie nationale de lutte contre les manipulations de l’information 2026 - 2030 » que vient de publier le Secrétariat de la défense et de la sécurité nationale (SGDSN), et à laquelle nous avons déjà consacré trois articles, ne chiffre aucun budget dédié. Reste donc à savoir si l’intendance suivra.

Signe cela dit que cette stratégie ne relève ni d’une lettre d’intention ni d’un vœu pieux, le garde des Sceaux vient de publier deux circulaires relatives à la mobilisation de l’autorité judiciaire dans la lutte contre les ingérences étrangères et les manipulations de l’information.

En outre, de nombreuses initiatives initiées par ou avec le service de vigilance et de protection contre les ingérences numériques étrangères (VIGINUM) ont d’ores et déjà été mises en œuvre ces trois derniers mois.

Les manipulations de l’information ne font l’objet d’aucune définition juridique

La première circulaire, datée du 21 janvier 2026 et relative à la mobilisation de l’autorité judiciaire dans la lutte contre les ingérences étrangères, précise que « si les critères d’attribution de compétence en vigueur aboutissent déjà en pratique au traitement de l’essentiel de ces procédures par le parquet de Paris (au titre de sa compétence en matière militaire, de cybercriminalité ou encore de criminalité organisée complexe), cette centralisation doit être pleinement entérinée par l’établissement d’une compétence exclusive de fait du parquet de Paris en la matière ».

La circulaire réclame également, « afin de faciliter et de fluidifier l’échange d’information », qu’un magistrat du parquet référent en matière d’atteintes aux intérêts fondamentaux de la Nation (AIFN) soit désigné au sein de chacun des neuf parquets des juridictions spécialisées en matière militaire d’ici le 31 janvier 2026.

La seconde, datée du 26 janvier 2026 et relative à la mobilisation de l’autorité judiciaire dans la lutte contre les manipulations de l’information, relève que si « les manipulations de l’information ne font l’objet d’aucune définition juridique », elles « revêtent certaines caractéristiques, qui permettent de les distinguer de l’exercice normal du droit de chacun à s’exprimer librement, constitutionnellement garanti » :

  • « un caractère délibéré, la manipulation ne pouvant procéder d’une simple erreur de celui qui s’exprime ;
  • un caractère clandestin, l’altération de l’information étant masquée à son destinataire ;
  • un caractère malveillant ou hostile ;
  • l’intention d’agir sur l’opinion publique et/ou de porter atteinte aux intérêts fondamentaux de la nation au sein de laquelle elles s’expriment ».

La circulaire souligne que « si les manipulations de l’information ne sont pas nécessairement en elles-mêmes pénalement répréhensibles, certains comportements relevant de ce phénomène peuvent néanmoins être constitutifs d’infractions pénales ».

Sont visées des infractions de droit commun (à l’image du délit d’usurpation d’identité) ou prévues par la loi du 29 juillet 1881 sur la liberté de la presse (telle que la publication, diffusion ou reproduction de fausses nouvelles), relevant du champ de la cybercriminalité (réprimant par exemple la publication de deepfake) ou du code électoral (comme le délit de diffusion de fausses nouvelles afin de fausser un scrutin) ainsi que les infractions d’atteintes aux intérêts fondamentaux de la Nation.

Des référés de droit commun, de presse et électoraux

La circulaire invite également les procureurs à « recourir, autant que de besoin, aux dispositifs civils que peut activer le ministère public afin de prévenir des manipulations de l’information ou d’y mettre fin », au travers de référés, une procédure judiciaire d’urgence qui permet au juge de prononcer rapidement des mesures provisoires, dans le respect du débat contradictoire, en attendant un jugement sur le fond.

Un focus annexé à la circulaire et consacré à l’appréhension judiciaire de la lutte contre les manipulations de l’information rappelle que le « référé de droit commun » permet de prescrire « les mesures conservatoires (…) pour prévenir un dommage imminent ou pour faire cesser un trouble manifestement illicite » en cas de diffusion de fausses informations. Il souligne qu’il est possible, pour obtenir une décision encore plus rapide, de solliciter l’autorisation d’assigner « d’heure à heure ».

La loi pour la confiance dans l’économie numérique (LCEN) permet en outre au président du tribunal judiciaire « statuant selon la procédure accélérée au fond de prescrire à toute personne susceptible d’y contribuer toutes les mesures propres à prévenir un dommage ou à faire cesser un dommage occasionné par le contenu d’un service de communication au public en ligne », rappelle le ministère.

Le « référé presse » de l’article 50 - 1 de la loi du 29 juillet 1881 sur la liberté de la presse permet quant à lui au juge des référés saisi par le ministère public ou toute personne physique ou morale ayant intérêt à agir de « prononcer l’arrêt d’un service de communication au public en ligne » lorsque des infractions « résultent de messages ou informations mis à disposition du public par un service de communication au public en ligne et qu’ils constituent un trouble manifestement illicite ».

« Le référé presse ne peut toutefois être employé que pour faire cesser certaines infractions limitativement énumérées », tempère le ministère :

  • messages tendant à la provocation de certains crimes ou délits (atteintes volontaires à la vie, à l’intégrité de la personne, agressions sexuelles, destructions, dégradations et détériorations volontaires dangereuses pour les personnes),
  • apologie ou contestation de crimes de guerre, de génocide, contre l’humanité ou de collaboration avec l’ennemi, « y compris si ces crimes n’ont pas donné lieu à la condamnation de leurs auteurs »,
  • diffamation et injure aggravée (envers une personne ou un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion, leur sexe, orientation sexuelle ou identité de genre ou handicap).

Enfin, le « référé électoral » permet de son côté de lutter contre la diffusion de fausses informations pendant les trois mois précédant le premier jour du mois d’élections générales et jusqu’à la date du tour de scrutin, « lorsque des allégations ou imputations inexactes ou trompeuses d’un fait de nature à altérer la sincérité du scrutin à venir sont diffusées de manière délibérée, artificielle ou automatisée et massive par le biais d’un service de communication au public en ligne ».

Le ministère souligne que ce référé est exclu en cas d’élections locales, et qu’il est limité « à la lumière de la réserve de constitutionnalité » émise par le Conseil constitutionnel en 2018, pour qui « les allégations ou imputations mises en cause ne sauraient, sans que soit méconnue la liberté d’expression et de communication, justifier une telle mesure que si leur caractère inexact ou trompeur est manifeste ».

Le document rappelle enfin que « lorsqu’il est recouru à la procédure du référé, la décision rendue est provisoire : cela signifie concrètement que la mesure prescrite en référé peut être remise en cause par une décision du juge du fond ».

« Eu égard à leur sensibilité, l’ensemble des faits relevant de la manipulation de l’information qui seraient constatés devront faire l’objet d’une information précise et complète, transmise au bureau de lutte contre la criminalité organisée, le terrorisme et le blanchiment de la direction des affaires criminelles et des grâces », conclut la circulaire.

Elle invite les procureurs de la République en charge de la direction d’enquêtes portant sur des faits de manipulation de l’information à « déployer une communication particulièrement active, réactive et précise, de nature à préserver la sincérité du débat public et à protéger les institutions que ces manipulations visent justement à remettre en cause, et ce à tous les stades de la procédure ».

Une accélération de la lutte contre la désinformation

En attendant de savoir comment ces deux circulaires contribueront à la mobilisation de l’autorité judiciaire dans la lutte contre les ingérences étrangères et les manipulations de l’information, VIGINUM a d’ores et déjà, ces trois derniers mois, accéléré le rythme et le volume de ses activités.

VIGINUM a ainsi publié en décembre un guide de sensibilisation à la menace informationnelle en contexte électoral, en prévision des élections municipales puis, en partenariat avec le CDSE (Cercle des directions de la sécurité des entreprises), un panorama de la menace informationnelle à destination des acteurs économiques français.

L’Assemblée nationale avait de son côté publié début décembre le rapport d’information d’une mission d’information consacrée à l’irruption de l’intelligence artificielle dans les ingérences étrangères, formulant une quinzaine de propositions.

Elles visent notamment à « renforcer les moyens humains, matériels et financiers de Viginum afin d’accompagner sa montée en puissance et l’extension de son champ d’activité », encourager un « financement vertueux de l’information par les entreprises privées et leurs pratiques publicitaires », et « encourager la conclusion de partenariats public-privé pour développer massivement les techniques de vérification de l’information »

Les rapporteurs proposent également d’ « imposer aux plateformes de réseaux sociaux d’étiqueter les contenus avec un score d’artificialité indiquant dans quelles proportions l’IA a été utilisée pour les générer » ou encore d’ « envisager une labellisation informationnelle selon un modèle de nutri‑score avec des critères objectifs et en sources ouvertes afin que chacun puisse vérifier l’impartialité du système ».

VIGINUM s’est aussi associé avec le Centre pour l’éducation aux médias et à l’information (CLEMI), rattaché au réseau Canopé pour développer un nouveau parcours de formation Magistère « Désinformation et ingérences numériques étrangères » à destination des enseignants souhaitant se former aux enjeux de lutte contre la manipulation de l’information et permettre aux élèves de développer leur esprit critique.

En janvier, l’École de journalisme de Sciences Po et VIGINUM ont par ailleurs créé un nouveau cours visant à mieux préparer les jeunes journalistes aux manipulations de l’information.

VIGINUM vient aussi de signer un « partenariat stratégique » en vue d’associer « l’expertise opérationnelle de VIGINUM à l’excellence scientifique d’Inria », et d’annoncer la création d’un Prix scientifique annuel VIGINUM-Inria, à l’échelle européenne, afin de « soutenir la recherche pour accélérer notre capacité collective à exploiter concrètement l’innovation, et en particulier l’IA, pour développer des outils opérationnels performants » au service de la lutte contre les manipulations de l’information.

VIGINUM a également partagé, sur LinkedIn, le jour de la publication de la stratégie nationale (qu’elle n’a pas, par contre, partagée), une revue de la littérature existante des principales mesures identifiées pour lutter contre les manipulations de l’information et sensibiliser les citoyens à ces enjeux, qu’elle avait commandée à la Direction interministérielle de la transformation publique (DITP) un an plus tôt.

Une consultation publique, lancée par le SGDSN sur make.org en décembre, vient de son côté de réunir 8 740 participants ayant déposé 691 propositions et 103 619 votes. Ses résultats indiquent notamment que la proposition la plus plébiscitée, recueillant jusqu’à 96 % des suffrages, vise à identifier et signaler les contenus générés par IA, « exiger leur traçabilité » via du watermarking et développer des outils de détection des contenus GenAI.

Près de 150 sites pro-russes usurpant la PQR ont été désactivés

Depuis fin janvier, VIGINUM publie également, chaque semaine, un bulletin de son réseau de coordination et de protection des élections (RCPE), composé d’administrations et d’autorités indépendantes compétentes en matière électorale. Il estime que « quatre stratégies d’ingérence numérique étrangère pourraient être mises en œuvre par des acteurs malveillants à l’occasion des élections municipales de 2026 » :

  • « Décrédibiliser la procédure électorale : aucune opération informationnelle servant cette stratégie n’a été caractérisée.
  • Alimenter la défiance vis-à-vis des médias du pays visé : bien que plusieurs noms de domaine, imitant des sites français d’information locale, soient désormais inactifs, cette campagne se poursuit. Huit noms de domaine supplémentaires ont ainsi été identifiés par VIGINUM, dont un enregistré le 5 février 2026
  • Exposer la réputation d’un candidat ou d’un parti politique : aucune opération informationnelle servant cette stratégie n’a été caractérisée.
  • Instrumentaliser certains thèmes afin de polariser le débat public numérique : aucune opération informationnelle servant cette stratégie n’a été caractérisée. »

Début février, il rapportait que depuis février 2024, les membres d’un réseau pro-russe lié au mode opératoire informationnel Storm-1516 avaient lancé une campagne « probablement destinée à se prépositionner dans l‘espace informationnel francophone » via l’enregistrement de plus d’une centaine de noms de domaines en « .fr » imitant des sites de presse locaux et alimentés par des articles de presse générés par des outils d’intelligence artificielle.

Nous avions rajouté un peu plus de ces 140 sites associés au réseau CopyCop de John Mark Dougan à la liste des sites signalés par notre extension GenAI, mais leurs noms de domaine ont récemment été désactivés, probablement par l’AFNIC.

Dans son bulletin n°3, en date du 13 février, VIGINUM relève toutefois que « bien que plusieurs de ces noms de domaine soient désormais inactifs, cette campagne se poursuit. Huit noms de domaine supplémentaires ont ainsi été identifiés par VIGINUM, dont un enregistré le 5 février 2026 ».

L’Inde oblige les plateformes à tatouer les contenus audiovisuels générés par IA

19 février 2026 à 15:11
New délit
L’Inde oblige les plateformes à tatouer les contenus audiovisuels générés par IA

Les médias sociaux devront vérifier que les contenus synthétiques soient labellisés comme tels, empêcher le partage des deepnudes et deepfakes interdits, et retirer les contenus illicites sous trois voire deux heures.

L’adage « je crois ce que je vois » est périmé du fait de l’avènement des deepfakes, qui « constituent une menace importante pour la vie privée des individus et la société dans son ensemble », avance le Deepfake Prevention and Criminalisation Act.

Cette loi indienne vise à prévenir et à criminaliser la création, la diffusion et l’utilisation de contenus synthétiques générés par IA sans consentement ou sans filigrane numérique. D’après TechCrunch, les plateformes pourront se voir ordonner de les retirer dans un délai de trois heures, voire de deux heures seulement dans certains cas. Auparavant, ce délai pouvait monter à trois jours, précise Libération.

Les plateformes et médias sociaux permettant à leurs utilisateurs de partager du contenu audiovisuel devront aussi exiger qu’ils précisent s’ils ont été générés par IA, mais également déployer des outils pour vérifier ces déclarations, veiller à ce que les deepfakes soient clairement identifiés et accompagnés de données de provenance traçables, et empêcher le partage de contenus synthétiques interdits (notamment les usurpations d’identité, images intimes non consenties et contenus liés à des crimes graves).

Les plateformes seront tenues de déployer des « mesures techniques raisonnables et appropriées » pour empêcher leurs utilisateurs de créer ou de partager des contenus audio et vidéo illégaux générés de manière synthétique, précise The Verge.

Les contenus générés par IA qui ne seront pas bloqués devront quant à eux intégrer des « métadonnées permanentes ou d’autres mécanismes techniques appropriés permettant d’en déterminer la provenance », et les doter de marquages visibles et/ou audibles pour permettre aux utilisateurs d’identifier immédiatement qu’il s’agit de contenus synthétiques.

Le « retard considérable » des systèmes de détection et d’étiquetage de l’IA

L’Inde compte un milliard d’internautes, principalement des jeunes, ce qui en fait l’un des marchés les plus importants pour les plateformes sociales, souligne The Verge, pour qui « toute obligation imposée dans ce pays pourrait avoir un impact sur les efforts de modération des deepfakes à travers le monde, soit en améliorant la détection jusqu’à ce qu’elle soit réellement efficace, soit en obligeant les entreprises technologiques à reconnaître la nécessité de trouver de nouvelles solutions ».

Sauf que c’est plus facile à dire qu’à faire, eu égard au « retard considérable » des systèmes de détection et d’étiquetage de l’IA à l’heure actuelle. La Coalition for Content Provenance and Authenticity (C2PA), de la Content Authenticity Initiative (CAI), lancée en 2021 par Arm, la BBC, Intel, Microsoft et Adobe, insère ainsi des métadonnées détaillées dans les images, vidéos et fichiers audio au moment de leur création ou de leur modification, afin de décrire de manière invisible comment ils ont été créés ou modifiés.

Mais si Facebook, Instagram, YouTube et LinkedIn ajoutent des étiquettes aux contenus signalés par le système C2PA, « il est clair que cela ne fonctionne pas », assène The Verge, pour qui « ces étiquettes sont difficiles à repérer, et certains contenus synthétiques qui devraient comporter ces métadonnées passent entre les mailles du filet ».

De plus, les plateformes de médias sociaux ne peuvent pas étiqueter correctement les contenus produits par des tiers, tels que les modèles d’IA open source ou les applications dites « nudify » qui refusent d’adopter la norme volontaire C2PA.

Il sera impossible pour les plateformes de respecter cette nouvelle loi

The Verge souligne également que « l’interopérabilité est l’un des principaux enjeux de la norme C2PA », mais bien que les nouvelles règles indiennes puissent encourager son adoption, « elles sont si faciles à supprimer que certaines plateformes en ligne peuvent involontairement les effacer lors du téléchargement de fichiers ».

Étant donné que les amendements précisent les mécanismes de traçabilité qui doivent être mis en œuvre « dans la mesure où cela est techniquement possible », les responsables à l’origine de la décision indienne sont probablement conscients que les technologies actuelles de détection et d’étiquetage par IA ne sont pas encore au point, conclut The Verge : « Les organisations qui soutiennent la C2PA affirment depuis longtemps que le système fonctionnera si suffisamment de personnes l’utilisent. C’est donc l’occasion de le prouver ».

Interrogé par Libé, Pratik Sinha, cofondateur du média spécialisé dans le fact-checking Alt News, avance qu’il sera « impossible pour les plateformes de respecter cette nouvelle loi. Nous sommes le pays le plus peuplé au monde et chaque jour, des milliards de posts sont générés ». Il s’interroge aussi sur les risques de censure politique :

« Qui détermine si un post-généré par IA est illégal ou non ? Normalement, en Inde, cela devrait relever d’une décision de justice, mais dans les faits, c’est la police qui s’en occupe. Cette loi a été votée pour faciliter la suppression des contenus qui critiquent le gouvernement, alors que les militants proches du pouvoir peuvent poster des fausses informations sans être inquiétés. »

L’Inde oblige les plateformes à tatouer les contenus audiovisuels générés par IA

19 février 2026 à 15:11
New délit
L’Inde oblige les plateformes à tatouer les contenus audiovisuels générés par IA

Les médias sociaux devront vérifier que les contenus synthétiques soient labellisés comme tels, empêcher le partage des deepnudes et deepfakes interdits, et retirer les contenus illicites sous trois voire deux heures.

L’adage « je crois ce que je vois » est périmé du fait de l’avènement des deepfakes, qui « constituent une menace importante pour la vie privée des individus et la société dans son ensemble », avance le Deepfake Prevention and Criminalisation Act.

Cette loi indienne vise à prévenir et à criminaliser la création, la diffusion et l’utilisation de contenus synthétiques générés par IA sans consentement ou sans filigrane numérique. D’après TechCrunch, les plateformes pourront se voir ordonner de les retirer dans un délai de trois heures, voire de deux heures seulement dans certains cas. Auparavant, ce délai pouvait monter à trois jours, précise Libération.

Les plateformes et médias sociaux permettant à leurs utilisateurs de partager du contenu audiovisuel devront aussi exiger qu’ils précisent s’ils ont été générés par IA, mais également déployer des outils pour vérifier ces déclarations, veiller à ce que les deepfakes soient clairement identifiés et accompagnés de données de provenance traçables, et empêcher le partage de contenus synthétiques interdits (notamment les usurpations d’identité, images intimes non consenties et contenus liés à des crimes graves).

Les plateformes seront tenues de déployer des « mesures techniques raisonnables et appropriées » pour empêcher leurs utilisateurs de créer ou de partager des contenus audio et vidéo illégaux générés de manière synthétique, précise The Verge.

Les contenus générés par IA qui ne seront pas bloqués devront quant à eux intégrer des « métadonnées permanentes ou d’autres mécanismes techniques appropriés permettant d’en déterminer la provenance », et les doter de marquages visibles et/ou audibles pour permettre aux utilisateurs d’identifier immédiatement qu’il s’agit de contenus synthétiques.

Le « retard considérable » des systèmes de détection et d’étiquetage de l’IA

L’Inde compte un milliard d’internautes, principalement des jeunes, ce qui en fait l’un des marchés les plus importants pour les plateformes sociales, souligne The Verge, pour qui « toute obligation imposée dans ce pays pourrait avoir un impact sur les efforts de modération des deepfakes à travers le monde, soit en améliorant la détection jusqu’à ce qu’elle soit réellement efficace, soit en obligeant les entreprises technologiques à reconnaître la nécessité de trouver de nouvelles solutions ».

Sauf que c’est plus facile à dire qu’à faire, eu égard au « retard considérable » des systèmes de détection et d’étiquetage de l’IA à l’heure actuelle. La Coalition for Content Provenance and Authenticity (C2PA), de la Content Authenticity Initiative (CAI), lancée en 2021 par Arm, la BBC, Intel, Microsoft et Adobe, insère ainsi des métadonnées détaillées dans les images, vidéos et fichiers audio au moment de leur création ou de leur modification, afin de décrire de manière invisible comment ils ont été créés ou modifiés.

Mais si Facebook, Instagram, YouTube et LinkedIn ajoutent des étiquettes aux contenus signalés par le système C2PA, « il est clair que cela ne fonctionne pas », assène The Verge, pour qui « ces étiquettes sont difficiles à repérer, et certains contenus synthétiques qui devraient comporter ces métadonnées passent entre les mailles du filet ».

De plus, les plateformes de médias sociaux ne peuvent pas étiqueter correctement les contenus produits par des tiers, tels que les modèles d’IA open source ou les applications dites « nudify » qui refusent d’adopter la norme volontaire C2PA.

Il sera impossible pour les plateformes de respecter cette nouvelle loi

The Verge souligne également que « l’interopérabilité est l’un des principaux enjeux de la norme C2PA », mais bien que les nouvelles règles indiennes puissent encourager son adoption, « elles sont si faciles à supprimer que certaines plateformes en ligne peuvent involontairement les effacer lors du téléchargement de fichiers ».

Étant donné que les amendements précisent les mécanismes de traçabilité qui doivent être mis en œuvre « dans la mesure où cela est techniquement possible », les responsables à l’origine de la décision indienne sont probablement conscients que les technologies actuelles de détection et d’étiquetage par IA ne sont pas encore au point, conclut The Verge : « Les organisations qui soutiennent la C2PA affirment depuis longtemps que le système fonctionnera si suffisamment de personnes l’utilisent. C’est donc l’occasion de le prouver ».

Interrogé par Libé, Pratik Sinha, cofondateur du média spécialisé dans le fact-checking Alt News, avance qu’il sera « impossible pour les plateformes de respecter cette nouvelle loi. Nous sommes le pays le plus peuplé au monde et chaque jour, des milliards de posts sont générés ». Il s’interroge aussi sur les risques de censure politique :

« Qui détermine si un post-généré par IA est illégal ou non ? Normalement, en Inde, cela devrait relever d’une décision de justice, mais dans les faits, c’est la police qui s’en occupe. Cette loi a été votée pour faciliter la suppression des contenus qui critiquent le gouvernement, alors que les militants proches du pouvoir peuvent poster des fausses informations sans être inquiétés. »

Infox : la France veut faire de l’Europe un « exportateur de stabilité informationnelle »

19 février 2026 à 13:01
La pilule bleue, blanc, rouge
Infox : la France veut faire de l’Europe un « exportateur de stabilité informationnelle »

La « Stratégie nationale de lutte contre les manipulations de l’information 2026 - 2030 » comporte de nombreuses mesures opérationnelles nationales et internationales visant, non seulement à former l’ensemble des Français à la lutte contre les manipulations de l’information (LMI), mais également à structurer l’écosystème OSINT et à en exporter les méthodologies et moyens à l’international.

La première « Stratégie nationale de lutte contre les manipulations de l’information 2026 - 2030 » du Secrétariat de la défense et de la sécurité nationale (SGDSN), à laquelle nous avons déjà consacré deux articles, ne se contente pas de vouloir former l’ensemble des Français à la lutte contre les manipulations de l’information (LMI).

Elle compte également améliorer la détection précoce des manipulations et ingérences, ainsi que les réponses à vocation dissuasive, qu’elles relèvent de la communication (à l’image du compte @frenchresponse) ou se déclinent en modes diplomatiques, judiciaires, économiques, techniques voire militaires. Elle vise aussi à structurer une filière souveraine, innovante et résiliente de l’OSINT, objectif qualifié d’« enjeu stratégique majeur ».

La stratégie comporte enfin tout un volet international, afin de favoriser l’émergence d’une communauté européenne de la LMI, de permettre l’envoi de missions d’appui technique, sorte de « casques bleus » de la lutte contre la désinformation et, au-delà, de faire de l’Europe un « exportateur de stabilité informationnelle ».

Pour rappel, le premier pilier de la nouvelle stratégie vise à « mobiliser la Nation pour renforcer la résilience », et le second à « réguler les plateformes en ligne et les services d’intelligence artificielle ».

Le 3ᵉ des 4 piliers compte entend quant à lui « structurer une réponse opérationnelle » face aux manipulations de l’information, en « articulant les dimensions techniques, juridiques, diplomatiques et industrielles », « en consolidant les capacités opérationnelles de détection, de caractérisation, d’imputation et de réponse et en renforçant l’écosystème technologique national ».

« La première condition d’efficacité est la détection précoce partagée », poursuit le SGDSN. Or, « le tempo opérationnel de la LMI en fait un exercice de gestion de crise permanent exigeant des échanges techniques quasiment continus » pour traiter la menace, nécessitant « un système d’alerte et de réponse fiable et réactif ».

C’est l’objectif poursuivi par son 9ᵉ objectif stratégique (OS9), qui veut renforcer les capacités de veille, de détection et de caractérisation des ingérences numériques étrangères, « de façon continue, mutualisée et distribuée, pour détecter précocement les campagnes hostiles et en qualifier rigoureusement la portée, les mécanismes et les auteurs ».

Au niveau national, le « cœur opérationnel » de la caractérisation des ingérences numériques étrangères est incarné par le comité opérationnel de lutte contre les manipulations de l’information (COLMI), l’instance de coordination interministérielle animée par VIGINUM : « Pour répondre au rythme imposé par les adversaires, cette structure évoluera vers une configuration plus permanente, réunissant de manière périodique l’ensemble des parties prenantes techniques et stratégiques concernées ».

Des « partenariats structurés » avec le monde académique, les plateformes, les laboratoires publics et privés viendront également « enrichir une capacité d’anticipation stratégique et d’analyse distribuée qui reposera sur une diversité de méthodes croisées » allant de l’exploitation en sources ouvertes (OSINT) au « traitement algorithmique de données massives » en passant par de la « modélisation des dynamiques de propagation ».

Le réseau diplomatique, notamment grâce à ses postes à l’étranger, « apportera un appui décisif à cette stratégie, en assurant une veille contextuelle renforcée dans les zones les plus vulnérables ». La montée en puissance du dispositif de veille du ministère de l’Europe et des Affaires étrangères (MEAE) permettra en parallèle de « mieux détecter les campagnes d’influence et de communication stratégique d’acteurs étrangers ».

« Mais détecter ne suffit pas », poursuit le SGDSN, « encore faut-il pouvoir répondre ». L’OS10 devra ainsi structurer une doctrine interministérielle de réponse aux opérations d’ingérences numériques étrangères, « et plus largement des manipulations de l’information d’origine étrangère », « dans le respect du droit et des orientations politiques validées », « avec des effets dissuasifs ou correctifs clairement identifiés ».

Placée sous l’autorité du SGDSN et du MEAE, une instance de coordination interministérielle spécifique proposera, en fonction de chaque situation, des stratégies combinant différents leviers, « activés de manière graduée ou simultanée, selon différentes temporalités » :

  • « communicationnels : actions de rétablissement des faits, mobilisation des relais d’opinion et des partenaires de confiance, publication régulière de bulletins d’information sur les ingérences numériques étrangères ;
  • diplomatiques : condamnations publiques, actions de rétorsion, canaux de désescalade, mesures de confiance ;
  • judiciaires : ouverture de procédures contre les auteurs ou leurs relais ;
  • économiques : activation de régimes de sanctions nationaux ou européens ;
  • militaires : mobilisation en appui de l’action des autres administrations ou mise en œuvre des leviers d’actions militaires selon le cadre et la chaîne de commandement des opérations ;
  • techniques : entrave de capacités techniques adverses, diffusion ciblée d’éléments d’analyse ou d’alerte. »

« C’est dans ce cadre par exemple que s’inscrivent les formes nouvelles de ripostes immédiates sur les réseaux sociaux tel que le compte French Response mis en place et piloté par le MEAE », souligne le SGDSN.

Viser directement les acteurs humains ou techniques de campagnes hostiles

Pour garantir son efficacité, cette réponse interministérielle « suppose un continuum cohérent entre les actions administratives, diplomatiques, techniques et judiciaires », qui fera l’objet d’un « plan d’action pour les parquets et une meilleure coopération internationale » (OS11) « permettant de viser directement les acteurs humains ou techniques de campagnes hostiles ».

« Nonobstant la mise en œuvre rapide, dans un cadre administratif, de mesures de retrait, de blocage ou de déréférencement », la France poursuivra l’opérationnalisation du référé dit « anti-fake news » pour en élargir le champ d’application aux scrutins locaux, notamment municipaux. « Dans cette boite à outils, les circonstances aggravantes prévues pour les ingérences étrangères pourront être mobilisées », souligne le SGDSN, de sorte que la diffusion de fausses nouvelles ou de manœuvres frauduleuses altérant la sincérité d’un scrutin puisse être « sanctionnée de manière plus forte ».

Le SGDSN évoque également deux récentes circulaires du garde des Sceaux relatives à la mobilisation de l’autorité judiciaire dans la lutte contre les ingérences étrangères et les manipulations de l’information, que nous détaillerons dans un article dédié.

Structurer l’écosystème OSINT, un « enjeu stratégique majeur »

Enfin, pour consolider dans la durée les capacités d’analyse, l’OS12 entend soutenir l’émergence d’une filière souveraine française d’outils, de services et de compétences dédiés à l’investigation en sources ouvertes (OSINT), qualifiée de « levier essentiel, encore largement structuré par des communautés intéressées, militantes, journalistiques ou académiques agissant hors cadre institutionnel ».

Le SGDSN précise que la France dispose de capacités OSINT opérationnelles, « notamment dans des environnements spécialisés, qu’ils soient institutionnels, académiques ou privés » et que « plusieurs acteurs nationaux développent des outils et services prometteurs, illustrant le potentiel et la vitalité de l’écosystème national », mais que « toutefois, ces initiatives restent trop dispersées et insuffisamment coordonnées à l’échelle nationale » :

« Leur potentiel reste limité par un faible niveau de mutualisation et l’absence d’un cadre structurant, favorable à l’industrialisation, à la souveraineté technologique et à l’interopérabilité. Structurer cet écosystème constitue désormais un enjeu stratégique majeur. »

Si le tissu industriel français « compte d’ores et déjà plusieurs entreprises proposant des solutions OSINT de qualité, innovantes et compétitives », ce vivier d’acteurs, « encore en phase de consolidation, mérite d’être pleinement soutenu pour atteindre un niveau de maturité industrielle et répondre aux besoins croissants des institutions et de la société civile ».

L’État entend dès lors « structurer une filière souveraine, innovante et résiliente de l’OSINT, capable de répondre aux besoins croissants des institutions publiques, des chercheurs, des journalistes et de la société civile » :

« Un dialogue structuré entre l’État et l’écosystème permettra d’identifier les priorités, d’orienter les investissements stratégiques, et de favoriser la mutualisation des approches entre acteurs institutionnels et civils. Les dispositifs existants (France 2030, Bpifrance, commande publique) seront mobilisés pour accompagner durablement les entreprises du domaine. »

« Sans remettre en cause leur indépendance ni leur diversité d’organisation », la stratégie nationale vise aussi à « mieux identifier » la communauté d’analystes OSINT de la société civile et à « faciliter, lorsque cela est pertinent, leurs interactions avec les acteurs publics et académiques ».

À cette fin, pourront également être étudiés « différents leviers d’appui proportionnés et non contraignants, tels que des dispositifs légers de soutien à des travaux ou projets ciblés dans le cadre du plan France 2030 ».

Le « bouclier européen de la démocratie » et l’Agence suédoise de défense psychologique

Le 4e et dernier pilier vise quant à lui à « Assurer, avec nos alliés, l’existence d’un espace informationnel libre, ouvert et sécurisé ». Le SGDSN précise que « la France entend jouer un rôle moteur pour promouvoir le droit, la transparence et la souveraineté des sociétés ouvertes et démocratiques », et qu’elle s’appuiera pour cela « sur ses alliances, ses partenariats et son savoir-faire reconnu, pour structurer une diplomatie de la résilience informationnelle autour de quatre chantiers complémentaires ».

L’OS13 cherchera ainsi à structurer et « construire une approche fédérative des services de détection au sein de l’Union européenne afin de disposer d’un réseau fonctionnel », afin de « protéger la stabilité institutionnelle, l’intégrité des processus électoraux et la confiance dans le débat public ».

« Dans le cadre du bouclier démocratique européen porté par l’Union européenne, la France est en faveur de l’émergence d’une communauté européenne de la LMI », écrit le SGDSN. Objectifs : diffuser les bonnes pratiques opérationnelles de détection, accompagner les pays souhaitant monter en puissance ou mettre en œuvre des services gouvernementaux opérationnels dédiés, et développer l’interopérabilité entre les États membres, les institutions européennes et la société civile :

« Dans ce cadre, la France bénéficie d’une légitimité particulière. Son dispositif de lutte contre les manipulations de l’information dans l’espace numérique constitue une référence européenne. Ce modèle permet à la France de jouer un rôle moteur dans la construction d’une capacité partagée entre États membres. »

Présenté par la Commission européenne en novembre 2025, le « bouclier européen de la démocratie », qui « repose sur une double logique de résilience interne et d’influence externe », précise le SGDSN, et vise lui aussi à protéger l’UE des ingérences et manipulations étrangères en ligne.

Il prévoit le lancement d’un Centre européen pour la résilience démocratique, qui vise à réunir l’expertise et les capacités des États membres et des pays voisins, et qui s’appuiera sur les exemples de Viginum ou de l’Agence suédoise de défense psychologique, créée en 2022 pour contrecarrer « les influences inappropriées » et « informations erronées », et « sauvegarder une société ouverte et démocratique, la liberté d’opinion et l’indépendance et la liberté en Suède ».

Faire de l’Europe un « exportateur de stabilité informationnelle »

« Dans les régions où la démocratie est fragile, les campagnes de manipulation peuvent avoir un effet déstabilisateur majeur », avance par ailleurs le SGDSN. L’OS14 entend donc « définir une stratégie internationale de renforcement des capacités d’action de nos partenaires », cibler les efforts de renforcement sur les États et zones les plus vulnérables, en fonction des échéances démocratiques sensibles (élections, référendums, débats législatifs ou sociaux majeurs, etc.) et des contextes géopolitiques critiques :

« Ces séquences sensibles deviennent des cibles privilégiées pour des puissances étrangères hostiles, qui y voient des opportunités de polarisation, de déstabilisation, de renforcement de la confusion voire du chaos et in fine de perte de confiance dans les institutions. »

Le SGDSN évoque également la création de « missions d’appui technique », mobilisant des expertises françaises et européennes, pouvant être déployées rapidement à l’invitation d’un État, avant ou pendant une échéance électorale.

« En intégrant cette action dans le cadre européen, la France entend faire de l’Union un pôle de projection de stabilité démocratique » et de l’Europe un « exportateur de stabilité informationnelle », dans une logique de réponse conjointe aux menaces, résume le SGDSN :

« Cet effort s’inscrira dans la continuité des partenariats déjà engagés par la France dans des zones de tension informationnelle ou démocratique, notamment dans les Balkans ou en Europe de l’Est et plus largement le voisinage de l’Union européenne. »

Faire de la France une voix structurante dans les enceintes multilatérales

« Par définition, les campagnes d’ingérences numériques étrangères impliquent des dynamiques internationales, visent des opinions publiques fragmentées, et s’appuient sur des vecteurs transnationaux », relève le SGDSN. Dans ce contexte, les enceintes multilatérales « constituent un levier stratégique essentiel pour faire émerger des normes communes, favoriser la coordination des réponses et porter une vision démocratique de l’espace informationnel mondial ».

L’OS15 cherche dès lors à « prioriser l’engagement de la France » et « coordonner la réponse démocratique » afin de « faire de la France une voix structurante dans les enceintes multilatérales pour inscrire la LMI dans une vision partagée, fondée sur l’État de droit, la transparence et la résilience démocratique », et « mobiliser pleinement les cercles européens, transatlantiques et onusiens ».

Se disant « consciente des difficultés et divisions des enceintes multilatérales internationales », la France « s’opposera à toute tentative de captation du discours multilatéral par des États autoritaires visant à légitimer la censure ou le contrôle total de l’espace numérique » à l’ONU. Elle encouragera, a contrario, « une reconnaissance des normes démocratiques d’intervention : proportionnalité, redevabilité, droit à l’information, transparence ».

Elle y défendra une approche fondée sur la « souveraineté informationnelle », notamment dans le cadre du Global Digital Compact et dans les travaux conduits au sein de l’UNESCO. Ce « Pacte numérique mondial », négocié par 193 États membres depuis 2024, « engage les gouvernements […] à prendre des mesures concrètes pour rendre l’espace numérique sûr et sécurisé ».

Il entend notamment « promouvoir et faciliter l’accès à une information indépendante, factuelle et opportune afin de contrer la désinformation et la mésinformation », « renforcer la gouvernance internationale des données et assurer une gouvernance de l’IA au service de l’humanité ».

La France soutiendra également l’intégration des manipulations informationnelles au sein de la doctrine de l’OTAN, les efforts du Centre d’excellence StratCom basé à Riga, en Lettonie, « tout en promouvant une approche plus offensive dans l’attribution publique et la réponse coordonnée aux campagnes de manipulation menées contre les Alliés ».

« Par cette stratégie multilatérale, la France entend articuler ses intérêts nationaux et ses principes démocratiques fondamentaux, en contribuant à l’émergence d’un cadre international fondé sur l’intégrité du débat public, la transparence algorithmique, la souveraineté informationnelle des peuples, la transparence et la sécurité partagée », conclut le SGDSN.

Dans un quatrième article, nous reviendrons sur les deux récentes circulaires du garde des Sceaux relatives à la mobilisation de l’autorité judiciaire dans la lutte contre les ingérences étrangères et les manipulations de l’information, ainsi que les nombreuses initiatives initiées par ou avec VIGINUM ces derniers mois.

Comment la France entend concrètement lutter contre les manipulations de l’information

18 février 2026 à 15:53
« Faites vos propres recherches » reloaded
Comment la France entend concrètement lutter contre les manipulations de l’information

La Stratégie nationale de lutte contre les manipulations de l’information dresse un très ambitieux plan de bataille visant à sensibiliser voire former l’ensemble des Français à la lutte contre les manipulations de l’information, qui s’inspire en bonne partie des méthodes en vigueur en matière de renseignement d’origine sources ouvertes (OSINT).

La première « Stratégie nationale de lutte contre les manipulations de l’information 2026 - 2030 » du Secrétariat de la défense et de la sécurité nationale (SGDSN, cf notre premier article de présentation) « repose sur trois principes fondamentaux : l’ouverture, l’action en réseau et l’intégration », largement inspirés des méthodes en vigueur en matière de renseignement d’origine sources ouvertes (OSINT).

Contrairement à d’autres champs de la sécurité nationale fondés sur la confidentialité, la lutte contre les manipulations de l’information « s’appuie, dans une large mesure, sur des méthodes et des ressources publiquement accessibles », privilégiant « la transparence, la vérifiabilité, et la mobilisation de l’ensemble des parties prenantes », résume le SGDSN.

Ce « choix stratégique », qualifié de « changement important de paradigme » en matière de sécurité nationale, « sera renforcé et rendu régulier », à mesure qu’il « vise à permettre la reproduction, la vérification, la contestation et la contribution par des acteurs tiers », ainsi que la validation par les pairs :

« Cette logique d’ouverture et de transparence est un levier de renforcement démocratique : en donnant au public les moyens de comprendre les mécanismes de manipulation, elle réduit leur efficacité. Une campagne de manipulation informationnelle ne peut opérer durablement sans opacité. La transparence devient ainsi un outil préventif autant que curatif, contribuant à une meilleure appropriation citoyenne des enjeux liés à l’ingérence numérique étrangère. »

L’action en réseau repose de son côté sur une « mobilisation distribuée », s’appuyant sur une logique de coopération entre les administrations, institutions, acteurs techniques, régulateurs, chercheurs, médias, plateformes, ainsi que la société civile et les citoyens, « chacun à son niveau de responsabilité ».

L’intégration renvoie de son côté à « une exigence de partage de l’information, dans le respect des impératifs de sécurité ». Le renforcement de la confiance mutuelle entre acteurs publics et privés « repose sur la circulation maîtrisée de ce qui est su, de ce qui est en cours d’évaluation, et de ce qui demeure encore incertain », précise le SGDSN.

Faire collectif à l’échelle du pays, et au-delà

La stratégie en elle-même s’articule autour de quatre priorités et piliers structurants, eux-mêmes déclinés en quinze objectifs stratégiques (OS) afin de « consolider l’avance de la France dans la préservation de l’intégrité du débat public et de prolonger ses efforts de résilience démocratique face aux manipulations de l’information ».

« Face à l’ampleur de la menace, l’enjeu central identifié de la stratégie est la constitution et l’animation d’un collectif à l’échelle du pays, et au-delà, dans une logique de réponse concertée à l’échelle internationale », ce qui induit :

  • « d’impliquer l’ensemble de la population dans la compréhension des phénomènes de manipulation ;
  • de partager largement l’information utile à la prévention et à la détection de ces phénomènes ;
  • de renforcer la capacité d’action des entités publiques et des acteurs de terrain ;
  • de mutualiser les ressources opérationnelles disponibles afin d’assurer une réponse coordonnée et efficace. »

Une nouvelle génération de professionnels hautement qualifiés

Le premier pilier vise à « renforcer la résilience de la société dans son ensemble, en agissant sur les facteurs cognitifs, sociaux, éducatifs et culturels que ces manipulations exploitent ». Intitulé « Mobiliser la Nation pour renforcer sa résilience », il entend « mobiliser les leviers éducatifs, associatifs, scientifiques et citoyens sur l’ensemble du territoire » afin de faire de chaque citoyen un acteur éclairé contre la manipulation de l’information.

« La première condition de cette résilience est la constitution d’une capacité nationale d’expertise, apte à détecter, caractériser et comprendre les opérations de manipulation de l’information (OS1) », précise le SGDSN, afin « d’assurer la fiabilité de l’environnement informationnel national au sens large, qu’il soit numérique ou non ».

Les connaissances, savoir-faire et réflexes associés « doivent pouvoir être intégrés dans l’ensemble des structures déterminantes pour le fonctionnement du pays ». Ce qui « requiert des adaptations organisationnelles mais aussi l’existence d’une nouvelle génération de professionnels hautement qualifiés » dans des domaines aussi variés que la veille stratégique, l’analyse des réseaux sociaux, l’évaluation des manipulations algorithmiques, l’utilisation malveillante des systèmes d’IA, l’investigation numérique ou encore la compréhension technique des dynamiques informationnelles.

Or, ce champ « souffre dès lors d’une pénurie de compétences, accentuée par une sous-représentation sociale et de genres, caractéristique plus large du secteur numérique », et par un « manque d’alignement entre les profils formés et les besoins réels du terrain ».

« À court terme, il importe de fournir à l’ensemble des décideurs locaux et nationaux, aux cadres de l’administration ainsi qu’aux directeurs des médias et journalistes », via leurs organes de formation professionnels respectifs, une information claire sur les mécanismes techniques et technologiques utilisés dans les opérations de manipulation de l’information.

Sur le long terme, « il importe d’investir massivement dans le développement de ces expertises », en les intégrant notamment aux cursus de formation existants dans les domaines régaliens, les médias, les sciences sociales et le numérique. Pour cela, « l’État développera une politique nationale de formation structurée, à destination d’un public d’acteurs clefs ».

À l’horizon 2027, la France structurera et déploiera une Académie de la lutte contre les manipulations de l’information (LMI), au sein de VIGINUM. Elle sera chargée de concevoir et partager des ressources pédagogiques adaptées à chaque public cible, former le plus grand nombre, et développer une « offre de renforcement capacitaire à l’échelle internationale », destinée aux partenaires étrangers souhaitant se doter de structures similaires à VIGINUM.

Une mobilisation de l’ensemble des acteurs de l’éducation

En parallèle, la stratégie nationale vise aussi à déployer une filière complète de long terme, allant de la sensibilisation citoyenne « transgénérationnelle » à la recherche académique « de haut niveau », en mobilisant l’ensemble des acteurs concernés : l’École, l’université, la recherche, les médias, la sphère culturelle et la société civile (OS2).

Au niveau scolaire, cela passera notamment par l’éducation aux médias et à l’information (EMI), l’enseignement moral et civique (EMC), un renforcement de la diffusion des ressources existantes, en particulier produites par le CLEMI et valorisées sur le site éduscol, et la « production de nouvelles ressources pour LUMNI ENSEIGNEMENT en collaboration avec l’INA et FRANCE TV, ainsi que des outils comme l’évolution du projet THE OSINT PROJECT ou la plateforme PIX, dont les usages pédagogiques seront valorisés et démultipliés ».

L’offre académique et les acteurs de l’enseignement supérieur, ainsi que leurs ministères compétents, « seront pleinement mobilisés » pour rappeler à leurs opérateurs l’importance de prendre en considération la LMI et l’éducation critique aux médias et à l’information dans la construction de leurs stratégies de formation.

Des actions de sensibilisation pourront être proposées aux doctorants dans le cadre de l’enseignement obligatoire à l’intégrité scientifique et aux enseignants-chercheurs nouvellement recrutés. Le sujet sera également pris en compte dans le cadre des enseignements de méthodologie dispensés aux étudiants de licence et master.

En parallèle, un réseau des communicants au sein des établissements d’enseignement supérieur et de recherche, des bibliothèques universitaires et des acteurs de formation à l’information scientifique sera mis en place et « facilitera l’accessibilité et la visibilité des travaux et contenus qui éclairent l’actualité, et participent à l’enrichissement du débat public ainsi qu’à la diffusion d’une culture scientifique, à l’attrait et à la démocratisation de la science ».

L’objectif est également de soutenir la recherche interdisciplinaire via des études approfondies sur la reconfiguration de l’économie de l’information en ligne et, plus largement, le paysage informationnel (« modèles d’affaires, architectures techniques, technologies émergentes, chaînes de valeur »), « en intégrant le potentiel de transformation majeur de l’IA générative ».

Favoriser le développement de l’esprit critique, soutenir Wikipedia

Au-delà du système éducatif, l’État mobilisera également les dispositifs d’engagement civique pour « former une jeunesse active dans la défense du débat public, […] structurer un vivier de citoyens actifs face aux manipulations de l’information », et « irriguer l’ensemble du tissu social de formats accessibles à tous » (OS3).

La stratégie s’appuiera aussi sur la diffusion à large échelle de « formats de sensibilisation participatifs » portés par un réseau de référents locaux de personnes formées, issues de l’éducation aux médias et à l’information, de l’éducation populaire, du monde associatif ou de l’Académie de la lutte contre la manipulation de l’information par un réseau de référents locaux (OS4) :

« L’objectif est de favoriser le développement de l’esprit critique, dans une logique d’autonomisation et de sensibilisation à même de remplir les fonctions de défense collective. Cette ambition suppose de multiplier les formats d’intervention adaptés (ateliers, débats, conférences, expériences immersives, etc.), en s’appuyant sur des dynamiques locales, participatives et décentralisées, à destination de tous les publics et sur l’ensemble du territoire. »

Cet OS4 entend « capitaliser » sur les « nombreuses initiatives, allant de l’éducation populaire aux espaces de débat citoyen, [qui] œuvrent déjà à outiller et sensibiliser l’ensemble de la population », tels que l’initiative Café IA, ou des structures comme le CLEMI, ainsi que l’encyclopédie participative Wikipédia :

« Il convient également d’apporter un soutien particulier à la contribution et à la valorisation de ressources telles que Wikipédia, qui bénéficient d’un important capital de confiance et jouent un rôle central dans les usages de vérification de l’information par les Français, sur quelque forme de savoir que ce soit, leur fiabilité et leur qualité reposant directement sur l’engagement et l’étendue de leurs communautés. »

S’inspirer de la loi Avia pour réguler les plateformes et services d’IA

Le second pilier, « Réguler les plateformes en ligne et les services d’intelligence artificielle générative », vise de son côté à « faire évoluer la gouvernance du numérique en responsabilisant les acteurs structurants de l’environnement informationnel – plateformes, moteurs de recherche, fournisseurs de services d’IA – face aux risques systémiques liés aux manipulations de l’information ».

Le SGDSN souligne que « cette architecture algorithmique, sans équivalent dans les médias traditionnels régis par une responsabilité éditoriale claire, soulève des enjeux inédits en matière d’intégrité, de responsabilité, de pluralisme et de transparence ».

Dans ce cadre, l’OS5 « exige de mobiliser tous les leviers possibles offerts par le cadre européen et national » pour pouvoir agir efficacement sur les plateformes numériques et les services d’IA générative, « en particulier pendant les périodes électorales ».

Le règlement européen sur les services numériques (DSA) confie la supervision principale des très grandes plateformes et très grands moteurs de recherche à la Commission européenne. Dans ce contexte, il s’agira notamment de « définir au niveau européen des règles techniques communes et précises permettant aux autorités nationales d’imposer, en période électorale, des mesures concrètes aux plateformes et aux services d’IA – adaptation des systèmes de recommandation, obligations renforcées de modération, exigences de transparence – afin de protéger le débat public ».

L’OS6 vise quant à lui à « établir un cadre de relations et de régulation rigoureux, sous peine de sanctions, entre les plateformes, les fournisseurs d’IA générative, les autorités, les chercheurs et la société civile ».

Le SGDSN avance en effet que les informations utiles à la compréhension des mécanismes de manipulation, des usages des plateformes et des effets des systèmes de recommandation « demeurent aujourd’hui dispersées et inégalement accessibles », ce qui limite la capacité d’analyse partagée et l’expression structurée des besoins des acteurs spécialisés.

Il propose de s’inspirer de l’expérience de l’Observatoire de la haine en ligne mis en place par la loi Avia au CSA en 2020, relancé par l’ARCOM en 2025 et composés de 28 représentants d’associations, de plateformes et d’administrations (contre une cinquantaine auparavant) pour créer un « cadre permanent de dialogue structuré », et doter l’écosystème d’un espace stable de partage d’analyses et de connaissances sur les phénomènes de manipulation de l’information.

Un centre d’excellence et un registre public des supports d’ingérences

L’OS7 poursuivra pour sa part la consolidation des moyens d’analyse des risques informationnels liés à l’IA afin de « créer une capacité d’expertise de référence, capable de qualifier, quantifier et anticiper les effets systémiques de l’IA sur la fiabilité de l’environnement informationnel ».

« Hypertrucages, génération de textes persuasifs, synthèse vocale, clonage d’identités, microciblage algorithmique : l’IA permet aujourd’hui de manipuler l’information à une échelle inédite, de manière difficilement détectable, et à un coût marginal », constate en effet le SGDSN.

L’équipe DATALAB de VIGINUM se transformera dès lors en « centre d’excellence IAxLMI » afin de « fournir des outils et services clés en main aux communautés de vérification de faits, aux médias, aux ONG et chercheurs », mais également « renforcer l’appui à l’ARCOM », au titre des missions découlant du DSA sur la modération et la vérification des algorithmes, « et appuyer les autorités publiques dans l’élaboration de réponses réglementaires ou techniques ».

« De manière complémentaire », souligne le SGDSN, la France doit aussi apporter son soutien aux acteurs de l’écosystème mobilisés dans la LMI, via des appels à coopération ou financements, ainsi que « différents modes de mise en visibilité ».

Enfin, la stratégie nationale s’attaquera aux mécanismes de financement de la manipulation de
l’information par la publicité programmatique et la monétisation des plateformes (OS8), afin de réduire la rentabilité des sites, comptes et chaînes impliqués dans des opérations de manipulation ou des pratiques frauduleuses.

Les algorithmes de recommandation des réseaux sociaux amplifient en effet les contenus « générant le plus d’activité (clics, commentaires, partages, temps de lecture) », et « donnant un avantage indirect aux contenus polarisants voire polémiques » :

« L’intérêt financier que représente la viralité de certaines thématiques peut ainsi motiver des acteurs opportunistes. L’institutionnalisation des programmes de redistribution crée ainsi une « économie » de la manipulation, pouvant favoriser des acteurs produisant massivement des contenus manifestement inexacts ou trompeurs. »

Ce risque, « identifié depuis plusieurs années », connaît une intensification avec l’essor des IA génératives, qui abaissent les coûts de production et de diffusion de contenus à grande échelle, ce qui renforce l’enjeu de régulation des dispositifs de monétisation.

La stratégie prévoit d’abord de définir « à l’échelle nationale » un référentiel cartographiant les dispositifs de monétisation des plateformes, et de « renforcer l’application des obligations de transparence » pour les créateurs et éditeurs établis hors de France diffusant des contenus politiques visant des audiences françaises.

Il est également question d’ « obliger les plateformes à mettre en place un guide de bonne conduite pour les contenus monétisables et prévoir des sanctions en cas de non-respect », d’ « encourager la vérification de l’identité des administrateurs et de la fiabilité des contenus pour l’éligibilité aux programmes de monétisation », et d’ « exiger la suspension du financement de comptes diffusant de manière répétée ou coordonnée des informations trompeuses à des fins lucratives, avec transparence sur les comptes concernés ».

Un registre public, librement accessible sous formats interopérables (fichiers téléchargeables, API), pour intégration dans les outils des agences médias, plateformes publicitaires et acteurs publics, recensera en outre les « sites ou chaînes identifiés comme supports manifestes d’ingérences numériques étrangères ».

« Il reposera sur des évaluations indépendantes associant journalistes, chercheurs, experts OSINT, organisations indépendantes, et entités étatiques compétentes telles que VIGINUM », précise le SGDSN :

« Les critères d’inclusion seront transparents : caractère manipulatoire des contenus, absence de transparence éditoriale, participation à des campagnes coordonnées. Il sera mis à jour régulièrement, horodaté, avec un dispositif contradictoire permettant aux éditeurs de contester leur inclusion. »

Un troisième article reviendra plus en détail sur les mesures opérationnelles de détection et de réponse aux ingérences numériques, la stratégie industrielle destinée à structurer l’écosystème OSINT, le volet international de la stratégie, et les nombreuses initiatives lancées par et avec VIGINUM.

☕️ La Russie veut autoriser le FSB à couper l’accès à Internet et la téléphonie mobile

18 février 2026 à 15:17

La Russie veut obliger les fournisseurs d’accès à Internet et de téléphonie mobile à se conformer aux ordres du service de sécurité intérieure russe FSB, successeur du KGB, visant à interrompre les services de télécommunications, rapporte The Moscow Times.

Le projet de loi, adopté mardi par la Douma d’État, chambre basse du Parlement russe, est censé contribuer à protéger les Russes et les institutions publiques contre les menaces pour la sécurité tout en préservant les entreprises de télécommunications de poursuites judiciaires. Et ce, alors que les régions du pays sont de plus en plus confrontées à des perturbations généralisées de l’internet et des réseaux mobiles en raison des attaques de drones ukrainiens, souligne le Moscow Times.

Le projet de loi, qui a été approuvé par 393 législateurs (sur 450, avec 13 voix contre), a depuis subi plusieurs modifications, notamment la suppression des références aux « menaces pour la sécurité » comme justification des fermetures et la modification des pouvoirs accordés au FSB, qui passent de la délivrance de « demandes » à celle d’« exigences » contraignantes.

Outre les services Internet et mobiles, le projet de loi permettrait également aux responsables de la sécurité de bloquer les appels téléphoniques, les SMS et même les services postaux, a déclaré Igor Lebedev, vice-ministre russe des Communications.

Pour entrer en vigueur, les modifications apportées à la loi russe sur les communications doivent encore être approuvées par le Conseil de la Fédération, la chambre haute du Parlement, et signées par Vladimir Poutine.

The Moscow Times, dont la rédaction s’est relocalisée à Amsterdam suite à l’invasion de l’Ukraine par la Russie, a depuis été classé « organisation indésirable » et l’accès à son site web est bloqué par le Roskomnadzor dans le pays.

☕️ La Russie veut autoriser le FSB à couper l’accès à Internet et la téléphonie mobile

18 février 2026 à 15:17

La Russie veut obliger les fournisseurs d’accès à Internet et de téléphonie mobile à se conformer aux ordres du service de sécurité intérieure russe FSB, successeur du KGB, visant à interrompre les services de télécommunications, rapporte The Moscow Times.

Le projet de loi, adopté mardi par la Douma d’État, chambre basse du Parlement russe, est censé contribuer à protéger les Russes et les institutions publiques contre les menaces pour la sécurité tout en préservant les entreprises de télécommunications de poursuites judiciaires. Et ce, alors que les régions du pays sont de plus en plus confrontées à des perturbations généralisées de l’internet et des réseaux mobiles en raison des attaques de drones ukrainiens, souligne le Moscow Times.

Le projet de loi, qui a été approuvé par 393 législateurs (sur 450, avec 13 voix contre), a depuis subi plusieurs modifications, notamment la suppression des références aux « menaces pour la sécurité » comme justification des fermetures et la modification des pouvoirs accordés au FSB, qui passent de la délivrance de « demandes » à celle d’« exigences » contraignantes.

Outre les services Internet et mobiles, le projet de loi permettrait également aux responsables de la sécurité de bloquer les appels téléphoniques, les SMS et même les services postaux, a déclaré Igor Lebedev, vice-ministre russe des Communications.

Pour entrer en vigueur, les modifications apportées à la loi russe sur les communications doivent encore être approuvées par le Conseil de la Fédération, la chambre haute du Parlement, et signées par Vladimir Poutine.

The Moscow Times, dont la rédaction s’est relocalisée à Amsterdam suite à l’invasion de l’Ukraine par la Russie, a depuis été classé « organisation indésirable » et l’accès à son site web est bloqué par le Roskomnadzor dans le pays.

Infox, ingérences & cie : la France veut « garantir que chacun puisse penser librement »

17 février 2026 à 13:10
Les complotistes vont adorer le détester
Infox, ingérences & cie : la France veut « garantir que chacun puisse penser librement »

La Stratégie nationale de lutte contre les manipulations de l’information 2026 - 2030 relève que la menace, en matière d’ingérences étrangères, n’a jamais été aussi élevée, mais également que la France a été l’une des pionnières dans la lutte dirigée contre cette dernière.

« Chaque citoyen, acteur public ou privé, doit disposer des moyens de s’informer de manière éclairée, de comprendre les mécanismes d’ingérence et de contribuer activement au débat démocratique », résume la Stratégie nationale de lutte contre les manipulations de l’information 2026 - 2030. Son introduction souligne qu’ « au cœur de cette stratégie se trouve l’ambition de dépasser la simple lutte contre les manipulations de l’information pour construire une société capable de maintenir la confiance et des repères communs ».

Un objectif urgent mais probablement hors d’atteinte, d’autant plus louable que le Parlement et donc l’opinion publique n’ont jamais été aussi divisés, que les médias et réseaux sociaux n’ont jamais été autant instrumentalisés et pollués par des manipulations de l’information (franco-françaises comme pouvant relever d’ingérences étrangères).

Cette première Stratégie nationale de lutte contre les manipulations de l’information, que vient de publier le Secrétariat de la défense et de la sécurité nationale (SGDSN), a pour objectif de doter la France de « moyens renforcés pour protéger son débat public, garantir la capacité de chacun à se forger un jugement éclairé et défendre, avec ses partenaires, un espace informationnel fondé sur la liberté d’expression et la pluralité des opinions » :

« Elle s’articule autour de quatre priorités : renforcer la résilience de la Nation ; encadrer et responsabiliser les plateformes en ligne et les services d’intelligence artificielle générative ; consolider les capacités nationales de détection, d’attribution et de réponse ; agir avec les partenaires européens et internationaux pour préserver un espace informationnel libre, ouvert et sécurisé. »

Dans sa préface, le président de la République souligne que les manipulations de l’information « ne sont plus des accidents marginaux du débat public » et qu’elles sont « devenues des instruments à part entière de confrontation stratégique » :

« Elles visent moins à convaincre qu’à désorienter, moins à imposer une vérité qu’à dissoudre les repères communs, moins à gagner un débat qu’à affaiblir la possibilité même du débat. En brouillant les frontières entre le vrai et le faux et en exploitant les fractures sociales et émotionnelles, elles cherchent à miner de l’intérieur ce que les démocraties ont de plus robuste : la confiance. »

« Face à ces pratiques, la tentation pourrait être grande d’ériger des murs, de restreindre la parole, de surveiller les idées. Ce serait une erreur », poursuit Emmanuel Macron : « La force des régimes autoritaires est de pouvoir contrôler l’information ; la force des démocraties est de pouvoir la confronter ».

« Il ne s’agit pas de dire ce qu’il faut penser, mais de garantir que chacun puisse penser librement », tout en identifiant les auteurs et vecteurs de manœuvres hostiles, « sans jamais soupçonner les citoyens » :

« Cette stratégie repose sur une conviction simple : le premier rempart contre la manipulation est la société elle-même. Une société instruite, capable de discernement, confiante dans ses institutions et dans ses médias, est une société moins vulnérable aux récits de division. »

« Ce n’est pas un hasard si les manipulations de l’information prospèrent d’abord là où existent l’ouverture, le débat et la pluralité », et donc dans nos démocraties, qui « sont aujourd’hui observées, testées, parfois attaquées par des régimes qui redoutent leur exemple » :

« C’est le paradoxe de la liberté : elle attire ceux qui veulent l’affaiblir. Mais c’est aussi sa force : elle permet de leur résister sans leur ressembler. […] Il ne s’agit pas seulement de protéger nos institutions. Il s’agit de défendre la capacité de chacun à se forger un jugement éclairé. »

Des MacronLeaks à l’assassinat de Samuel Paty

Élaborée sous l’égide du SGDSN, la stratégie nationale 2026 - 2030 s’appuie sur des contributions d’experts, de chercheurs, de parlementaires et d’acteurs de terrain engagés dans la lutte contre les manipulations de l’information, mais sans que le SGDSN n’en indique la liste. Elle revient par contre largement sur les différentes étapes ayant conduit à sa rédaction, et souligne que la France a été un « pays précurseur » en matière de lutte contre les manipulations de l’information.

Les MacronLeaks, publiés à la veille du premier tour de la présidentielle 2017, et depuis attribués à Fancy Bear (ou APT28, une unité du GRU, le service de renseignement militaire russe, également à l’origine du piratage de TV5Monde) avaient ainsi conduit à la mise en place, en 2018, d’un réseau de coordination interministérielle placé sous l’égide du SGDSN.

En décembre 2018, la loi relative à la lutte contre la manipulation de l’information avait doté, en parallèle, le CSA (devenu Autorité de régulation de la communication audiovisuelle et numérique, ARCOM) et le juge des référés de nouvelles prérogatives en la matière.

Fin 2020, l’assassinat de Samuel Paty « a marqué un tournant dans la perception de la menace, révélant la dangerosité des dynamiques de haine amplifiées numériquement ». La création de la « Task force Honfleur » interministérielle dédiée, décidée dans la foulée, jeta les bases d’un dispositif de réponse pérenne.

La création du service de vigilance et de protection contre les ingérences numériques étrangères (VIGINUM) en 2021 a depuis permis de sortir d’une « logique de gestion de crise », souligne le SGDSN, de structurer la doctrine et de lui dédier des « capacités opérationnelles », d’inscrire la « protection du débat public francophone au cœur de la défense et de la sécurité nationale », mais également de « renforcer la crédibilité de la France dans les coopérations internationales ».

Un « périmètre d’action publique ciblé »

Le décret du 13 juillet 2021 portant création de VIGINUM a défini la notion d’ingérence numérique étrangère (INE) comme étant une « opération impliquant, de manière directe ou indirecte, un acteur étranger (étatique ou non), et visant la diffusion artificielle ou automatisée, massive et délibérée d’allégations ou imputations de faits manifestement inexactes ou trompeuses, de nature à porter atteinte aux intérêts fondamentaux de la Nation ».

VIGINUM ne vise donc pas à lutter contre toute forme de désinformation, mais uniquement celles relevant d’une « typologie rigoureuse de la menace, qui repose sur quatre critères cumulatifs : une atteinte potentielle aux intérêts fondamentaux de la Nation ; une allégation ou imputation de fait manifestement inexacte ou trompeuse ; une diffusion, ou une volonté de diffusion, artificielle ou automatisée, massive et délibérée ; l’implication, directe ou indirecte d’un acteur étranger (étatique, paraétatique ou non-étatique) ».

Dès lors, VIGINUM reste circonscrit à un « périmètre d’action publique ciblé » et concentre ses moyens « sur l’amplification artificielle, l’automatisation et la coordination inauthentique », de sorte qu’il « protège le pluralisme interne en dissociant l’analyse des procédés de manipulation de toute appréciation des opinions, des acteurs ou des mouvements » :

« Le dispositif national de lutte contre les manipulations de l’information repose sur un principe démocratique clair : il n’a ni vocation ni mandat pour qualifier les dynamiques nationales. Son champ d’intervention porte sur la détection de manœuvres techniques de manipulation et d’opérations coordonnées impliquant une origine étrangère, dans une logique de sécurité nationale. »

« L’administration US mène une croisade pour sauver l’Europe »

Si le périmètre est délimité, la menace s’accroît. Aux traditionnels acteurs russes, chinois ou azerbaïdjanais, le SGDSN note en effet qu’ « une vision absolutiste de la liberté d’expression telle que conçue par certains courants conservateurs aux États-Unis est délibérément introduite dans le débat public européen ».

Instrumentalisée de manière « désinhibée » et « reprise opportunément par les plateformes en ligne », elle permet d’ « entretenir une conception trompeuse, voire erronée, des objectifs de la réglementation numérique européenne (DSA) », croisade récemment documentée par L’observatoire des multinationales.

Alors que l’administration Trump a pris soin de démanteler ses services et unités en charge (directement, ou via les fonds qu’ils accordaient à la société civile et aux ONG) de la lutte contre la désinformation et les ingérences étrangères, une note de bas de page souligne que l’U.S. National Security Strategy, publiée le 5 décembre 2025, souligne des velléités d’influence politique partisane en faveur des partis politiques européens d’extrême-droite, présentés comme « patriotiques » :

« La diplomatie américaine doit continuer à défendre la démocratie authentique, la liberté d’expression et la célébration sans complexe du caractère et de l’histoire propres à chaque nation européenne. Les États-Unis encouragent leurs alliés politiques en Europe à promouvoir ce renouveau spirituel, et l’influence croissante des partis patriotiques européens est en effet source d’un grand optimisme. »

Évoquant un risque d’ « effacement civilisationnel » de l’Europe, la nouvelle stratégie US dénonce pêle-mêle les décisions européennes qui « sapent la liberté politique et la souveraineté ; les politiques migratoires, qui transforment le continent et créent des tensions ; la censure de la liberté d’expression et la répression de l’opposition politique ; la chute des taux de natalité, ainsi que la perte des identités nationales (…) ». Elle souhaite dans le même temps que « l’Europe reste européenne, retrouve sa confiance en elle-même sur le plan civilisationnel et abandonne son obsession infructueuse pour l’asphyxie réglementaire », résume l’AFP :

« Nous rejetons les idéologies désastreuses “changement climatique” et “zéro émission nette” qui ont tant nui à l’Europe, menacé les États-Unis et subventionné nos adversaires. »

Le Financial Times révélait en outre le 6 février que « l’administration américaine mène une croisade pour sauver l’Europe », et que le département d’État états-unien s’apprêtait aussi à financer des groupes de réflexion et des organisations caritatives alignés sur le mouvement Maga à travers l’Europe, afin de diffuser les positions politiques de Washington et de lutter contre ce qu’il qualifie de menaces envers la liberté d’expression.

Les IA nous conduisent « vers une réalité de plus en plus fragmentée »

Cherchant à se projeter à l’horizon 2030, le SGDSN anticipe une banalisation des contenus générés par IA, au fur et à mesure que cette dernière est « intégrée aux outils du quotidien et aux gestes ordinaires de communication et de recherche d’information ». Or, « lorsque des traces numériques peuvent être produites instantanément et en nombre, leur valeur probante tend à s’affaiblir », au point que « ce qui faisait auparavant preuve comme élément visuel ou sonore isolé devient plus fragile et plus facilement contestable » :

« Dans ce contexte, la frontière entre information, commentaire, interprétation et manipulation devient moins lisible […] réduisant la capacité des publics à discriminer une production authentique d’une fabrication artificielle. »

« Cette banalisation s’accompagne d’une personnalisation accrue de l’information », poursuit le SGDSN, pour qui cette « hyper-personnalisation algorithmique » nous conduit « vers une réalité de plus en plus fragmentée ». Or, cette fragmentation crée aussi un terrain favorable aux stratégies d’ingérence, qui peuvent cibler des publics segmentés, adapter les messages et exploiter des clivages existants : « la polarisation ne résulterait alors plus seulement des désaccords d’opinion, mais du fait que les individus n’accèdent plus aux mêmes sujets ou aux mêmes récits, avec des mises en perspective différentes ».

Le SGDSN relève que des dispositifs, « notamment des agents IA ou des modèles agentiques, capables de produire, relayer et amplifier des prises de parole », commencent d’ores et déjà à participer aux échanges en ligne dans certains environnements, sans être toujours identifiables comme tels :

« L’enjeu ne consiste alors plus seulement à convaincre, mais à imposer une dynamique d’attention : capter l’attention, maintenir un sujet au premier plan et, in fine, saturer les capacités d’échange. Le débat public peut ainsi être moins structuré par la qualité des arguments que par la capacité à orienter ou disperser l’attention collective. Ces logiques s’accordent avec des modes opératoires d’ingérence fondés sur la diffusion artificielle et coordonnée de contenus, visant moins la persuasion directe que la perturbation durable du débat public. »

« À mesure que l’intelligence artificielle devient une interface d’accès à l’information (moteurs génératifs, assistants conversationnels, outils de synthèse) », les stratégies d’ingérence informationnelle « pourraient viser non plus seulement les publics, mais les systèmes chargés de produire, d’organiser et de reformuler l’information », souligne le SGDSN, évoquant les risques d’empoisonnement des IA :

« Dans un environnement où la valeur informationnelle repose de plus en plus sur les données – corpus d’entraînement, contenus indexés, signaux d’ajustement des modèles – l’action d’ingérence peut s’exercer en amont, par une intervention directe ou indirecte sur ces ensembles de données, plus facilement sur les couches d’indexation et de recherche dans des environnements ouverts, que sur les modèles fondamentaux eux-mêmes dont les corpus d’entraînement devraient, en théorie, être plus filtrés et préparés. »

Dans un second article, nous reviendrons sur les nombreuses mesures concrètes énumérées dans cette stratégie nationale de lutte contre les manipulations de l’information 2026 - 2030.

☕️ Ingérences numériques étrangères : VIGINUM doté de « moyens renforcés »

12 février 2026 à 13:51

VIGINUM annonce pouvoir collecter les données issues des petites plateformes où sont souvent pensées les opérations de manipulations contre la France, relève l’AFP.

Un décret, présenté hier en Conseil des ministres et publié ce 12 février au Journal officiel, dote en effet le service de vigilance et de protection contre les ingérences numériques étrangères de « moyens renforcés ».

Il supprime le « seuil minimal de 5 millions de visiteurs uniques par mois » qui fixait le « périmètre des plateformes sur lesquelles Viginum (pouvait) collecter des données à caractère personnel ».

Il élargit également le champ de cette collecte, « en particulier en l’étendant aux interfaces en ligne au sens du DSA », et allonge par ailleurs les durées de conservation des données et de renouvellement des collectes. Cette extension permet de conserver des « archives » pour faire face aux acteurs dits « persistants », explique une source sécuritaire à l’AFP.

Après quelques années en service, les autorités se sont aperçues qu’« un certain nombre d’opérations d’ingérence numérique étrangère se préparaient sur des petites plateformes pour que cela soit moins visible des outils de modération », poursuit cette source, citant notamment l’exemple de Discord.

Le décret octroie par ailleurs au service de nouvelles missions en matière de documentation des modes opératoires, de recherche et d’information du public, ainsi qu’aux actions d’éducation aux médias, et précise le cadre d’action de certaines missions déjà exercées, en particulier en matière électorale.

Infographie de la galaxie Viginum
Viginum

Dans sa délibération associée, la CNIL « prend acte des justifications » présentées par le secrétaire général de la défense et de la sécurité nationale (SGDSN), et « considère que le projet de décret comporte des garanties propres à assurer le respect du principe de minimisation des données lors de la collecte des données qui est rendue possible dès la phase de veille/détection ».

Elle relève par ailleurs que sa « nouvelle mission de recherche et développement implique la réutilisation des données collectées par Viginum pour une nouvelle finalité, de conception, d’entraînement et de développement d’outils utilisant l’IA en appui aux missions du service. »

Challenges rappelle de son côté que VIGINUM a publié en décembre dernier un guide de sensibilisation à la protection du débat public numérique en contexte électoral, en prévision des municipales les 15 et 26 mars prochains.

Une « stratégie nationale de lutte contre les manipulations de l’information », annoncée par Emmanuel Macron début février, vient par ailleurs d’être rendue publique (nous y reviendrons), précise Challenges :

« D’ores et déjà, tous les cadres dirigeants des partis politiques ont été reçus ces dernières semaines par Nicolas Roche, le patron du SGDSN (Secrétariat Général de la Défense et de la Sécurité Nationale), pour un brief sur les risques d’ingérences étrangères à l’occasion des municipales. »

☕️ Ingérences numériques étrangères : VIGINUM doté de « moyens renforcés »

12 février 2026 à 13:51

VIGINUM annonce pouvoir collecter les données issues des petites plateformes où sont souvent pensées les opérations de manipulations contre la France, relève l’AFP.

Un décret, présenté hier en Conseil des ministres et publié ce 12 février au Journal officiel, dote en effet le service de vigilance et de protection contre les ingérences numériques étrangères de « moyens renforcés ».

Il supprime le « seuil minimal de 5 millions de visiteurs uniques par mois » qui fixait le « périmètre des plateformes sur lesquelles Viginum (pouvait) collecter des données à caractère personnel ».

Il élargit également le champ de cette collecte, « en particulier en l’étendant aux interfaces en ligne au sens du DSA », et allonge par ailleurs les durées de conservation des données et de renouvellement des collectes. Cette extension permet de conserver des « archives » pour faire face aux acteurs dits « persistants », explique une source sécuritaire à l’AFP.

Après quelques années en service, les autorités se sont aperçues qu’« un certain nombre d’opérations d’ingérence numérique étrangère se préparaient sur des petites plateformes pour que cela soit moins visible des outils de modération », poursuit cette source, citant notamment l’exemple de Discord.

Le décret octroie par ailleurs au service de nouvelles missions en matière de documentation des modes opératoires, de recherche et d’information du public, ainsi qu’aux actions d’éducation aux médias, et précise le cadre d’action de certaines missions déjà exercées, en particulier en matière électorale.

Infographie de la galaxie Viginum
Viginum

Dans sa délibération associée, la CNIL « prend acte des justifications » présentées par le secrétaire général de la défense et de la sécurité nationale (SGDSN), et « considère que le projet de décret comporte des garanties propres à assurer le respect du principe de minimisation des données lors de la collecte des données qui est rendue possible dès la phase de veille/détection ».

Elle relève par ailleurs que sa « nouvelle mission de recherche et développement implique la réutilisation des données collectées par Viginum pour une nouvelle finalité, de conception, d’entraînement et de développement d’outils utilisant l’IA en appui aux missions du service. »

Challenges rappelle de son côté que VIGINUM a publié en décembre dernier un guide de sensibilisation à la protection du débat public numérique en contexte électoral, en prévision des municipales les 15 et 26 mars prochains.

Une « stratégie nationale de lutte contre les manipulations de l’information », annoncée par Emmanuel Macron début février, vient par ailleurs d’être rendue publique (nous y reviendrons), précise Challenges :

« D’ores et déjà, tous les cadres dirigeants des partis politiques ont été reçus ces dernières semaines par Nicolas Roche, le patron du SGDSN (Secrétariat Général de la Défense et de la Sécurité Nationale), pour un brief sur les risques d’ingérences étrangères à l’occasion des municipales. »

De l’enthousiasme au burnout, l’IA ne réduit pas la charge de travail, mais l’intensifie

12 février 2026 à 13:14
Le revers du mode IA
De l’enthousiasme au burnout, l’IA ne réduit pas la charge de travail, mais l’intensifie

Une étude de chercheuses de la Business School de Berkeley montre que le recours volontaire à l’IA augmente certes la productivité des employés, mais au prix d’un « nouveau rythme » de travail multitâche et d’un « cercle vicieux » générant workslop, burnout et turnover. Elle appelle les managers et employés à prendre la mesure du phénomène avant qu’il ne soit trop tard.

Dimanche dernier, un billet de blog intitulé « La fatigue liée à l’IA est bien réelle, mais personne n’en parle » faisait le buzz sur les réseaux sociaux. Le développeur Siddhant Khare y déplorait que « quand chaque tâche prend moins de temps, on ne fait pas moins de tâches, on en fait plus. Nos possibilités semblent s’étendre, donc le travail s’étend en fonction ».

Il y soulignait également que le passage d’une gestion lente mais concentrée sur un seul problème à celle de cinq ou six sujets différents en une journée l’empêche de retrouver le même état de « concentration profonde » qu’il connaissait auparavant, s’inquiétant d’une potentielle « atrophie de la pensée ».

Lundi, une étude publiée dans la Harvard Business Review est venue confirmer ses dires. « L’IA ne réduit pas la charge de travail, elle l’intensifie », y écrivent Aruna Ranganathan et Xingqi Maggie Yew, chercheuses à la Business School de l’université de Berkeley.

Elles ont étudié pendant huit mois, d’avril à décembre 2025, la manière dont l’IA générative avait modifié les habitudes de travail dans une entreprise technologique américaine comptant environ 200 employés. Elles y sont allées deux fois par semaine afin d’observer comment y travaillaient les employés, suivant également leurs canaux de communication internes, et procédant à plus de 40 entretiens approfondis :

« Nous avons constaté que les employés travaillaient à un rythme plus soutenu, assumaient un éventail de tâches plus large et prolongeaient leur journée de travail, souvent sans qu’on leur demande de le faire. De leur propre initiative, les employés en faisaient plus parce que l’IA leur donnait le sentiment que « faire plus » était possible, accessible et, dans de nombreux cas, intrinsèquement gratifiant. »

Les chercheuses soulignent que l’entreprise en question ne leur imposait aucunement de recourir à l’IA, se bornant à leur proposer des abonnements d’entreprise à des IA disponibles dans le commerce. « Si cela peut sembler être un rêve devenu réalité pour les dirigeants, les changements induits par l’adoption enthousiaste de l’IA peuvent s’avérer insoutenables et causer des problèmes à long terme », alertent cela dit les autrices :

« Une fois l’enthousiasme des premiers essais retombé, les employés peuvent se rendre compte que leur charge de travail a augmenté discrètement et se sentir dépassés par toutes les tâches qui leur incombent soudainement. Cette augmentation insidieuse de la charge de travail peut à son tour entraîner une fatigue cognitive, un épuisement professionnel et une prise de décision affaiblie. La hausse de productivité observée au début peut laisser place à une baisse de la qualité du travail, à un turnover élevé et d’autres problèmes. »

Un pharmakon : à la fois remède, poison, et bouc émissaire

Les chercheuses ont identifié trois formes principales d’intensification : l’élargissement du périmètre des tâches effectuées, le flou qui s’instaure entre travail et vie privée, la banalisation du multitâches.

L’IA pouvant assister ses utilisateurs dans des domaines où ils n’ont pas de compétences particulières, « les employés ont progressivement assumé des responsabilités qui incombaient auparavant à d’autres », relèvent les chercheuses. Les chefs de produit ont commencé à écrire du code, les chercheurs se sont attelés à des tâches d’ingénierie quand d’autres « se sont essayés à des tâches qu’ils auraient auparavant externalisées, reportées ou évitées ».

L’IA générative a en effet rendu envisageable d’effectuer des tâches qui, jusque-là, paraissaient a priori infaisables, faute de compétences dédiées. Les chercheuses ont constaté que les employés ont commencé à prendre en charge des tâches qui auraient préalablement nécessité une aide ou du personnel supplémentaires. Non content de réduire la dépendance vis-à-vis des autres, ce recours à l’IA offre en outre « une amélioration cognitive stimulante » aux personnes ainsi « augmentées ».

Sauf que, à la manière des prises de risque que peuvent générer de faux sentiments de sécurité, cette émancipation est aussi un pharmakon, et donc à la fois un remède, un poison, et un bouc émissaire, qui n’est pas sans rappeler la potentielle émergence d’une « bêtise artificielle » contre laquelle alerte la philosophe Anne Alombert.

Les chercheuses évoquent par exemple le temps passés par des ingénieurs à devoir réviser et corriger les mémos générés par IA de personnes ne disposant pas de compétences appropriées, ou encore le temps perdu à finaliser des pull requests et à remettre au propre du code développé en mode « vibe-coding » par des dev’ ne maitrisant pas le langage de programmation en question.

Un temps perdu que nous avions déjà chroniqué dans un article consacré au « workslop », terme désignant précisément les travaux de piètre qualité obligeant employés et managers à « refaire le job » que des gens moins qualifiés ont effectué grâce à l’IA dans des domaines qu’ils ne maitrisent pas, ou pas assez.

La frontière entre travail et temps libre devient poreuse

Les chercheuses ont également constaté que le fait de pouvoir expérimenter des tâches jusqu’alors inenvisageables contribue également à alimenter un flou entre ce qui relève du travail et de la vie privée. Des employés ont ainsi commencé à expérimenter de nouvelles compétences professionnelles sur leurs temps de pause déjeuner, le soir ou le week-end.

Le fait de pouvoir avoir des « conversations » avec les chatbots, et que ces tâches s’apparentent à la fois à des défis, énigmes, missions et nouveaux apprentissages, accroît également la propension à pouvoir s’y atteler, ou y retourner, en-dehors de ses horaires de travail.

« La frontière entre le travail et le temps libre n’avait pas disparu, mais elle était devenue plus facile à franchir », résument les chercheuses, à qui des employés ont déclaré avoir réalisé, souvent après coup, qu’à mesure que le fait de travailler pendant les pauses devenait une habitude, les temps morts ne leur procuraient plus le même sentiment de récupération.

Un « nouveau rythme » de travail multitâche

Le fait de pouvoir être assisté par un « partenaire » ou « assistant  » dédié, susceptible de les aider en matière de productivité dans leur charge de travail, a aussi poussé certains employés à vouloir en faire plus qu’avant, dans le même temps. L’IA a ainsi introduit un « nouveau rythme » de travail permettant à des employés de gérer plusieurs tâches actives à la fois.

Si ce mode « multitâches » peut donner l’impression d’être « boosté » voire « dopé », il requiert aussi de devoir fréquemment changer de sujet d’attention, pour vérifier et relancer les propositions de l’IA, et de faire face à un nombre croissant de tâches à la fois. De quoi générer une charge mentale cognitive supplémentaire, facilitant de surcroit les problèmes de concentration.

Cette façon de courir sur plusieurs fronts entraîne elle-même une fatigue accrue. De nombreux travailleurs ont ainsi remarqué qu’ils faisaient plus de choses à la fois et ressentaient plus de pression qu’avant d’utiliser l’IA, « même si le gain de temps résultant de l’automatisation était censé réduire cette pression », soulignent les chercheuses.

Un cercle vicieux : on ne travaille pas moins mais autant, voire plus

Alors que l’IA faisait miroiter des gains de productivité, ces derniers pourraient dès lors et dans le même temps entraîner des risques de burnout et de turnover, et donc de baisse de la productivité. Les chercheuses en concluent que ces combinaisons de travaux et (multi)tâches « augmentés » ont « créé un cercle vicieux », et que « cela place les dirigeants dans une situation délicate », voire au risque de « ne pas se rendre compte du coût de ces gains avant qu’il ne soit trop tard » :

« L’IA a accéléré certaines tâches, ce qui a accru les attentes en matière de rapidité ; cette rapidité accrue a rendu les travailleurs plus dépendants de l’IA. Cette dépendance accrue a élargi le champ d’action des travailleurs, ce qui a encore augmenté la quantité et la densité du travail. Plusieurs participants ont fait remarquer que, même s’ils se sentaient plus productifs, ils ne se sentaient pas moins occupés, et dans certains cas, ils se sentaient même plus occupés qu’auparavant. »

Comme l’a résumé un ingénieur : « On pensait que, peut-être, grâce à l’IA, on serait plus productif, on gagnerait du temps et on travaillerait moins. Mais en réalité, on ne travaille pas moins. On travaille autant, voire plus. »

Or, ce type de surmenage peut altérer le jugement, augmenter le risque d’erreurs, la fatigue voire l’épuisement professionnel, et un sentiment croissant qu’il est plus difficile de se détacher du travail, résument les chercheuses.

Contrer les effets épuisants et individualisants de l’IA

Cherchant à anticiper ce que les managers pourraient faire pour aider leurs employés à sortir de ce « cercle vicieux », elles écartent d’emblée le fait de leur demander de s’autoréguler. Elles estiment que les entreprises devraient élaborer un ensemble de normes et standards destinés à recadrer l’utilisation de l’IA, plutôt que de la laisser dévorer le temps de cerveau disponible des employés.

Elles incitent les managers à mettre en place des « pauses intentionnelles » afin d’évaluer l’état d’avancement des travaux, voire reconsidérer les hypothèses de base avant de continuer plus avant. Des propositions qui font écho à celles de Siddhant Khare, qui recommande de passer à autre chose si 30 minutes de conversation avec un chatbot ne s’avèrent pas satisfaisantes.

Les chercheuses proposent aussi de séquencer le temps de travail, avec des plages horaires protégeant les employés de toute interruption, et le regroupement des notifications non urgentes :

« Plutôt que de réagir à chaque résultat généré par l’IA au fur et à mesure qu’il apparaît, le séquençage encourage le travail à progresser par phases cohérentes. Lorsque la coordination est rythmée de cette manière, les travailleurs subissent moins de fragmentation et moins de changements de contexte coûteux, tandis que les équipes maintiennent leur rendement global. En régulant l’ordre et le calendrier du travail, plutôt qu’en exigeant une réactivité continue, le séquençage peut aider les organisations à préserver l’attention, à réduire la surcharge cognitive et à favoriser une prise de décision plus réfléchie. »

Les chercheuses invitent également les entreprises à organiser des temps de dialogue et de débriefing permettant aux employés d’échanger sur leurs pratiques respectives et ce que l’IA a pu changer. L’objectif serait tout autant d’ « interrompre l’utilisation continue et isolée de l’IA » que d’aider à « retrouver une certaine perspective », réancrer le travail dans un contexte social et « contrer les effets épuisants et individualisants d’un travail rapide et médiatisé par l’IA ».

« L’IA facilite l’accomplissement de tâches supplémentaires, mais rend plus difficile de s’arrêter », concluent les chercheuses, qui appellent à « préserver des moments de récupération et de réflexion, même lorsque le rythme de travail s’accélère » :

« La question qui se pose aux organisations n’est pas de savoir si l’IA va changer le travail, mais si elles vont activement façonner ce changement ou le laisser les façonner discrètement. »

De l’enthousiasme au burnout, l’IA ne réduit pas la charge de travail, mais l’intensifie

12 février 2026 à 13:14
Le revers du mode IA
De l’enthousiasme au burnout, l’IA ne réduit pas la charge de travail, mais l’intensifie

Une étude de chercheuses de la Business School de Berkeley montre que le recours volontaire à l’IA augmente certes la productivité des employés, mais au prix d’un « nouveau rythme » de travail multitâche et d’un « cercle vicieux » générant workslop, burnout et turnover. Elle appelle les managers et employés à prendre la mesure du phénomène avant qu’il ne soit trop tard.

Dimanche dernier, un billet de blog intitulé « La fatigue liée à l’IA est bien réelle, mais personne n’en parle » faisait le buzz sur les réseaux sociaux. Le développeur Siddhant Khare y déplorait que « quand chaque tâche prend moins de temps, on ne fait pas moins de tâches, on en fait plus. Nos possibilités semblent s’étendre, donc le travail s’étend en fonction ».

Il y soulignait également que le passage d’une gestion lente mais concentrée sur un seul problème à celle de cinq ou six sujets différents en une journée l’empêche de retrouver le même état de « concentration profonde » qu’il connaissait auparavant, s’inquiétant d’une potentielle « atrophie de la pensée ».

Lundi, une étude publiée dans la Harvard Business Review est venue confirmer ses dires. « L’IA ne réduit pas la charge de travail, elle l’intensifie », y écrivent Aruna Ranganathan et Xingqi Maggie Yew, chercheuses à la Business School de l’université de Berkeley.

Elles ont étudié pendant huit mois, d’avril à décembre 2025, la manière dont l’IA générative avait modifié les habitudes de travail dans une entreprise technologique américaine comptant environ 200 employés. Elles y sont allées deux fois par semaine afin d’observer comment y travaillaient les employés, suivant également leurs canaux de communication internes, et procédant à plus de 40 entretiens approfondis :

« Nous avons constaté que les employés travaillaient à un rythme plus soutenu, assumaient un éventail de tâches plus large et prolongeaient leur journée de travail, souvent sans qu’on leur demande de le faire. De leur propre initiative, les employés en faisaient plus parce que l’IA leur donnait le sentiment que « faire plus » était possible, accessible et, dans de nombreux cas, intrinsèquement gratifiant. »

Les chercheuses soulignent que l’entreprise en question ne leur imposait aucunement de recourir à l’IA, se bornant à leur proposer des abonnements d’entreprise à des IA disponibles dans le commerce. « Si cela peut sembler être un rêve devenu réalité pour les dirigeants, les changements induits par l’adoption enthousiaste de l’IA peuvent s’avérer insoutenables et causer des problèmes à long terme », alertent cela dit les autrices :

« Une fois l’enthousiasme des premiers essais retombé, les employés peuvent se rendre compte que leur charge de travail a augmenté discrètement et se sentir dépassés par toutes les tâches qui leur incombent soudainement. Cette augmentation insidieuse de la charge de travail peut à son tour entraîner une fatigue cognitive, un épuisement professionnel et une prise de décision affaiblie. La hausse de productivité observée au début peut laisser place à une baisse de la qualité du travail, à un turnover élevé et d’autres problèmes. »

Un pharmakon : à la fois remède, poison, et bouc émissaire

Les chercheuses ont identifié trois formes principales d’intensification : l’élargissement du périmètre des tâches effectuées, le flou qui s’instaure entre travail et vie privée, la banalisation du multitâches.

L’IA pouvant assister ses utilisateurs dans des domaines où ils n’ont pas de compétences particulières, « les employés ont progressivement assumé des responsabilités qui incombaient auparavant à d’autres », relèvent les chercheuses. Les chefs de produit ont commencé à écrire du code, les chercheurs se sont attelés à des tâches d’ingénierie quand d’autres « se sont essayés à des tâches qu’ils auraient auparavant externalisées, reportées ou évitées ».

L’IA générative a en effet rendu envisageable d’effectuer des tâches qui, jusque-là, paraissaient a priori infaisables, faute de compétences dédiées. Les chercheuses ont constaté que les employés ont commencé à prendre en charge des tâches qui auraient préalablement nécessité une aide ou du personnel supplémentaires. Non content de réduire la dépendance vis-à-vis des autres, ce recours à l’IA offre en outre « une amélioration cognitive stimulante » aux personnes ainsi « augmentées ».

Sauf que, à la manière des prises de risque que peuvent générer de faux sentiments de sécurité, cette émancipation est aussi un pharmakon, et donc à la fois un remède, un poison, et un bouc émissaire, qui n’est pas sans rappeler la potentielle émergence d’une « bêtise artificielle » contre laquelle alerte la philosophe Anne Alombert.

Les chercheuses évoquent par exemple le temps passés par des ingénieurs à devoir réviser et corriger les mémos générés par IA de personnes ne disposant pas de compétences appropriées, ou encore le temps perdu à finaliser des pull requests et à remettre au propre du code développé en mode « vibe-coding » par des dev’ ne maitrisant pas le langage de programmation en question.

Un temps perdu que nous avions déjà chroniqué dans un article consacré au « workslop », terme désignant précisément les travaux de piètre qualité obligeant employés et managers à « refaire le job » que des gens moins qualifiés ont effectué grâce à l’IA dans des domaines qu’ils ne maitrisent pas, ou pas assez.

La frontière entre travail et temps libre devient poreuse

Les chercheuses ont également constaté que le fait de pouvoir expérimenter des tâches jusqu’alors inenvisageables contribue également à alimenter un flou entre ce qui relève du travail et de la vie privée. Des employés ont ainsi commencé à expérimenter de nouvelles compétences professionnelles sur leurs temps de pause déjeuner, le soir ou le week-end.

Le fait de pouvoir avoir des « conversations » avec les chatbots, et que ces tâches s’apparentent à la fois à des défis, énigmes, missions et nouveaux apprentissages, accroît également la propension à pouvoir s’y atteler, ou y retourner, en-dehors de ses horaires de travail.

« La frontière entre le travail et le temps libre n’avait pas disparu, mais elle était devenue plus facile à franchir », résument les chercheuses, à qui des employés ont déclaré avoir réalisé, souvent après coup, qu’à mesure que le fait de travailler pendant les pauses devenait une habitude, les temps morts ne leur procuraient plus le même sentiment de récupération.

Un « nouveau rythme » de travail multitâche

Le fait de pouvoir être assisté par un « partenaire » ou « assistant  » dédié, susceptible de les aider en matière de productivité dans leur charge de travail, a aussi poussé certains employés à vouloir en faire plus qu’avant, dans le même temps. L’IA a ainsi introduit un « nouveau rythme » de travail permettant à des employés de gérer plusieurs tâches actives à la fois.

Si ce mode « multitâches » peut donner l’impression d’être « boosté » voire « dopé », il requiert aussi de devoir fréquemment changer de sujet d’attention, pour vérifier et relancer les propositions de l’IA, et de faire face à un nombre croissant de tâches à la fois. De quoi générer une charge mentale cognitive supplémentaire, facilitant de surcroit les problèmes de concentration.

Cette façon de courir sur plusieurs fronts entraîne elle-même une fatigue accrue. De nombreux travailleurs ont ainsi remarqué qu’ils faisaient plus de choses à la fois et ressentaient plus de pression qu’avant d’utiliser l’IA, « même si le gain de temps résultant de l’automatisation était censé réduire cette pression », soulignent les chercheuses.

Un cercle vicieux : on ne travaille pas moins mais autant, voire plus

Alors que l’IA faisait miroiter des gains de productivité, ces derniers pourraient dès lors et dans le même temps entraîner des risques de burnout et de turnover, et donc de baisse de la productivité. Les chercheuses en concluent que ces combinaisons de travaux et (multi)tâches « augmentés » ont « créé un cercle vicieux », et que « cela place les dirigeants dans une situation délicate », voire au risque de « ne pas se rendre compte du coût de ces gains avant qu’il ne soit trop tard » :

« L’IA a accéléré certaines tâches, ce qui a accru les attentes en matière de rapidité ; cette rapidité accrue a rendu les travailleurs plus dépendants de l’IA. Cette dépendance accrue a élargi le champ d’action des travailleurs, ce qui a encore augmenté la quantité et la densité du travail. Plusieurs participants ont fait remarquer que, même s’ils se sentaient plus productifs, ils ne se sentaient pas moins occupés, et dans certains cas, ils se sentaient même plus occupés qu’auparavant. »

Comme l’a résumé un ingénieur : « On pensait que, peut-être, grâce à l’IA, on serait plus productif, on gagnerait du temps et on travaillerait moins. Mais en réalité, on ne travaille pas moins. On travaille autant, voire plus. »

Or, ce type de surmenage peut altérer le jugement, augmenter le risque d’erreurs, la fatigue voire l’épuisement professionnel, et un sentiment croissant qu’il est plus difficile de se détacher du travail, résument les chercheuses.

Contrer les effets épuisants et individualisants de l’IA

Cherchant à anticiper ce que les managers pourraient faire pour aider leurs employés à sortir de ce « cercle vicieux », elles écartent d’emblée le fait de leur demander de s’autoréguler. Elles estiment que les entreprises devraient élaborer un ensemble de normes et standards destinés à recadrer l’utilisation de l’IA, plutôt que de la laisser dévorer le temps de cerveau disponible des employés.

Elles incitent les managers à mettre en place des « pauses intentionnelles » afin d’évaluer l’état d’avancement des travaux, voire reconsidérer les hypothèses de base avant de continuer plus avant. Des propositions qui font écho à celles de Siddhant Khare, qui recommande de passer à autre chose si 30 minutes de conversation avec un chatbot ne s’avèrent pas satisfaisantes.

Les chercheuses proposent aussi de séquencer le temps de travail, avec des plages horaires protégeant les employés de toute interruption, et le regroupement des notifications non urgentes :

« Plutôt que de réagir à chaque résultat généré par l’IA au fur et à mesure qu’il apparaît, le séquençage encourage le travail à progresser par phases cohérentes. Lorsque la coordination est rythmée de cette manière, les travailleurs subissent moins de fragmentation et moins de changements de contexte coûteux, tandis que les équipes maintiennent leur rendement global. En régulant l’ordre et le calendrier du travail, plutôt qu’en exigeant une réactivité continue, le séquençage peut aider les organisations à préserver l’attention, à réduire la surcharge cognitive et à favoriser une prise de décision plus réfléchie. »

Les chercheuses invitent également les entreprises à organiser des temps de dialogue et de débriefing permettant aux employés d’échanger sur leurs pratiques respectives et ce que l’IA a pu changer. L’objectif serait tout autant d’ « interrompre l’utilisation continue et isolée de l’IA » que d’aider à « retrouver une certaine perspective », réancrer le travail dans un contexte social et « contrer les effets épuisants et individualisants d’un travail rapide et médiatisé par l’IA ».

« L’IA facilite l’accomplissement de tâches supplémentaires, mais rend plus difficile de s’arrêter », concluent les chercheuses, qui appellent à « préserver des moments de récupération et de réflexion, même lorsque le rythme de travail s’accélère » :

« La question qui se pose aux organisations n’est pas de savoir si l’IA va changer le travail, mais si elles vont activement façonner ce changement ou le laisser les façonner discrètement. »

L’État de New York veut que les contenus générés par IA soient signalés comme tels

10 février 2026 à 15:50
NY FAIR News Act
L’État de New York veut que les contenus générés par IA soient signalés comme tels

Deux élues démocrates ont déposé un projet de loi afin de garantir l’intégrité des informations et de leurs travailleurs contre l’intelligence artificielle.

Un nouveau projet de loi présenté à l’Assemblée législative de l’État de New York entend obliger les organes de presse à signaler les contenus générés par l’IA et imposerait une vérification humaine préalable à leur publication, relève le Nieman Journalism Lab.

La sénatrice Patricia Fahy ( démocrate, comté d’Albany) et la députée Nily Rozic (démocrate, Eastern Queens) ont en effet présenté un projet de loi, intitulé « The New York Fundamental Artificial Intelligence Requirements in News Act » (loi sur les exigences fondamentales en matière d’intelligence artificielle dans les médias d’information de l’État de New York), ou « NY FAIR News Act » en abrégé.

« Au cœur de l’industrie de l’information, New York a tout intérêt à préserver le journalisme et à protéger les travailleurs qui le produisent », souligne Rozic dans un communiqué annonçant le projet de loi.

Il voudrait apporter « des protections claires et significatives pour les journalistes, les professionnels des médias et le grand public afin de garantir l’intégrité des informations et de leur personnel contre l’intelligence artificielle ».

La loi exigerait pour ce faire que les organes de presse apposent des avertissements sur tout contenu publié « essentiellement composé, rédigé ou créé à l’aide d’une intelligence artificielle générative ». Les articles, images et sons créés à l’aide d’une IA générative devraient également être examinés par un employé humain « ayant un contrôle éditorial » avant leur publication.

Le journalisme, une des industries les plus menacées par l’IA

Les législateurs se justifient au motif que les contenus générés par l’IA peuvent être « faux ou trompeur ». Ils soutiennent également que ces derniers « plagient » les sources originales dont les IA s’inspirent « sans autorisation ni citation appropriée ».

« L’une des industries les plus menacées par l’utilisation de l’intelligence artificielle est sans doute le journalisme et, par conséquent, la confiance du public dans l’exactitude des informations diffusées », précise la sénatrice Fahy dans le communiqué, ajoutant que « Plus de 76 % des Américains s’inquiètent du fait que l’IA puisse voler ou reproduire des articles journalistiques et des informations locales. »

La proposition a également été approuvée par une large coalition de syndicats représentant les travailleurs du secteur des médias d’information de New York. « Alors que la technologie de l’IA continue d’évoluer rapidement, nous devons mettre en place des mesures de protection plus strictes pour protéger les travailleurs et garantir la surveillance et la transparence lors de son utilisation », a déclaré le président de l’AFL-CIO de l’État de New York, Mario Cilento :

« La loi NY FAIR News Act permettra de préserver la crédibilité des journalistes, de garantir l’intégrité des reportages et de renforcer la confiance du public. Ces garde-fous de bon sens sont essentiels à une démocratie saine. »

Le texte prévoit aussi l’interdiction du remplacement des journalistes par des IA

Le texte prévoit également que l’utilisation de systèmes d’intelligence artificielle générative ne puisse entraîner de licenciement, remplacement ni transfert de tâches et fonctions actuellement exécutées par des employés ou des travailleurs, pas plus que de réduction de temps de travail, salaires ou avantages sociaux, ni de dégradation des conventions collectives existantes.

Le Nieman Lab relève que des dispositions similaires ont été négociées dans les conventions collectives individuelles de nombreuses salles de rédaction à travers le pays au cours des deux dernières années.

L’an passé, le gouvernement espagnol avait de son côté prévu de sanctionner les contenus ne précisant pas qu’ils sont générés par IA. Les sanctions, découlant de l’application de l’AI Act européen, s’échelonneraient de 500 000 à 7,5 millions d’euros, ou de 1 % à 2 % du chiffre d’affaires mondial des entités prises en défaut.

L’État de New York veut que les contenus générés par IA soient signalés comme tels

10 février 2026 à 15:50
NY FAIR News Act
L’État de New York veut que les contenus générés par IA soient signalés comme tels

Deux élues démocrates ont déposé un projet de loi afin de garantir l’intégrité des informations et de leurs travailleurs contre l’intelligence artificielle.

Un nouveau projet de loi présenté à l’Assemblée législative de l’État de New York entend obliger les organes de presse à signaler les contenus générés par l’IA et imposerait une vérification humaine préalable à leur publication, relève le Nieman Journalism Lab.

La sénatrice Patricia Fahy ( démocrate, comté d’Albany) et la députée Nily Rozic (démocrate, Eastern Queens) ont en effet présenté un projet de loi, intitulé « The New York Fundamental Artificial Intelligence Requirements in News Act » (loi sur les exigences fondamentales en matière d’intelligence artificielle dans les médias d’information de l’État de New York), ou « NY FAIR News Act » en abrégé.

« Au cœur de l’industrie de l’information, New York a tout intérêt à préserver le journalisme et à protéger les travailleurs qui le produisent », souligne Rozic dans un communiqué annonçant le projet de loi.

Il voudrait apporter « des protections claires et significatives pour les journalistes, les professionnels des médias et le grand public afin de garantir l’intégrité des informations et de leur personnel contre l’intelligence artificielle ».

La loi exigerait pour ce faire que les organes de presse apposent des avertissements sur tout contenu publié « essentiellement composé, rédigé ou créé à l’aide d’une intelligence artificielle générative ». Les articles, images et sons créés à l’aide d’une IA générative devraient également être examinés par un employé humain « ayant un contrôle éditorial » avant leur publication.

Le journalisme, une des industries les plus menacées par l’IA

Les législateurs se justifient au motif que les contenus générés par l’IA peuvent être « faux ou trompeur ». Ils soutiennent également que ces derniers « plagient » les sources originales dont les IA s’inspirent « sans autorisation ni citation appropriée ».

« L’une des industries les plus menacées par l’utilisation de l’intelligence artificielle est sans doute le journalisme et, par conséquent, la confiance du public dans l’exactitude des informations diffusées », précise la sénatrice Fahy dans le communiqué, ajoutant que « Plus de 76 % des Américains s’inquiètent du fait que l’IA puisse voler ou reproduire des articles journalistiques et des informations locales. »

La proposition a également été approuvée par une large coalition de syndicats représentant les travailleurs du secteur des médias d’information de New York. « Alors que la technologie de l’IA continue d’évoluer rapidement, nous devons mettre en place des mesures de protection plus strictes pour protéger les travailleurs et garantir la surveillance et la transparence lors de son utilisation », a déclaré le président de l’AFL-CIO de l’État de New York, Mario Cilento :

« La loi NY FAIR News Act permettra de préserver la crédibilité des journalistes, de garantir l’intégrité des reportages et de renforcer la confiance du public. Ces garde-fous de bon sens sont essentiels à une démocratie saine. »

Le texte prévoit aussi l’interdiction du remplacement des journalistes par des IA

Le texte prévoit également que l’utilisation de systèmes d’intelligence artificielle générative ne puisse entraîner de licenciement, remplacement ni transfert de tâches et fonctions actuellement exécutées par des employés ou des travailleurs, pas plus que de réduction de temps de travail, salaires ou avantages sociaux, ni de dégradation des conventions collectives existantes.

Le Nieman Lab relève que des dispositions similaires ont été négociées dans les conventions collectives individuelles de nombreuses salles de rédaction à travers le pays au cours des deux dernières années.

L’an passé, le gouvernement espagnol avait de son côté prévu de sanctionner les contenus ne précisant pas qu’ils sont générés par IA. Les sanctions, découlant de l’application de l’AI Act européen, s’échelonneraient de 500 000 à 7,5 millions d’euros, ou de 1 % à 2 % du chiffre d’affaires mondial des entités prises en défaut.

Incognito Market : 30 ans de prison pour l’administrateur taïwanais de 24 ans

10 février 2026 à 15:24
Cache cash
Incognito Market : 30 ans de prison pour l’administrateur taïwanais de 24 ans

Accusé d’avoir contribué à vendre l’équivalent de plus de 105 millions de dollars de drogues sur le « dark web », un ex-étudiant taïwanais en sécurité informatique avait réussi à en tirer plus de 6 millions de dollars, à raison de 5 % de chaque transaction. Qu’il avait en partie transféré sur un compte à son nom.

Avec 45,5 millions de revenus en 2023, Incognito Market figurait alors en 4ᵉ position des places de marché du dark web les plus profitables. Le communiqué du département de la Justice US avance qu’elle aurait contribué à écouler plus de 105 millions de dollars de stupéfiants, dont plus de 1 000 kg de cocaïne, plus de 1 000 kg de méthamphétamines, des centaines de kg d’autres stupéfiants et plus de 4 kg d’une substance prétendument de l’« oxycodone », dont une partie était mélangée à du fentanyl.

« Rui-Siang Lin était l’un des trafiquants de drogue les plus prolifiques au monde, utilisant Internet pour vendre plus de 105 millions de dollars de drogues illégales dans tout le pays et à travers le monde », tout en prélevant 5 % des transactions, a déclaré le procureur américain Jay Clayton :

« Il est responsable d’au moins un décès tragique, et il a exacerbé la crise des opioïdes et causé la misère de plus de 470 000 consommateurs de stupéfiants et de leurs familles. La sentence prononcée aujourd’hui met en garde les trafiquants : vous ne pouvez pas vous cacher dans l’ombre d’Internet. Et notre message plus général est simple : Internet, la « décentralisation », la « blockchain » – toute technologie – ne sont pas un permis pour exploiter un commerce de distribution de stupéfiants. »   

« Et oui, il s’agit d’une extorsion !!!! »

En mars 2024, Incognito Market, l’« une des plus grandes » places de marché (noir) de vente de drogues sur le dark web, parvenait successivement à escroquer puis rançonner ses utilisateurs. D’ordinaire, ceux qui procèdent à de tels « exit scam » cherchent à se faire discrets. Pharoah, l’administrateur de la place de marché, fit de son côté tout pour se faire remarquer.

Se disant « surpris du nombre de personnes qui se sont fiées à notre fonctionnalité de « chiffrement automatique » », Pharoah précisait en effet aux utilisateus d’Incognito Market que les « messages et identifiants de transaction n’ont jamais été supprimés après la période d' »expiration »… SURPRISE SURPRISE !!! »

Pour les inciter à payer leurs rançons (de 100 à 20 000 dollars), il menaçait même de « fuiter auprès des forces de l’ordre » l’intégralité des 557 000 commandes et 862 000 identifiants de transactions de crypto-monnaies à la fin du mois de mai : « Le fait que vos informations et celles de vos clients figurent sur cette liste ne dépend que de vous », précise le message : « Et oui, il s’agit d’une extorsion !!!! ».

Un CV incompatible avec sa fortune en cryptos

Fin mai, le département de la Justice des États-Unis avait annoncé l’arrestation d’un Taïwanais de 23 ans, qu’il accuse d’être Pharoah. Rui-Siang Lin, un ex-étudiant en sécurité informatique passionné par les cryptos – et également connu sous les noms de Ruisiang Lin, 林睿庠, et faro – avait en effet été arrêté à l’aéroport John F. Kennedy de New York.

Le communiqué précisait alors qu’Incognito Market aurait permis la commercialisation de plus de 1 000 kilos de stupéfiants, dont « au moins 364 kilogrammes de cocaïne, 295 kilogrammes de méthamphétamine et 92 kilogrammes de MDMA », pour « environ 80 000 000 $ en crypto-monnaies ».

Incognito Market dénombrait plus de 1 000 vendeurs, plus de 200 000 acheteurs, et « au moins un employé ». Le communiqué annonçant la sentence infligée à Rui-Siang Lin avance désormais qu’y figuraient 1 800 «  vendeurs », et plus de 400 000 « acheteurs » ayant effectué plus de 640 000 transactions.

Les quatre portefeuilles de cryptos stockés dans le serveur saisi en janvier 2024 comprenaient 1 316 BTC (équivalant à 37 millions de dollars, précisait l’acte d’accusation), dont 123,14 (3,35 M$) pour le seul portefeuille de l’administrateur d’Incognito Market.

L’analyse des transactions indiquait que, depuis son lancement, Incognito Market aurait généré 83,6 millions de dollars de revenus et rapporté à son administrateur « au moins 4 181 228 $ grâce à sa commission de 5 % ».

Or, l’un des portefeuilles de cryptoactifs, créé par Rui-Siang Lin fin juillet 2023, avait reçu l’équivalent de 4,5 millions de dollars de dépôts en cryptos fin novembre. Des sommes incompatibles avec ses activités professionnelles, résumait l’acte d’accusation :

« Sur les quatre « expériences professionnelles » énumérées dans le CV de Lin, la première est un « stage », la seconde est « étudiant chercheur », la troisième « cofondateur » d’une obscure société de technologie et la quatrième est employé des « technologies de l’information » pour un bureau du gouvernement étranger. Aucun de ces postes ne suggère que LIN aurait gagné des millions de dollars. »

Spécialiste de l’OPSEC, il tombe pour des erreurs d’OPSEC

Étrangement, Rui-Siang Lin avait non seulement commis l’erreur de se rendre aux États-Unis, mais aussi et surtout d’effectuer quatre paiements auprès d’un registrar pour des noms de domaine faisant la promotion d’Incognito Market depuis un portefeuille de cryptos lui étant associé.

Ce même portefeuille avait en outre reçu des sommes en provenance d’une plateforme de « swapping » (souvent utilisée pour « blanchir » des BTC notamment en les convertissant en d’autres cryptoactifs, NDLR) dont les montants correspondaient à ceux que l’administrateur d’Incognito Market venait de tenter de blanchir.

Des erreurs d’autant plus surprenantes qu’Incognito Market obligeait ses utilisateurs à déchiffrer des messages chiffrés au moyen de PGP, mais qu’il les testait également via des quizz portant notamment sur leurs connaissances de la sécurité de Monero ou encore des principes de la sécurité opérationnelle (ou OPSEC, pour « OPerations SECurity »), s’étonnait Wired.

Extraits d'un quizz proposé aux utilisateurs d'Incognito

Recruté comme spécialiste des technologies de l’information par le ministère des Affaires étrangères de Taïwan, il avait en outre été envoyé diriger, à l’Académie de police de l’île de Sainte-Lucie, dans les Caraïbes, une formation de quatre jours consacrée à… la cybercriminalité et aux crypto-monnaies. 

Et dans sa dernière publication sur LinkedIn, il se disait « très heureux de vous annoncer que j’ai obtenu la nouvelle qualification de Chainalysis : Chainalysis Reactor Certification (CRC) ! », la société d’analyse des blockchains et cryptoactifs utilisée par les principales polices occidentales.

Dans son dernier tweet, posté le 18 mai (jour de son arrestation), il partageait un graphe de Chainalysis montrant qu’avec 45,5 millions de revenus en 2023, Incognito Market figurait en 4ᵉ position des places de marché du dark web les plus profitables.

Incognito Market : 30 ans de prison pour l’administrateur taïwanais de 24 ans

10 février 2026 à 15:24
Cache cash
Incognito Market : 30 ans de prison pour l’administrateur taïwanais de 24 ans

Accusé d’avoir contribué à vendre l’équivalent de plus de 105 millions de dollars de drogues sur le « dark web », un ex-étudiant taïwanais en sécurité informatique avait réussi à en tirer plus de 6 millions de dollars, à raison de 5 % de chaque transaction. Qu’il avait en partie transféré sur un compte à son nom.

Avec 45,5 millions de revenus en 2023, Incognito Market figurait alors en 4ᵉ position des places de marché du dark web les plus profitables. Le communiqué du département de la Justice US avance qu’elle aurait contribué à écouler plus de 105 millions de dollars de stupéfiants, dont plus de 1 000 kg de cocaïne, plus de 1 000 kg de méthamphétamines, des centaines de kg d’autres stupéfiants et plus de 4 kg d’une substance prétendument de l’« oxycodone », dont une partie était mélangée à du fentanyl.

« Rui-Siang Lin était l’un des trafiquants de drogue les plus prolifiques au monde, utilisant Internet pour vendre plus de 105 millions de dollars de drogues illégales dans tout le pays et à travers le monde », tout en prélevant 5 % des transactions, a déclaré le procureur américain Jay Clayton :

« Il est responsable d’au moins un décès tragique, et il a exacerbé la crise des opioïdes et causé la misère de plus de 470 000 consommateurs de stupéfiants et de leurs familles. La sentence prononcée aujourd’hui met en garde les trafiquants : vous ne pouvez pas vous cacher dans l’ombre d’Internet. Et notre message plus général est simple : Internet, la « décentralisation », la « blockchain » – toute technologie – ne sont pas un permis pour exploiter un commerce de distribution de stupéfiants. »   

« Et oui, il s’agit d’une extorsion !!!! »

En mars 2024, Incognito Market, l’« une des plus grandes » places de marché (noir) de vente de drogues sur le dark web, parvenait successivement à escroquer puis rançonner ses utilisateurs. D’ordinaire, ceux qui procèdent à de tels « exit scam » cherchent à se faire discrets. Pharoah, l’administrateur de la place de marché, fit de son côté tout pour se faire remarquer.

Se disant « surpris du nombre de personnes qui se sont fiées à notre fonctionnalité de “chiffrement automatique” », Pharoah précisait en effet aux utilisateus d’Incognito Market que les « messages et identifiants de transaction n’ont jamais été supprimés après la période d'”expiration”… SURPRISE SURPRISE !!! »

Pour les inciter à payer leurs rançons (de 100 à 20 000 dollars), il menaçait même de « fuiter auprès des forces de l’ordre » l’intégralité des 557 000 commandes et 862 000 identifiants de transactions de crypto-monnaies à la fin du mois de mai : « Le fait que vos informations et celles de vos clients figurent sur cette liste ne dépend que de vous », précise le message : « Et oui, il s’agit d’une extorsion !!!! ».

Un CV incompatible avec sa fortune en cryptos

Fin mai, le département de la Justice des États-Unis avait annoncé l’arrestation d’un Taïwanais de 23 ans, qu’il accuse d’être Pharoah. Rui-Siang Lin, un ex-étudiant en sécurité informatique passionné par les cryptos – et également connu sous les noms de Ruisiang Lin, 林睿庠, et faro – avait en effet été arrêté à l’aéroport John F. Kennedy de New York.

Le communiqué précisait alors qu’Incognito Market aurait permis la commercialisation de plus de 1 000 kilos de stupéfiants, dont « au moins 364 kilogrammes de cocaïne, 295 kilogrammes de méthamphétamine et 92 kilogrammes de MDMA », pour « environ 80 000 000 $ en crypto-monnaies ».

Incognito Market dénombrait plus de 1 000 vendeurs, plus de 200 000 acheteurs, et « au moins un employé ». Le communiqué annonçant la sentence infligée à Rui-Siang Lin avance désormais qu’y figuraient 1 800 «  vendeurs », et plus de 400 000 « acheteurs » ayant effectué plus de 640 000 transactions.

Les quatre portefeuilles de cryptos stockés dans le serveur saisi en janvier 2024 comprenaient 1 316 BTC (équivalant à 37 millions de dollars, précisait l’acte d’accusation), dont 123,14 (3,35 M$) pour le seul portefeuille de l’administrateur d’Incognito Market.

L’analyse des transactions indiquait que, depuis son lancement, Incognito Market aurait généré 83,6 millions de dollars de revenus et rapporté à son administrateur « au moins 4 181 228 $ grâce à sa commission de 5 % ».

Or, l’un des portefeuilles de cryptoactifs, créé par Rui-Siang Lin fin juillet 2023, avait reçu l’équivalent de 4,5 millions de dollars de dépôts en cryptos fin novembre. Des sommes incompatibles avec ses activités professionnelles, résumait l’acte d’accusation :

« Sur les quatre “expériences professionnelles” énumérées dans le CV de Lin, la première est un “stage”, la seconde est “étudiant chercheur”, la troisième “cofondateur” d’une obscure société de technologie et la quatrième est employé des “technologies de l’information” pour un bureau du gouvernement étranger. Aucun de ces postes ne suggère que LIN aurait gagné des millions de dollars. »

Spécialiste de l’OPSEC, il tombe pour des erreurs d’OPSEC

Étrangement, Rui-Siang Lin avait non seulement commis l’erreur de se rendre aux États-Unis, mais aussi et surtout d’effectuer quatre paiements auprès d’un registrar pour des noms de domaine faisant la promotion d’Incognito Market depuis un portefeuille de cryptos lui étant associé.

Ce même portefeuille avait en outre reçu des sommes en provenance d’une plateforme de « swapping » (souvent utilisée pour « blanchir » des BTC notamment en les convertissant en d’autres cryptoactifs, NDLR) dont les montants correspondaient à ceux que l’administrateur d’Incognito Market venait de tenter de blanchir.

Des erreurs d’autant plus surprenantes qu’Incognito Market obligeait ses utilisateurs à déchiffrer des messages chiffrés au moyen de PGP, mais qu’il les testait également via des quizz portant notamment sur leurs connaissances de la sécurité de Monero ou encore des principes de la sécurité opérationnelle (ou OPSEC, pour « OPerations SECurity »), s’étonnait Wired.

Extraits d'un quizz proposé aux utilisateurs d'Incognito

Recruté comme spécialiste des technologies de l’information par le ministère des Affaires étrangères de Taïwan, il avait en outre été envoyé diriger, à l’Académie de police de l’île de Sainte-Lucie, dans les Caraïbes, une formation de quatre jours consacrée à… la cybercriminalité et aux crypto-monnaies. 

Et dans sa dernière publication sur LinkedIn, il se disait « très heureux de vous annoncer que j’ai obtenu la nouvelle qualification de Chainalysis : Chainalysis Reactor Certification (CRC) ! », la société d’analyse des blockchains et cryptoactifs utilisée par les principales polices occidentales.

Dans son dernier tweet, posté le 18 mai (jour de son arrestation), il partageait un graphe de Chainalysis montrant qu’avec 45,5 millions de revenus en 2023, Incognito Market figurait en 4ᵉ position des places de marché du dark web les plus profitables.

OpenAI contraint d’investir dans la presse locale

10 février 2026 à 14:00
Leur métier : porter la plume dans la plaine
OpenAI contraint d’investir dans la presse locale

Qualifiant le journalisme de « relique du siècle dernier », OpenAI constate que ses utilisateurs posent à ChatGPT un nombre croissant de questions au sujet d’informations locales. Le nombre de journalistes locaux ayant chuté de 60 % en 20 ans aux États-Unis, il annonce un partenariat avec Axios pour contribuer à en financer une centaine, afin d’alimenter sa base de connaissances.

Aux États-Unis, l’accaparement de la publicité par Google et les plateformes, couplé au fait de pouvoir s’informer depuis son smartphone, ont contribué à la disparition de 3 500 journaux papiers de la presse régionale, passés de près de 9 000 à moins de 5 500 en 20 ans, estime la Local News Initiative de l’université de Northwestern.

Aux USA, le nombre de journaux locaux a chuté de 40 %, celui des journalistes de 60 %, en 20 ans

Près de 40 % des titres de la presse locale ont disparu, laissant 50 des 342 millions de citoyens sans accès à de l’information journalistique. 39 des 50 États dénombrent moins de 1 000 journalistes. Le nombre d’employés d’entreprises de presse a dans le même temps chuté de 75 %, celui des journalistes de 60 %.

Or, ChatGPT enregistrerait environ 1 million de requêtes et demandes d’informations locales par semaine, relève OpenAI, pour qui les gens « continuent à faire davantage confiance aux informations locales qu’aux informations nationales » : « La plupart de cet intérêt se concentre sur la vie civique quotidienne : événements communautaires et entreprises locales, criminalité et interventions d’urgence, législation, tribunaux et politiques publiques ».

OpenAI note également que les internautes s’enquièrent aussi des conditions météorologiques hivernales : les questions au sujet de la météo et des fermetures d’écoles ont ainsi plus que quadruplé, au point de devenir l’un des sujets les plus populaires après le 17 janvier, lorsque la tempête hivernale Fern s’est abattue sur les États-Unis.

Problème : « ChatGPT peut aider les gens à trouver des informations locales, à condition que les journalistes locaux continuent à les couvrir ». Ce pourquoi OpenAI annonce vouloir adopter « une approche différente en matière de partenariats dans le domaine de l’information ».

Le journalisme ? Une « relique du siècle dernier »

La start-up souligne que « pendant des années, les relations entre les grandes entreprises technologiques et les organes de presse ont été marquées par des tensions », au point de qualifier le journalisme de « relique du siècle dernier » (sic), résume Adam Cohen, responsable de la politique économique chez OpenAI :

« À mesure que les plateformes numériques transformaient la manière dont les gens découvraient et consommaient l’information, le journalisme était souvent considéré comme une activité « traditionnelle », une relique du siècle dernier imprimée sur du papier ou récité de manière rigide devant un téléprompteur. Les blogueurs, les vlogueurs et les podcasteurs étaient considérés comme l’avenir du discours public, et les entreprises technologiques rejetaient instinctivement l’idée que le journalisme professionnel puisse mériter une attention particulière. »

Dès lors, « les partenariats étaient rares » et « le dialogue limité » entre les deux professions, la Silicon Valley considérant l’information comme « un mauvais modèle économique », « sans se soucier outre mesure de son impact sur notre compréhension du monde qui nous entoure et du rôle essentiel que joue la fiabilité de l’information dans le soutien de nos idéaux démocratiques ».

43 communautés, couverts par 100 journalistes

« Nous avons choisi une voie différente », se targue aujourd’hui OpenAI, au motif qu’ « un secteur médiatique prospère et indépendant n’est pas seulement compatible avec l’IA, il en est essentiel », que « les gens veulent connaître les sources des informations qu’ils voient sur ChatGPT, et le fait de proposer un journalisme de haute qualité rend ChatGPT plus utile et plus informatif ».

Lancé en janvier 2025, le partenariat entre OpenAI et Axios vise à étendre le nombre de villes couvertes afin de fournir aux utilisateurs de ChatGPT des informations locales validées par des journalistes. Axios Local, qui avait lui-même été initié en 2021, couvrait l’an passé 30 villes et ses newsletters dépassaient les 2 millions d’abonnés.

Axios et OpenAI veulent aujourd’hui y rajouter neuf autres villes, portant le réseau à 43 communautés, couverts par 100 journalistes, co-financés par 13 000 abonnés payants. « Grâce à OpenAI, Axios peut désormais embaucher davantage de journalistes locaux pour couvrir les petites agglomérations urbaines, un modèle qui lui permettra à terme d’atteindre des milliers de zones défavorisées en matière d’information à travers le pays », résume le communiqué d’Axios.

Ni Axios ni OpenAI ne détaillent les montants dont il serait question.

OpenAI contraint d’investir dans la presse locale

10 février 2026 à 14:00
Leur métier : porter la plume dans la plaine
OpenAI contraint d’investir dans la presse locale

Qualifiant le journalisme de « relique du siècle dernier », OpenAI constate que ses utilisateurs posent à ChatGPT un nombre croissant de questions au sujet d’informations locales. Le nombre de journalistes locaux ayant chuté de 60 % en 20 ans aux États-Unis, il annonce un partenariat avec Axios pour contribuer à en financer une centaine, afin d’alimenter sa base de connaissances.

Aux États-Unis, l’accaparement de la publicité par Google et les plateformes, couplé au fait de pouvoir s’informer depuis son smartphone, ont contribué à la disparition de 3 500 journaux papiers de la presse régionale, passés de près de 9 000 à moins de 5 500 en 20 ans, estime la Local News Initiative de l’université de Northwestern.

Aux USA, le nombre de journaux locaux a chuté de 40 %, celui des journalistes de 60 %, en 20 ans

Près de 40 % des titres de la presse locale ont disparu, laissant 50 des 342 millions de citoyens sans accès à de l’information journalistique. 39 des 50 États dénombrent moins de 1 000 journalistes. Le nombre d’employés d’entreprises de presse a dans le même temps chuté de 75 %, celui des journalistes de 60 %.

Or, ChatGPT enregistrerait environ 1 million de requêtes et demandes d’informations locales par semaine, relève OpenAI, pour qui les gens « continuent à faire davantage confiance aux informations locales qu’aux informations nationales » : « La plupart de cet intérêt se concentre sur la vie civique quotidienne : événements communautaires et entreprises locales, criminalité et interventions d’urgence, législation, tribunaux et politiques publiques ».

OpenAI note également que les internautes s’enquièrent aussi des conditions météorologiques hivernales : les questions au sujet de la météo et des fermetures d’écoles ont ainsi plus que quadruplé, au point de devenir l’un des sujets les plus populaires après le 17 janvier, lorsque la tempête hivernale Fern s’est abattue sur les États-Unis.

Problème : « ChatGPT peut aider les gens à trouver des informations locales, à condition que les journalistes locaux continuent à les couvrir ». Ce pourquoi OpenAI annonce vouloir adopter « une approche différente en matière de partenariats dans le domaine de l’information ».

Le journalisme ? Une « relique du siècle dernier »

La start-up souligne que « pendant des années, les relations entre les grandes entreprises technologiques et les organes de presse ont été marquées par des tensions », au point de qualifier le journalisme de « relique du siècle dernier » (sic), résume Adam Cohen, responsable de la politique économique chez OpenAI :

« À mesure que les plateformes numériques transformaient la manière dont les gens découvraient et consommaient l’information, le journalisme était souvent considéré comme une activité « traditionnelle », une relique du siècle dernier imprimée sur du papier ou récité de manière rigide devant un téléprompteur. Les blogueurs, les vlogueurs et les podcasteurs étaient considérés comme l’avenir du discours public, et les entreprises technologiques rejetaient instinctivement l’idée que le journalisme professionnel puisse mériter une attention particulière. »

Dès lors, « les partenariats étaient rares » et « le dialogue limité » entre les deux professions, la Silicon Valley considérant l’information comme « un mauvais modèle économique », « sans se soucier outre mesure de son impact sur notre compréhension du monde qui nous entoure et du rôle essentiel que joue la fiabilité de l’information dans le soutien de nos idéaux démocratiques ».

43 communautés, couverts par 100 journalistes

« Nous avons choisi une voie différente », se targue aujourd’hui OpenAI, au motif qu’ « un secteur médiatique prospère et indépendant n’est pas seulement compatible avec l’IA, il en est essentiel », que « les gens veulent connaître les sources des informations qu’ils voient sur ChatGPT, et le fait de proposer un journalisme de haute qualité rend ChatGPT plus utile et plus informatif ».

Lancé en janvier 2025, le partenariat entre OpenAI et Axios vise à étendre le nombre de villes couvertes afin de fournir aux utilisateurs de ChatGPT des informations locales validées par des journalistes. Axios Local, qui avait lui-même été initié en 2021, couvrait l’an passé 30 villes et ses newsletters dépassaient les 2 millions d’abonnés.

Axios et OpenAI veulent aujourd’hui y rajouter neuf autres villes, portant le réseau à 43 communautés, couverts par 100 journalistes, co-financés par 13 000 abonnés payants. « Grâce à OpenAI, Axios peut désormais embaucher davantage de journalistes locaux pour couvrir les petites agglomérations urbaines, un modèle qui lui permettra à terme d’atteindre des milliers de zones défavorisées en matière d’information à travers le pays », résume le communiqué d’Axios.

Ni Axios ni OpenAI ne détaillent les montants dont il serait question.

❌