Vue lecture

☕️ #LIDD : Elon Musk a fait de Twitter une zone de « guerre civile » dystopique

Une fois encore, le décryptage que propose John Oliver dans Last Week Tonight de ce qu’est devenu Twitter est magistral… vu de l’extérieur. Vu de l’intérieur (l’auteur de ces lignes se refuse à déserter X.com), il reste tout à fait possible de continuer à s’y informer, auprès de sources fiables et vérifiables. La démonstration de la « guerre civile » dystopique qu’y mène Musk au nom de ses convictions complotistes n’en reste pas moins implacable.

Rappelant qu’Elon Musk avait célébré son rachat de Twitter en débarquant à son QG avec un lavabo (sink, en anglais) tout en déclarant (jeu de mot) « Let that sink in! » (qu’on pourrait traduire par « je vous laisse absorber l’information ! »), Oliver montre à quel point Musk a fait de X.com un véritable tout-à-l’égout inondant ses utilisateurs conservateurs ou d’extrême droite, ainsi que l’administration Trump en particulier, d’un torrent de désinformations complotistes. Avec des morts à la clef.

Non content d’avoir viré 80 % des employés de Twitter, programmé un répondeur automatique pour renvoyer un émoji caca en réponse aux questions des journalistes, Musk a aussi réintégré les comptes préalablement bannis de Twitter pour racisme, cyberharcèlement ou conspirationisme, et remplacé les comptes préalablement certifiés par des mercenaires de l’info payés par X à l’engagement.

L’un d’entre eux reconnait d’ailleurs que ce sont les contenus les plus provocateurs qui attirent le plus de vues, et qu’y partager des infos que l’on sait être fausses et d’y provoquer les gens rapporte des milliers de dollars.

John Oliver cite notamment l’attaque au couteau de Southport, en Grande-Bretagne, attribuée à tort sur X par un compte xénophobe et islamophobe intitulé « Europe invasion » à un demandeur d’asile musulman, alors que l’assassin des trois fillettes était un adolescent britannique de 17 ans obsédé par la violence, et né au pays de Galles de parents rwandais et chrétiens.

Une fake news largement relayée et propulsée par l’extrême droite sur X.com, y compris par Elon Musk, qui avait tweeté que « la guerre civile est inévitable », qui allait entrainer 6 jours de manifestations et d’émeutes islamophobes et d’extrême droite, l’attaque de la mosquée de Southport ainsi que de nombreux musulmans et indo-pakistanais, et près de 200 condamnations d’émeutiers.

John Oliver cite également une « enquête » vidéo de 42 minutes de Nick Sherley, un « influenceur » complotiste, elle aussi boostée par l’algorithme de X.com au point d’avoir totalisé plus de 140 millions de vues, qui prétendait avoir découvert que les garderies du Minnesota gérées par des Somaliens détournaient plus de 110 millions de dollars « en un jour ».

Après avoir visité plusieurs garderies de sorte de vérifier qu’elles accueillaient bien des bébés et jeunes enfants, il en avait conclu qu’elles étaient fermées ou inactives… sans comprendre qu’elles étaient bien évidemment et tout simplement « fermées au public ».

Ce qui n’empêcha pas l’administration de profiter de son « enquête » pour geler le financement des centres de garde d’enfants dans le Minnesota, mais également d’y renforcer la présence du département américain de la Sécurité intérieure puis de l’ICE, dont l’opération Metro Surge allait entraîner l’arrestation de 3 000 immigrés (ou supposés tels), ainsi que les meurtres de Renée Good et Alex Pretti. What could possibly go wrong went wrong.

  •  

☕️ #LIDD : Elon Musk a fait de Twitter une zone de « guerre civile » dystopique

Une fois encore, le décryptage que propose John Oliver dans Last Week Tonight de ce qu’est devenu Twitter est magistral… vu de l’extérieur. Vu de l’intérieur (l’auteur de ces lignes se refuse à déserter X.com), il reste tout à fait possible de continuer à s’y informer, auprès de sources fiables et vérifiables. La démonstration de la « guerre civile » dystopique qu’y mène Musk au nom de ses convictions complotistes n’en reste pas moins implacable.

Rappelant qu’Elon Musk avait célébré son rachat de Twitter en débarquant à son QG avec un lavabo (sink, en anglais) tout en déclarant (jeu de mot) « Let that sink in! » (qu’on pourrait traduire par « je vous laisse absorber l’information ! »), Oliver montre à quel point Musk a fait de X.com un véritable tout-à-l’égout inondant ses utilisateurs conservateurs ou d’extrême droite, ainsi que l’administration Trump en particulier, d’un torrent de désinformations complotistes. Avec des morts à la clef.

Non content d’avoir viré 80 % des employés de Twitter, programmé un répondeur automatique pour renvoyer un émoji caca en réponse aux questions des journalistes, Musk a aussi réintégré les comptes préalablement bannis de Twitter pour racisme, cyberharcèlement ou conspirationisme, et remplacé les comptes préalablement certifiés par des mercenaires de l’info payés par X à l’engagement.

L’un d’entre eux reconnait d’ailleurs que ce sont les contenus les plus provocateurs qui attirent le plus de vues, et qu’y partager des infos que l’on sait être fausses et d’y provoquer les gens rapporte des milliers de dollars.

John Oliver cite notamment l’attaque au couteau de Southport, en Grande-Bretagne, attribuée à tort sur X par un compte xénophobe et islamophobe intitulé « Europe invasion » à un demandeur d’asile musulman, alors que l’assassin des trois fillettes était un adolescent britannique de 17 ans obsédé par la violence, et né au pays de Galles de parents rwandais et chrétiens.

Une fake news largement relayée et propulsée par l’extrême droite sur X.com, y compris par Elon Musk, qui avait tweeté que « la guerre civile est inévitable », qui allait entrainer 6 jours de manifestations et d’émeutes islamophobes et d’extrême droite, l’attaque de la mosquée de Southport ainsi que de nombreux musulmans et indo-pakistanais, et près de 200 condamnations d’émeutiers.

John Oliver cite également une « enquête » vidéo de 42 minutes de Nick Sherley, un « influenceur » complotiste, elle aussi boostée par l’algorithme de X.com au point d’avoir totalisé plus de 140 millions de vues, qui prétendait avoir découvert que les garderies du Minnesota gérées par des Somaliens détournaient plus de 110 millions de dollars « en un jour ».

Après avoir visité plusieurs garderies de sorte de vérifier qu’elles accueillaient bien des bébés et jeunes enfants, il en avait conclu qu’elles étaient fermées ou inactives… sans comprendre qu’elles étaient bien évidemment et tout simplement « fermées au public ».

Ce qui n’empêcha pas l’administration de profiter de son « enquête » pour geler le financement des centres de garde d’enfants dans le Minnesota, mais également d’y renforcer la présence du département américain de la Sécurité intérieure puis de l’ICE, dont l’opération Metro Surge allait entraîner l’arrestation de 3 000 immigrés (ou supposés tels), ainsi que les meurtres de Renée Good et Alex Pretti. What could possibly go wrong went wrong.

  •  

La DGSI accusée de bloquer l’adoption d’une loi renforçant la cybersécurité

Direction générale de la sécurité inférieure
La DGSI accusée de bloquer l’adoption d’une loi renforçant la cybersécurité

Deux parlementaires, ayant sanctuarisé le chiffrement de bout en bout dans le projet de loi transposant la directive européenne NIS2, accusent la DGSI d’en empêcher l’adoption au Parlement. D’après Intelligence Online, la DGSI ne parviendrait à pirater que 25 à 30 % des smartphones seulement. Un problème amené à empirer, alors que le protocole RCS va généraliser le chiffrement de bout en bout.

La directive NIS 2 (pour Network and Information Security 2), censée renforcer la cybersécurité des infrastructures critiques et des services essentiels dans l’Union européenne, impose aux États membres qu’elle soit transposée dans leur droit national avant le 17 octobre 2024.

Un projet de loi relatif à la résilience des infrastructures critiques et au renforcement de la cybersécurité avait bien été déposé et adopté en première lecture au Sénat le 15 octobre 2024, mais il est bloqué à l’Assemblée depuis septembre 2025.

Le député (Les Démocrates) Philippe Latombe et le sénateur (centriste) Olivier Cadic, présidents de la commission spéciale de ce projet de loi, accusent le ministère de l’Intérieur, et plus particulièrement la Direction générale de la Sécurité intérieure (DGSI), d’en bloquer la transposition.

Dans une conférence de presse conjointe, début février, ils ont expliqué que c’est « clairement » l’introduction de l’article 16 bis dans le projet de loi qui en bloquerait, depuis, l’inscription à l’ordre du jour par le gouvernement.

Initialement introduit et défendu par Olivier Cadic afin d’ « inscrire dans la loi un principe clair de sécurité numérique », et depuis renforcé par un amendement de Philippe Latombe adopté en septembre dernier, il sanctuarise le chiffrement de bout en bout :

« Il ne peut être imposé aux fournisseurs de services de chiffrement, y compris aux prestataires de services de confiance qualifiés, l’intégration de dispositifs techniques visant à affaiblir volontairement la sécurité des systèmes d’information et des communications électroniques tels que des clés de déchiffrement maîtresses ou tout autre mécanisme ou processus permettant un accès non consenti aux données protégées. »

À l’époque, Olivier Cadic l’avait justifié au motif que « certaines initiatives législatives et réglementaires, tant au niveau national qu’international, ont cherché à imposer aux fournisseurs de services de chiffrement des obligations visant à insérer des dispositifs techniques permettant un accès aux données protégées par des tiers, notamment par les autorités publiques » :

« Ces dispositifs, communément appelés « portes dérobées » (backdoors), « clés de déchiffrement maîtresses » ou autres mécanismes d’affaiblissement volontaire de la sécurité, présentent des risques considérables pour la sécurité informatique et la protection des droits fondamentaux. »

La DGSI a un problème, la France aussi

« Je le dis de façon claire et je ne vais pas me faire de copains en disant ça mais c’est pas grave, la DGSI et les services veulent la fin de l’article 16 bis », a précisé Philippe Latombe lors de la conférence de presse : « la DGSI a un problème, elle veut savoir ce qui se passe dans les communications chiffrées des délinquants, elle veut mettre un tuyau sur le pipeline pour pouvoir regarder ce qui s’y passe ».

À quoi le député rétorque que si les délinquants savent qu’ils peuvent être écoutés, ils n’utiliseront plus ces messageries chiffrées. Il rappelle également que les États-Unis avaient eux aussi tenté d’y parvenir, en vain. Et souligne qu’il y aurait des incohérences entre les demandes de la DGSI et celles de la DGSE, qui n’appréhendent pas le problème de la même façon et n’ont pas le même mode de fonctionnement.

Une situation ubuesque : un projet de loi précisément destiné à renforcer la cybersécurité se retrouverait bloqué… parce qu’il consacre explicitement le chiffrement des communications.

En cas de fraude massive de données, le gouvernement engage sa responsabilité

« Le texte a été voté il y a bientôt un an au Sénat. Il devait être mis à l’ordre du jour avant la fin de l’année et puis finalement ils ont reporté au mois de janvier. Et puis au mois de janvier, ils ont décidé de ne pas le présenter à l’ordre du jour alors qu’il aurait dû être mise en œuvre depuis fin octobre 2024 », dénonce Olivier Cadic, sénateur des Français établis hors de France, sollicité par L’Usine Digitale :

« J’avais déposé cet amendement parce qu’aux États-Unis, des backdoors – qui avaient été utilisées pour surveiller des appels et des messages – avaient été exploitées par les hackers chinois, donc pour compromettre des millions de télécommunications. J’ai considéré que la possibilité d’installer des backdoors était contradictoire avec la capacité d’élever notre niveau de cyber-résilience. »

« Il y a une administration qui semble gênée, qui au demeurant ne vient pas voir les parlementaires concernés pour discuter de ça, et utilise le ministre pour bloquer l’ordre du jour du Parlement », déplore-t-il auprès de L’Usine Digitale.

Une situation d’autant plus préjudiciable qu’ « en cas de fraude massive de données, le gouvernement engage sa responsabilité puisqu’il ne permet pas à la France de se préparer », souligne-t-il, citant notamment la sanction de 5 millions d’euros infligée à France Travail par la CNIL.

Et ce alors que NIS 1 concernait environ 300 opérateurs d’importance vitale (OIV) et opérateurs de services essentiels (OSE), là où NIS 2 vise plus de 15 000 entités dans 18 secteurs différents.

La stratégie nationale de cybersécurité consacre pourtant le chiffrement

Les deux parlementaires pointent également du doigt le problème de crédibilité de la France à l’échelle européenne. « Comment est-ce que la France peut discuter de la suite, alors que les autres pays ont transposé NIS 2 et que nous, ce n’est toujours pas fait ? », interroge Olivier Cadic, pour qui la France s’expose à un triple risque, résume L’Usine Digitale :

« une insécurité juridique persistante pour les entreprises et administrations concernées par NIS 2, une fragilisation de sa position au sein de l’UE ainsi qu’un affaiblissement durable de la confiance des citoyens dans la capacité de l’État à protéger leurs données. »

Un blocage d’autant plus incompréhensible que la France vient aussi de dévoiler sa stratégie nationale de cybersécurité pour 2026 à 2030, qui est présentée comme « une priorité nationale » et qui rappelle que « le chiffrement est un composant essentiel du socle de sécurité permettant d’assurer la confidentialité et l’intégrité des communications ou du stockage des données ».

Dans une tribune cosignée en mars 2025 par Philippe Latombe, David Naccache, chercheur en cryptologie, Guillaume Poupard, ex-directeur général de l’ANSSI et Sébastien Soriano, ancien président de l’Arcep, Anne Le Hénanff, devenue depuis ministre déléguée chargée de l’Intelligence artificielle et du Numérique, rappelait la première recommandation du rapport du conseil scientifique de la Commission européenne, qui avait rassemblé des centaines d’experts pour un colloque préparatoire à son rapport sur la cybersécurité :

« Pour maintenir la confiance des utilisateurs/citoyens, ainsi que protéger leur vie privée et assurer la sécurité, aucune porte dérobée ni aucun autre moyen d’affaiblir le chiffrement ne doit être introduit. »

Dans un billet publié sur LinkedIn intitulé « La DGSI contre le Parlement, et la perte stratégique de temps », Sébastien Garnault, président du Paris Cyber Summit et fondateur de la CyberTaskForce, une initiative du secteur privé dédiée à aider les décideurs publics et privés à comprendre, anticiper et maîtriser les enjeux de cybersécurité, de souveraineté numérique et de stratégie, écrivait que « face aux deux présidents des commissions spéciales Résilience, Philippe Latombe et Olivier Cadic, on regrette le silence de la profession qui ne défend pas la clef de confiance du marché cyber : le chiffrement » :

« Les adversaires n’ont déjà pas besoin de portes dérobées légales pour s’implanter durablement et exploiter des faiblesses structurelles. Dans un contexte de confrontation systémique, la fragilisation volontaire devient une faiblesse exploitable, pas un levier de souveraineté. Et le @ministere de l’interieur en portera, le cas échéant, la responsabilité. »

« Chaque jour perdu expose davantage nos entreprises, institutions et citoyens »

Réagissant au fait que « les fuites de données explosent », illustrées récemment par l’incident majeur concernant FICOBA, le fichier national des comptes bancaires, l’Alliance pour la Confiance Numérique (ACN, l’organisation professionnelle qui réunit plus de 120 entreprises du secteur de la cybersécurité et de l’identité numérique) appelait elle aussi, dans un communiqué mis en ligne ce 19 février dernier, « à la finalisation urgente du projet de loi « Résilience » » :

« Dans ce contexte, l’ACN appelle à la transposition immédiate de la directive européenne NIS2 et surtout à sa mise en œuvre rapide. Au-delà, la confiance numérique, dans toutes ses composantes (sécurité numérique, résilience, souveraineté) doit désormais être appréhendée, au plus haut niveau de l’Etat comme un enjeu majeur et doit être érigée en priorité nationale. »

« Depuis plusieurs mois, on assiste à une flambée des fuites de données dont la presse se fait tous les jours écho », déplore Gregory Wintrebert, le président de l’ACN : « 1,2 million de données bancaires potentiellement dans la nature, c’est 1,2 million de personnes potentiellement en danger ! Nous devons apprendre à vivre avec cette nouvelle réalité, mais il n’y a pas de fatalité à cela. »

L’ACN appelle à une « prise de conscience généralisée sur la nécessité urgente d’augmenter massivement notre niveau de résilience numérique », souligne-t-il : « Chaque jour perdu expose davantage nos entreprises, nos institutions et nos citoyens à des risques de moins en moins soutenable. La résilience et la confiance numérique doivent devenir une priorité nationale ! Agir vite, c’est protéger notre avenir numérique. »

L’ACN souligne qu’ « en France, nous avons la chance de pouvoir compter sur une filière de confiance numérique robuste, reconnue mondialement pour son expertise dont les solutions sont immédiatement disponibles », et que « ces entreprises, de toutes tailles, sont prêtes à accompagner les organisations dans cette transition ».

« Faire appel à nos entreprises françaises de la confiance numérique, c’est non seulement renforcer la sécurité, mais aussi contribuer à notre souveraineté numérique qui est un volet, au moins aussi important que la résilience, en termes de réduction des risques numériques », relève Gregory Wintrebert : « C’est un choix stratégique et responsable face à des enjeux qui ne peuvent plus attendre. »

« Compte tenu de la menace actuelle », l’ANSSI rappelle les entités concernées à leurs obligations

L’ANSSI vient elle aussi de mettre à jour (archive) la page de son site messervices.cyber.gouv.fr consacrée à la Directive NIS 2, rappelant que sa transposition en France « est en cours », mais qu’en attendant, « et compte tenu de la menace actuelle, les futures entités essentielles et importantes sont invitées à s’engager dès à présent dans une démarche visant à renforcer leur niveau de sécurité ».

18 secteurs d’activité sont concernés, représentant plusieurs milliers d’entités, pour l’essentiel des moyennes et grandes entreprises ainsi que des collectivités territoriales et des administrations. L’ANSSI rappelle qu’elles font face à trois nouvelles obligations majeures :

  • pré-enregistrer leur entité via son bureau de pré-enregistrement, ouvert en novembre dernier,
  • mettre en place des mesures juridiques, techniques et organisationnelles visant à gérer les risques qui menacent la sécurité de leurs réseaux et de leurs systèmes d’information,
  • signaler à l’ANSSI leurs incidents de sécurité ayant un impact important et fournir des rapports concernant l’évolution de la situation.

La DGSI ne parvient à pirater que 25 à 30 % des smartphones

Mi-février, Intelligence Online révélait de son côté que le piratage – appelé piégeage par le ministère de l’Intérieur – des téléphones par le Service technique national de captation judiciaire (STNCJ) de la direction technique de la DGSI « ne produit pas les résultats escomptés. Et pour cause, le taux de réussite du service est compris entre 25 et 30 % ». En outre, et « même en cas de succès, la manœuvre n’est efficace que durant quelques jours ».

En 2023 déjà, L’Express rapportait que « Selon un professionnel du renseignement technique, la méthode « one click » de la DGSI produit des résultats décevants depuis 2018, avec moins d’une centaine de téléphones infectés de cette façon en 2022. »

En janvier, le Premier ministre a d’ailleurs confié une mission d’information temporaire « ayant pour objet les politiques publiques de sécurité à l’ère numérique » au député (socialiste puis macroniste) et président de la commission des lois de l’Assemblée Florent Boudié.

Par ailleurs premier vice-président de la Délégation parlementaire au renseignement, il devra explorer les « possibilités d’évolution des dispositifs juridiques existants » pour « préserver l’accès nécessaire et encadré aux communications dans le cadre de la lutte contre le terrorisme et la criminalité organisée ».

Le problème ne concerne pas que les seules messageries chiffrées. Dans sa lettre de mission, Sébastien Lecornu souligne en effet que le problème « devrait s’accroître avec la norme qui remplace les SMS, le RCS (Rich Communication Services) ».

Disponible chez les quatre opérateurs en France depuis un an seulement, ce protocole intègre depuis peu « des fonctionnalités de chiffrement de bout en bout et permet l’échange de messages écrits, vocaux et vidéos ».  

Tom Van Pelt, directeur technique de la GSM Association (GSMA), avait alors souligné que RCS serait le premier service de messagerie à grande échelle à supporter un chiffrement de bout en bout interopérable entre tous les clients qui l’implémentent.

  •  

☕️ Rembobine.info revient sur l’impact de notre enquête sur les sites d’infos GenAI

Rembobine.info, le média qui « lutte contre l’obsolescence de l’info et met en lumière l’impact du journalisme sur nos sociétés », s’est penché sur l’enquête de Next consacrée aux faux sites d’informations en tout ou partie générés par IA. Nous l’avions lancée en février 2025, et elle a récemment dépassé le cap symbolique des 10 000 sites GenAI. Nos confrères y consacrent un article et une interview :

En termes d’impact institutionnel, Rembobine relève que le nombre de sites générés par IA mis en avant par l’algorithme de recommandation de contenus Discover de Google a depuis diminué. Nous reviendrons, cela dit, dans un prochain article sur cette diminution, somme toute relative, avec des chiffres plus précis.

La Commission paritaire des publications et des agences de presse (CPPAP), chargée de reconnaître (ou non) la qualité de service de presse en ligne à un média web, m’a par ailleurs convoqué pour m’auditionner dans le cadre d’un groupe de travail sur les sites générés par IA, et notamment sur la question du plagiat auquel ces sites recourent.

En termes d’impact judiciaire, un seul site généré par IA a depuis été condamné par la justice pour plagiat, et notre enquête n’a fait l’objet d’aucune plainte.

En termes d’impact médiatique et public, l’enquête, initialement relayée par Libération, a fait l’objet de plusieurs reprises, notamment par France CultureTV5MONDE ou France Télévisions, et l’extension web (gratuite) que nous avons développée afin d’alerter celles et ceux qui l’ont installée qu’ils ou elles consultent un site dont les articles ont été « en tout ou partie générés par IA » est utilisée par près de 10 000 personnes.

Elle permet également de nous signaler des sites GenAI, et nous avons d’ores et déjà reçu plus de 3 000 signalements, mais il nous en reste encore plus de 250 à vérifier… tâche que nous ne parvenons pas à effectuer seuls. Nous pourrions la crowd-sourcer et mutualiser avec d’autres fact-checkers, OSINTers, journalistes et ONG.

Médiamétrie a en outre découvert que les 250 sites générés par IA les plus recommandés par Google étaient, à eux seuls, visités par 15 millions de personnes en moyenne par mois, soit un quart des internautes français (dont 75 % de plus de 50 ans) !

« Il y a le risque de désinformation et de propagation des fake news, bien sûr, mais c’est aussi très dangereux pour les médias dits traditionnels », a précisé l’auteur de ces lignes dans l’interview associée :

« Face à ces faux sites, qui sont pourtant très consultés, ils ont perdu des centaines de millions de pages vues, et donc de revenus publicitaires. C’est un vrai problème pour l’économie des médias ! Sans parler du fait qu’en dupliquant leurs articles, tous ces médias générés par IA diffusent des versions différentes d’une même histoire sans que ces dernières ne soient vérifiées. Ça participe à créer du doute sur ce qui est vrai et ce qui ne l’est pas or, plus les gens ont des doutes sur ce qu’est ou non un fait vérifié, plus les risques sont grands de voir arriver des gouvernements autoritaires. On s’en rend bien compte, notamment dans les États-Unis de Trump. »

  •  

☕️ Rembobine.info revient sur l’impact de notre enquête sur les sites d’infos GenAI

Rembobine.info, le média qui « lutte contre l’obsolescence de l’info et met en lumière l’impact du journalisme sur nos sociétés », s’est penché sur l’enquête de Next consacrée aux faux sites d’informations en tout ou partie générés par IA. Nous l’avions lancée en février 2025, et elle a récemment dépassé le cap symbolique des 10 000 sites GenAI. Nos confrères y consacrent un article et une interview :

En termes d’impact institutionnel, Rembobine relève que le nombre de sites générés par IA mis en avant par l’algorithme de recommandation de contenus Discover de Google a depuis diminué. Nous reviendrons, cela dit, dans un prochain article sur cette diminution, somme toute relative, avec des chiffres plus précis.

La Commission paritaire des publications et des agences de presse (CPPAP), chargée de reconnaître (ou non) la qualité de service de presse en ligne à un média web, m’a par ailleurs convoqué pour m’auditionner dans le cadre d’un groupe de travail sur les sites générés par IA, et notamment sur la question du plagiat auquel ces sites recourent.

En termes d’impact judiciaire, un seul site généré par IA a depuis été condamné par la justice pour plagiat, et notre enquête n’a fait l’objet d’aucune plainte.

En termes d’impact médiatique et public, l’enquête, initialement relayée par Libération, a fait l’objet de plusieurs reprises, notamment par France CultureTV5MONDE ou France Télévisions, et l’extension web (gratuite) que nous avons développée afin d’alerter celles et ceux qui l’ont installée qu’ils ou elles consultent un site dont les articles ont été « en tout ou partie générés par IA » est utilisée par près de 10 000 personnes.

Elle permet également de nous signaler des sites GenAI, et nous avons d’ores et déjà reçu plus de 3 000 signalements, mais il nous en reste encore plus de 250 à vérifier… tâche que nous ne parvenons pas à effectuer seuls. Nous pourrions la crowd-sourcer et mutualiser avec d’autres fact-checkers, OSINTers, journalistes et ONG.

Médiamétrie a en outre découvert que les 250 sites générés par IA les plus recommandés par Google étaient, à eux seuls, visités par 15 millions de personnes en moyenne par mois, soit un quart des internautes français (dont 75 % de plus de 50 ans) !

« Il y a le risque de désinformation et de propagation des fake news, bien sûr, mais c’est aussi très dangereux pour les médias dits traditionnels », a précisé l’auteur de ces lignes dans l’interview associée :

« Face à ces faux sites, qui sont pourtant très consultés, ils ont perdu des centaines de millions de pages vues, et donc de revenus publicitaires. C’est un vrai problème pour l’économie des médias ! Sans parler du fait qu’en dupliquant leurs articles, tous ces médias générés par IA diffusent des versions différentes d’une même histoire sans que ces dernières ne soient vérifiées. Ça participe à créer du doute sur ce qui est vrai et ce qui ne l’est pas or, plus les gens ont des doutes sur ce qu’est ou non un fait vérifié, plus les risques sont grands de voir arriver des gouvernements autoritaires. On s’en rend bien compte, notamment dans les États-Unis de Trump. »

  •  

[Récap] Nous avons découvert des milliers de sites d’info générés par IA : tous nos articles

« Mais tu écris n'importe quoi, en fait »
[Récap] Nous avons découvert des milliers de sites d’info générés par IA : tous nos articles

Entamée début 2024, notre enquête sur les « sites d’information » générés par IA (mais qui ne le précisent pas) nous avait permis d’en identifier 250 en octobre 2024, 500 à Noël, 1 000 fin janvier 2025, près de 3 000 début mars, 6 000 en août, 9 000 en décembre… et plus de 10 000 depuis février 2026. Cette page résume la quarantaine d’articles que nous y avons consacrés depuis février 2025.

Next a découvert que des milliers de soi-disant sites d’information polluent le web et les moteurs de recherche, ainsi que MSN, Google Actualités et son algorithme de recommandation Discover, alors que leurs soi-disant « articles » :

  • sont (en tout ou partie) générés par IA (mais sans le préciser),
  • prétendent (à tort) émaner de « journalistes », de « médias » et/ou d’experts/professionnels/passionnés,
  • ne sont pas vérifiés ni relus avant publication (contrairement au b.a.-ba de n’importe quel métier),
  • relaient donc potentiellement des « hallucinations/confabulations »,
  • ne respectent pas les chartes d’éthique professionnelle des journalistes,
  • volent des revenus publicitaires qui auraient dû aller à des médias/journalistes/professionnels,
  • contribuent au confusionnisme informationnel voire à la désinformation,
  • relèvent donc d’une « pollution » numérique et médiatique.

Or, le règlement européen sur l’IA (AI Act) obligera les éditeurs à labelliser comme tels les contenus générés par IA (GenAI) à partir d’août 2026. Nous avons donc développé une extension web (gratuite) pour les navigateurs basés sur Chromium (Chrome, Brave, Edge, Vivaldi, Opera, etc.) et Firefox (y compris Android) afin d’afficher un message d’alerte lorsque ses utilisateurs visitent un site dont nous avons identifié que les articles « semblent avoir été (en tout ou partie) générés par IA (GenAI) » (qu’ils soient « full GenAI » ou bien « dopés à l’IA »), mais sans le préciser.

En attendant le « filtre anti-arnaques » promis par le gouvernement (en mars 2022), notre extension intègre aussi les listes noires de Red Flag Domains des 35 000 noms de domaine potentiellement suspects, ainsi que les 2 000 sites web de celle de l’Autorité des marchés financiers (AMF).

Comme indiqué dans le message d’alerte, l’extension flaggue les sites qui « des articles semblent avoir été (en tout ou partie) générés par IA (GenAI) », sous-entendu sans véritable supervision voire sans relecture, et à qui l’on ne saurait donc faire confiance : il s’agit moins de jauger la « qualité » des articles que le fait qu’ils comportent un fort risque d’« hallucinations » générées par IA.

Ces articles et sites GenAI qui polluent le web servent ainsi d’ « armes de désinformation massive », contribuant en outre à l’objectif politique de l’ex-conseiller de Donald Trump Steve Bannon, pour qui « La véritable opposition, ce sont les médias », ce pourquoi il proposa que « la façon de les traiter est d’inonder la zone avec de la merde ».

Nous avons d’ailleurs pu constater que plusieurs des professionnels du référencement – SEO – et du marketing numérique ayant lancé de tels sites générés par IA semblent être fans de Javier Milei, Elon Musk & Donald Trump, entre autres promoteurs politiques de la désinformation, du complotisme et du confusionnisme, et ennemis déclarés du « journalisme ».

De plus en plus de médias et rédactions recourent eux aussi à la GenAI

Au-delà de ces soi-disant sites d’informations n’émanant pas de journalistes, nous avons également découvert (et documenté) que de plus en plus de véritables sites d’information, émanant de passionnés, experts, professionnels et même de rédactions employant des rédacteurs SEO et/ou journalistes, ont eux aussi recours à la GenAI afin de « doper » leurs rédacteurs, et leur permettre de publier un grand nombre d’articles qu’ils ne sauraient pouvoir publier sans recourir à l’IA générative, mais là encore sans le mentionner.

À l’instar du dopage, cette hyperproductivité nuit à la crédibilité du journalisme, non seulement parce qu’elle fausse les statistiques, en surreprésentant les médias dopés par rapport à ceux qui ne le sont pas, mais également parce qu’ils privent les médias qui ne trichent pas des visiteurs uniques et pages vues leur permettant d’une part d’engranger des revenus publicitaires, d’autre part d’être proprement référencés dans les moteurs de recherche.

Nos constats montrent en outre que si les médias dopant leurs rédacteurs et journalistes grâce à la GenAI avancent que leurs contenus sont vérifiés et validés avant d’être publiés, tel n’est souvent pas le cas, au point, pour certains, de publier des articles relayant de fausses informations « hallucinées » (ou « confabulées ») par les IA, et donc de nuire, là encore, à la crédibilité du journalisme et des médias en général, et des journalistes qui ne trichent pas en particulier.

Ils en parlent :

Au commencement était la GenAI (la liste de nos enquêtes)

Notre enquête avait débuté suite au lancement de ChatGPT, fin novembre 2022, et de ses avatars, après avoir publié deux modes d’emploi expliquant comment tenter d’identifier les textes et images émanant d’intelligences artificielles génératives. Ce qui nous avait permis de commencer à identifier ces sites d’infos et articles GenAI.

Mais vu l’ampleur du problème, à mesure que nous en avions identifié plusieurs dizaines au printemps 2024, puis plusieurs centaines fin 2024, nous avions donc proposé au service de fact-checking CheckNews de Libération, à Arrêt sur images ainsi qu’à des fact-checkeurs de Wikipédia, de nous aider à enquêter sur cette « pollution » numérique et médiatique.

Près de 150 des 500 sites GenAI que nous avions initialement identifiés étaient en effet mentionnés comme « sources » sur Wikipédia. Et ce, alors que leurs articles ne semblent avoir été ni relus, ni corrigés, ni validés avant leur publication automatisée (et, donc, sans supervision humaine).

La plupart des articles mentionnés dans l’encyclopédie avaient été publiés avant que leurs noms de domaine (expirés) ne soient rachetés, afin de capitaliser sur leur réputation (ranking) dans l’algorithme de Google, et autres moteurs de recherche.

Nous avons depuis également découvert que, parmi la centaine de professionnels du référencement (SEO) et du marketing numérique qui éditent et administrent ces sites, certains en gèrent plusieurs dizaines, centaines et même plusieurs milliers, sans être en capacité d’identifier combien polluent de la sorte Google, et particulièrement Google Actualités.

Nous avons bien évidemment détaillé notre méthodologie, challengée et vérifiée par les deux contributeurs expérimentés de l’encyclopédie Wikipédia, et les deux journalistes du service de fact-checking CheckNews de Libération.

Next a en outre développé une extension pour les navigateurs compatibles Chrome et Firefox (y compris sur Android), afin d’alerter ses utilisateurs lorsqu’ils consultent un site GenAI (cf sa présentation, et notre méthodologie). Elle les alerte aussi désormais lorsqu’ils visitent aussi des noms de domaines « potentiellement malveillants » identifiés par Red Flag Domains, et des « entités non autorisées à proposer des produits ou services financiers en France » par l’Autorité des marchés financiers.

40 médias français ont depuis demandé à la Justice d’ordonner aux FAI le blocage du site news.dayfr.com. Ce dernier, le plus bourrin du millier de sites d’informations générés par IA que nous avons identifiés, plagiait de 5 à 15 articles… par minute, et jusqu’à plus de 6 000 par jour. Ironie de l’histoire : il a aussi été jusqu’à…. plagier deux des articles mentionnant la plainte le concernant.

Une enquête de l’équipe « pour une IA responsable » de la BBC a par ailleurs découvert que plus de la moitié des réponses fournies par les assistants d’intelligence artificielle (IA) à qui il avait été demandé de chercher leurs réponses dans les articles de la BBC étaient « factuellement incorrectes, trompeuses et potentiellement dangereuses ». Mais également que 20 % d’entre elles ont en outre rajouté des « inexactitudes factuelles » qui ne figuraient pas dans les articles pourtant mentionnés.

Un rapport rédigé par 22 médias de service public européens révèle que près d’une réponse sur deux formulée par les services d’IA générative populaire déforme l’information qui lui est fournie comme source. Qualifiant le phénomène de « distorsion systémique », l’alliance à l’origine de ces travaux appelle le régulateur à garantir le respect de l’information.

Cherchant à satisfaire leurs utilisateurs, les chatbots d’IA générative ont cessé de leur rétorquer qu’ils n’avaient pas de réponse à leurs questions, quitte à raconter n’importe quoi. Dans le même temps, des réseaux de propagande ont ciblé les LLM pour pourrir leurs données d’entraînement, contribuant à aider les IA à raconter n’importe quoi.

Plus d’une centaine (au moins, et probablement plusieurs centaines, voire milliers) des sites GenIA que nous avions initialement identifiés plagient en outre des articles de véritables journalistes, sans mentionner leurs sources ni préciser qu’ils ont été générés avec des IA. Ils sont pourtant, pour la plupart, référencés sur Google Actualités, et parfois relayés par son IA de recommandation algorithmique Discover. Certains se contentent de traduire des articles en français quand d’autres les paraphrasent, rendant leurs plagiats plus difficiles à identifier.

Interrogé par Arrêt sur images, à qui nous avions transmis notre enquête à son sujet, le patron du groupe de presse Économie Matin, par ailleurs co-directeur pédagogique d’une école de journalisme d’extrême-droite, a reconnu que ses articles étaient bien générés par IA, contrairement à ce que son rédacteur en chef adjoint prétendait initialement. Ce dernier, par ailleurs « prompt engineer » du groupe, attribue de son côté les dizaines de plagiats que nous avons en outre identifiés à un « bug du script » envoyé à ChatGPT qui, « étant complètement idiot, parfois, ne fait pas ce qu’on lui dit » (sic).

Notre enquête nous a valu quelques remarques acerbes de la part de professionnels du SEO, au motif que le fait de rendre public le fait que certains de leurs sites sont GenAI pourrait nuire à leur business :

« Les gens veulent manger de la merde ? Donnez en leur à la pelle plutôt que d essayer de buzzer et cherchant à bousiller le business de milliers de sites. »

L’un d’entre eux nous a par exemple rétorqué que de nombreux médias français avaient récemment relayé une « rumeur »… qu’ils n’auraient cela dit probablement pas relayée si les journalistes avaient été informés que l’information initiale avait en fait été « hallucinée » dans des articles générés par IA.

Les sites d’information de la presse quotidienne régionale (PQR) sont, eux aussi, de plus en plus victimes de pure players qui les concurrencent, voire les plagient, tout en étant générés par des IA. Si certains se positionnent comme des « médias indépendants », d’autres ne cherchent qu’à faire du clic. Au point que des journalistes de la PQR se retrouvent à devoir fact-checker des infos erronées car « hallucinées » par les IA qui les publient.

Après avoir analysé un échantillon de 8 795 posts LinkedIn publics de plus de 100 mots publiés entre janvier 2018 et octobre 2024, une start-up de détection de contenus générés par IA a par ailleurs découvert que plus de 50 % d’entre eux étaient GenAI, et que le nombre de messages longs susceptibles d’avoir été générés par IA avait explosé de 189 % dans les mois suivants le lancement de ChatGPT.

Dans son (216e) podcast, Mediarama a en outre reçu Alexandre Laurent, directeur de la rédaction de Next.ink, pour discuter de notre enquête-fleuve sur les 2 000 (au moment de l’enregistrement, mi-février) 3 000 (depuis début mars) « sites d’information » en tout ou partie générés par IA (GenAI) que nous avons identifiés, où il résume (et revient sur) les articles que nous y avons consacrés.

Le Conseil des ministres espagnol a approuvé un avant-projet de loi pour une « utilisation éthique, inclusive et bénéfique de l’intelligence artificielle » qui sanctionnera les contenus ne précisant pas qu’ils sont générés par IA. Il s’agit des adaptations au droit espagnol du règlement européen dit « AI Act » adopté par le Parlement européen en mars 2024

Quatre agences chinoises ont annoncé une nouvelle série de règles qui obligeront les fournisseurs de services, à partir du 1ᵉʳ septembre 2025, à désigner comme tels les contenus générés par IA via des identifiants explicites et implicites (méta-données et/ou filigranes).

Le nombre exponentiel de contenus « GenAI » polluant le web est tel qu’il devient parfois difficile de distinguer les contenus émanant d’êtres humains de ceux générés par des IA. Nous avons, a contrario, identifié plusieurs « faux positifs » dans le cadre de notre enquête sur les sites d’info GenAI. Après avoir expliqué comment identifier de tels contenus, il nous semble important d’expliquer comment nous avons décelé ces « faux positifs », de sorte de ne pas, non plus, contribuer à la « panique morale » autour de la GenAI.

Deux responsables de Google viennent de rappeler aux éditeurs de sites web que la création en masse de grandes quantités de contenu, en particulier à l’aide de l’IA, relève du « spam » (sauf si elle fait montre d’originalité et offre une réelle valeur ajoutée). Or, l’algorithme de recommandation de contenus Discover de Google promeut (au moins) une quarantaine de sites générés par IA (GenAI), dont plusieurs relaient rumeurs et infox.

Le nombre de morceaux de musique identifiés par le détecteur de contenus synthétiques développé par la plateforme est passé de 10 000 à plus de 20 000 par jour entre janvier et avril. 7 à 8 % relèveraient de tentatives de fraude. Le patron de Deezer propose de « légiférer pour que les plateformes rémunèrent les artistes et pas ces bruits », mais ne précise pas comment.

L’an passé, Google a fait face à une crue de publicités reposant sur l’usurpation d’identité, générée par IA, de personnalités, afin de promouvoir des escroqueries. La régie publicitaire de Google a « rapidement constitué une équipe de plus de 100 experts », et suspendu « plus de 700 000 comptes d’annonceurs ». Une célérité qui contraste fortement avec le laxisme de Google et de son algorithme de recommandation de contenus Discover pour ce qui est des médias générés par IA.

Saisie par une quarantaine de médias, qui se plaignaient du fait que ce site plagiait jusqu’à 6 000 de leurs articles… par jour, la Justice ordonne aux quatre principaux FAI le blocage du plagieur en série, d’ici 15 jours, pendant 18 mois.

Google représente 61% des sources de trafic des sites de presse. Pour la deuxième année consécutive, le trafic en provenance de son algorithme de recommandation de contenus Discover explose de + 50%, représentant 68% du trafic émanant des services de Google. Un renversement de tendance qui attire de plus en plus de professionnels du marketing numérique cherchant à profiter de cette « pompe à fric » : 14 % du Top 50 des sites mis en avant sur Discover sont désormais générés par IA.

7 des 50 principaux sites d’information en français mis en avant par l’algorithme Discover de recommandation de contenus de Google sont générés par IA. Plus de 75 sites « générés par IA » (au moins) ont été « recommandés » par Discover ces derniers mois, et 15 y ont même figuré dans son Top50, dont 1 pendant 5 mois, 3 pendant 3 mois, 2 pendant 2 mois, & 4 dans son Top25 (dont un pendant 3 mois consécutifs, un autre 2 mois de suite). Plusieurs éditeurs de sites GenAI comparent Discover à TikTok et le qualifient de « réseau social de Google », voire à « une drogue » susceptible de « générer une dépendance », au vu des milliers d’euros de chiffre d’affaires engrangés, par jour. Deux d’entre eux seraient même devenus millionnaires grâce à Discover, en trois mois seulement.

Des dizaines de médias britanniques ont publié des articles reposant sur des témoignages d’ « experts » qui n’existent pas. Créés pour améliorer le référencement naturel des sites web dont ils se réclament par des pros du SEO et/ou du marketing numérique, leurs « expertises », promues par des agences de mises en relation avec des journalistes, ont été grandement facilitées par les intelligences artificielles génératives.

À lui seul, le plus prolifique des éditeurs de sites francophones générés par IA a réussi à faire promouvoir plusieurs milliers d’articles, dont de très nombreuses fake news, par l’algorithme de recommandation de contenus Discover de Google. Au point que d’autres pros du SEO (pourtant eux-mêmes éditeurs de sites GenAI), en arrivent à se plaindre publiquement de cette surenchère et pollution.

L’algorithme Discover de « recommandation de contenus » de Google, principale source de trafic des sites journalistiques français, est devenu une « pompe à fric » pour les sites monétisés par la publicité, majoritairement financés par… la régie publicitaire de Google. Au point que près de 20 % des 1 000 sites d’info les plus recommandés par Google Discover, et 33 % des 120 sites les plus recommandés par Google News, à la rubrique Technologie, sont générés par IA.

Cet été, un éditeur de sites d’infos générées par IA a accusé plusieurs chaînes d’hypermarchés de vendre des produits cancérigènes, pourris, lavés à l’eau de javel ou recongelés. Ses articles n’en ont pas moins été recommandés par l’algorithme Discover de Google.

Confrontée à une déferlante de fausses informations cet été, la retraite complémentaire a publié à la rentrée un message d’alerte sur son site web. Nous avons découvert que la quasi-totalité des articles mis en avant ces derniers mois par Google au sujet de l’Agirc-Arrco émanaient d’articles (hallucinés, voire mensongers) générés par IA. Et sur les 10 % d’articles émanant de rédactions humaines, plus de la moitié concernaient ces fake news.

Le tsunami de soi-disant sites d’informations générés par IA (GenAI) auquel nous assistons depuis des mois, émanant de professionnels du marketing numérique et du référencement (SEO), contamine aussi la presse. Nous avons en effet identifié (au moins) cinq sites hébergés par deux des plus importants groupes de presse français et reposant eux aussi, « en tout ou partie », sur la GenAI, et susceptibles de doper artificiellement leurs statistiques de fréquentation.

Une ancienne responsable de la division podcast d’Amazon pense avoir trouvé un filon « scalable » susceptible de lui permettre de la rendre richissime. Entièrement générés par IA, en une heure et pour un dollar seulement, ses podcasts sont en effet rentables à partir de 20 auditeurs.

En France, des crèches acceptent des poupées « reborn » (hyperréalistes) au détriment de bébés humains, avance un site du groupe Reworld. Il s’agit en fait d’infox et canulars ayant fait le buzz sur TikTok, relayés au premier degré. Contacté, le directeur des activités numériques du groupe aurait « bien voulu que ce soit une hallucination émanant d’une IA », mais nous « certifie qu’aucun article n’a été écrit par de l’IA ».

Universcience vient de lancer une « IA au service des enseignants ». Elle propose de créer des cours en utilisant la base de données de contenus stockés par la structure de médiation scientifique. Mais les premiers cours présentés dans Ada sont accompagnés d’images générées par IA illustrant de manière absurde, par exemple, l’évolution des espèces en incluant entre autres des voitures.

Premier éditeur de presse magazine en France, et 3ᵉ groupe média sur le web et les réseaux sociaux, Reworld Media estime que les sites d’infos générées par IA auraient fait perdre des dizaines de millions d’euros aux médias depuis que l’algorithme de Google a commencé à recommander leurs articles. Il vient de commencer à… faire pareil, ou presque. Étrangement, nombre de ses articles « augmentés » par l’IA publient comme images d’illustration des… bras cassés coupés.

Le syndicat des journalistes de Politico a remporté une « victoire majeure », qui devrait faire jurisprudence aux États-Unis, en matière de recours à l’IA dans les médias. Leurs rédacteurs en chef avaient plaidé, en vain, que les contenus générés par IA ne devraient pas être soumis aux normes éthiques et éditoriales, au motif qu’elles étaient développées par des ingénieurs, et non par des journalistes.

14 à 16 millions d’internautes français consultent chaque mois l’un des 251 sites d’infos GenAI les plus recommandés par Google et identifiés par Next, selon une étude de Médiamétrie pour le Groupement des éditeurs de services en ligne. Près des trois quarts (74 %) de ces internautes ont plus de 50 ans, au point que ces derniers visitent plus de sites d’infos GenAI que de vrais sites d’actualités. 77 % y sont envoyés par l’un des services de Google (Discover, Search ou Actualités), et 10 % via Meta.

Plus de 20 % des vidéos recommandées par l’algorithme de YouTube aux nouveaux utilisateurs sont des « AI slop » (ou bouillie d’IA en français), du nom donné à ces contenus bas de gamme générés par intelligence artificielle et conçus pour cumuler les vues afin de les monétiser par la publicité.

Les fulgurantes avancées en matière de contenus générés par IA, notamment (audio)visuels, rendront de plus en plus difficile le fait d’identifier ceux qui cherchent à imiter voire usurper des contenus humains. Le patron d’Instagram propose dès lors de renverser la charge de la preuve, en identifiant plus formellement les contenus créés par des humains.

Le tsunami de sites d’infos générées par IA que nous documentons depuis des mois a pris une telle ampleur que le ministère de la Culture vient lui-même de publier un communiqué de presse largement inspiré d’un billet de blog généré par IA, tout en y relayant une erreur « hallucinée » par l’IA.

Arrêt sur images et le Syndicat national des journalistes ont découvert que deux sites de presse quotidienne régionale (PQR) ont publié près de 900 articles en 50 jours « avec l’aide de l’IA » concernant ce qui se passe dans des départements limitrophes pour… induire les préfectures en erreur.

L’épidémie de sites d’informations générés par IA que Next documente depuis des mois vient de faire un premier accident industriel. Un site d’information féminin a en effet laissé entendre, par le truchement d’articles générés (et « hallucinés ») par IA, qu’une certaine Thérèse aurait ouvert une crèche dédiée aux bébés « reborn » (du nom donné aux poupées hyperréalistes). L’infox’ a depuis été reprise, citée et commentée par des milliers de personnes sur les réseaux sociaux, et quelques médias. Sans avoir cherché à le vérifier, ni préciser qu’il s’agit d’une ex-actrice porno, habituée des plateaux de talk-shows depuis 1999 et des réseaux sociaux depuis les années 2010 pour y mettre en scène sa vie fantasque et ses fantasmes.

[à suivre…]

  •  

☕️ Il y a plus de lobbyistes tech que d’eurodéputés à Bruxelles

« Il y a aujourd’hui plus de lobbyistes tech que d’eurodéputé·es à Bruxelles ! », s’étonne synthmedia.fr : un rapport des ONG Corporate Europe Observatory (CEO) et LobbyControl dénombrait en effet, en octobre dernier, 890 lobbyistes tech, contre 720 eurodéputés. En deux ans à peine, le budget des lobbys de la tech est quant à lui passé de 113 à 151 millions d’euros, soit une progression de 33 % :

« En tête de peloton, Meta ouvre la marche avec 10 millions d’euros consacrés à l’influence, talonnée par Microsoft, Apple et Amazon. Les dix plus grandes entreprises du numérique dépensent à elles seules trois fois plus que leurs homologues des secteurs pharmaceutique, financier et automobile réunis, et deux fois plus que celui de l’énergie. »

Cette montée en puissance viserait à détricoter les piliers législatifs du Vieux Continent par le biais de textes tels le Digital Omnibus présenté en novembre 2025 pour simplifier des lois numériques issues de dix ans de réflexion, relève Synth.

Après avoir comparé les argumentaires des lobbyistes adressés aux eurodéputés et la copie rendue par la Commission européenne, Felix Duffy, chargé de campagne chez LobbyControl pointe un « chevauchement assez important » des textes, et y voit un « cadeau fait à Donald Trump et à ses oligarques de la tech ».

IA Act Europe

« Une montée en puissance qui inquiète et alimente le débat sur la souveraineté numérique du Vieux Continent », écrit Synth, alors que la Commission européenne tente de consolider son arsenal numérique, que l’Union européenne peaufine sa prochaine grande loi numérique, le Digital Fairness Act, que l’administration états-unienne attaque de son côté le Digital Services Act (DSA) et prend la défense des ingérences numériques d’Elon Musk via son média social X.com.

« Les géants américains de la tech ont clairement fait allégeance au président des États-Unis. Derrière ce positionnement, il y a un imaginaire politique de puissance impériale transhumaniste et une volonté assumée de domination », analyse l’eurodéputé écologiste David Cormand : « l’offensive contre les régulations européennes n’est pas seulement politique, elle vise le modèle démocratique lui-même. Il ne peut donc pas y avoir de compromis durable entre nos valeurs et leur modèle ».

  •  

☕️ Il y a plus de lobbyistes tech que d’eurodéputés à Bruxelles

« Il y a aujourd’hui plus de lobbyistes tech que d’eurodéputé·es à Bruxelles ! », s’étonne synthmedia.fr : un rapport des ONG Corporate Europe Observatory (CEO) et LobbyControl dénombrait en effet, en octobre dernier, 890 lobbyistes tech, contre 720 eurodéputés. En deux ans à peine, le budget des lobbys de la tech est quant à lui passé de 113 à 151 millions d’euros, soit une progression de 33 % :

« En tête de peloton, Meta ouvre la marche avec 10 millions d’euros consacrés à l’influence, talonnée par Microsoft, Apple et Amazon. Les dix plus grandes entreprises du numérique dépensent à elles seules trois fois plus que leurs homologues des secteurs pharmaceutique, financier et automobile réunis, et deux fois plus que celui de l’énergie. »

Cette montée en puissance viserait à détricoter les piliers législatifs du Vieux Continent par le biais de textes tels le Digital Omnibus présenté en novembre 2025 pour simplifier des lois numériques issues de dix ans de réflexion, relève Synth.

Après avoir comparé les argumentaires des lobbyistes adressés aux eurodéputés et la copie rendue par la Commission européenne, Felix Duffy, chargé de campagne chez LobbyControl pointe un « chevauchement assez important » des textes, et y voit un « cadeau fait à Donald Trump et à ses oligarques de la tech ».

IA Act Europe

« Une montée en puissance qui inquiète et alimente le débat sur la souveraineté numérique du Vieux Continent », écrit Synth, alors que la Commission européenne tente de consolider son arsenal numérique, que l’Union européenne peaufine sa prochaine grande loi numérique, le Digital Fairness Act, que l’administration états-unienne attaque de son côté le Digital Services Act (DSA) et prend la défense des ingérences numériques d’Elon Musk via son média social X.com.

« Les géants américains de la tech ont clairement fait allégeance au président des États-Unis. Derrière ce positionnement, il y a un imaginaire politique de puissance impériale transhumaniste et une volonté assumée de domination », analyse l’eurodéputé écologiste David Cormand : « l’offensive contre les régulations européennes n’est pas seulement politique, elle vise le modèle démocratique lui-même. Il ne peut donc pas y avoir de compromis durable entre nos valeurs et leur modèle ».

  •  

☕️ Rançongiciel : la justice française condamne un pirate russe à 5 ans de prison

Ilia D., un ressortissant russe de 39 ans, a été condamné par le tribunal judiciaire de Paris, ce jeudi 19 février, à cinq années de prison (dont une avec sursis) et à 80 000 euros d’amende pour de multiples atteintes à des systèmes informatiques, extorsion, association de malfaiteurs et blanchiment aggravé.

Une peine assortie d’une interdiction de territoire français de dix ans, précise Le Monde, pour qui il s’agirait de « l’un des premiers dossiers majeurs en lien avec ce type de cybercriminalité », en France. Ilia D. a en effet été reconnu coupable de plusieurs dizaines de cyberattaques à l’aide du logiciel malveillant Phobos, utilisé pour paralyser les réseaux informatiques d’entreprises et de collectivités locales françaises.

Son épouse, Marina D., 34 ans, a été condamnée pour non-justification de ressources à un an de prison, une peine « largement couverte par ses deux années de détention provisoire », souligne Le Monde. Le parquet avait requis huit ans de prison et 100 000 euros d’amende pour Ilia D. et deux ans de prison pour son épouse. Aucun des deux prévenus ne fera appel du jugement, ont déclaré leurs conseils respectifs au Monde.

Ilia D. n’avait pourtant jamais cessé de nier les faits qui lui étaient reprochés, depuis le début de la procédure et lors de l’audience devant la 13ᵉ chambre correctionnelle du tribunal judiciaire de Paris, mercredi 11 février. Il accusait des pirates d’avoir utilisé son ordinateur pour mener des attaques, et l’impliquer comme bouc émissaire.

Des conteneurs chiffrés cachés derrière des fichiers sonores dans une de ses clefs USB contenaient cela dit « toute la méthodologie pour être un affilié de rançongiciel. J’achète des accès [à des réseaux informatiques], je prends attache avec un blanchisseur. Et puis il y a ce fameux journal de bord », a de son côté détaillé le substitut du procureur, Aurélien Brouillet, en référence à un fichier texte contenant un historique détaillé d’attaques menées contre des victimes de rançongiciel : « En fait c’est parfaitement logique, c’est son travail. »

L’article ne détaille pas quand ni comment ils avaient été identifiés puis arrêtés, souligne que le prévenu expliquait ne pas se souvenir du code de déverrouillage de son ordinateur, mais ne précise pas comment les fichiers chiffrés auraient été décryptés.

  •  

☕️ Rançongiciel : la justice française condamne un pirate russe à 5 ans de prison

Ilia D., un ressortissant russe de 39 ans, a été condamné par le tribunal judiciaire de Paris, ce jeudi 19 février, à cinq années de prison (dont une avec sursis) et à 80 000 euros d’amende pour de multiples atteintes à des systèmes informatiques, extorsion, association de malfaiteurs et blanchiment aggravé.

Une peine assortie d’une interdiction de territoire français de dix ans, précise Le Monde, pour qui il s’agirait de « l’un des premiers dossiers majeurs en lien avec ce type de cybercriminalité », en France. Ilia D. a en effet été reconnu coupable de plusieurs dizaines de cyberattaques à l’aide du logiciel malveillant Phobos, utilisé pour paralyser les réseaux informatiques d’entreprises et de collectivités locales françaises.

Son épouse, Marina D., 34 ans, a été condamnée pour non-justification de ressources à un an de prison, une peine « largement couverte par ses deux années de détention provisoire », souligne Le Monde. Le parquet avait requis huit ans de prison et 100 000 euros d’amende pour Ilia D. et deux ans de prison pour son épouse. Aucun des deux prévenus ne fera appel du jugement, ont déclaré leurs conseils respectifs au Monde.

Ilia D. n’avait pourtant jamais cessé de nier les faits qui lui étaient reprochés, depuis le début de la procédure et lors de l’audience devant la 13ᵉ chambre correctionnelle du tribunal judiciaire de Paris, mercredi 11 février. Il accusait des pirates d’avoir utilisé son ordinateur pour mener des attaques, et l’impliquer comme bouc émissaire.

Des conteneurs chiffrés cachés derrière des fichiers sonores dans une de ses clefs USB contenaient cela dit « toute la méthodologie pour être un affilié de rançongiciel. J’achète des accès [à des réseaux informatiques], je prends attache avec un blanchisseur. Et puis il y a ce fameux journal de bord », a de son côté détaillé le substitut du procureur, Aurélien Brouillet, en référence à un fichier texte contenant un historique détaillé d’attaques menées contre des victimes de rançongiciel : « En fait c’est parfaitement logique, c’est son travail. »

L’article ne détaille pas quand ni comment ils avaient été identifiés puis arrêtés, souligne que le prévenu expliquait ne pas se souvenir du code de déverrouillage de son ordinateur, mais ne précise pas comment les fichiers chiffrés auraient été décryptés.

  •  

Élections municipales : comment TikTok se prépare aux ingérences et désinformations

La taca-taca-taca-tac-tactique de TikTok
Élections municipales : comment TikTok se prépare aux ingérences et désinformations

À l’aune des élections municipales, prévues les 15 et 22 mars, TikTok, qui dénombre près de 28 millions d’utilisateurs actifs quotidiens en France, explique reposer sur 588 modérateurs « en langue française », et 50 experts en intégrité électorale, modération, presse et juridique.

« Pour ces municipales, nous avons adopté le dispositif que nous réservons d’ordinaire aux scrutins nationaux », indique aux Échos Gaultier Brand-Gazeau, l’ex-chef du service économique de la Direction générale du Trésor à Dublin, devenu en septembre 2025 directeur des affaires publiques et gouvernementales de TikTok France (dont le siège européen est en Irlande) :

« Nous avons une équipe de 50 experts en intégrité électorale, modération, presse et juridique. Nous travaillons avec l’ONG A voté, nous faisons de la pédagogie avec les créateurs de contenus, et j’ai rencontré tous les partis politiques. »

TikTok échange aussi régulièrement avec le Réseau de coordination et de protection des élections (RCPE), créé en réponse à la menace des ingérences étrangères en période électorale et composé d’administrations et d’autorités indépendantes compétentes en matière électorale : l’Arcom, la CNCCFP, le secrétariat général du Gouvernement, le ministère de l’Intérieur, le service de vigilance et protection contre les ingérences numériques étrangères VIGINUM et son Comité éthique et scientifique, chargé de suivre son activité.

588 modérateurs « en langue française »

« Nous n’avons jamais eu la prétention de devenir la place du village politique », pointe Gaultier Brand-Gazeau, mais a dû s’adapter, relèvent Les Échos avec près de 28 millions d’utilisateurs actifs quotidiens en France, dont des personnalités politiques très en vues : Jordan Bardella y dénombre 2,3 millions d’abonnés et près de 79 millions de « J’aime », Jean-Luc Mélenchon 2,7 millions d’abonnés et près de 47 millions de « J’aime », Emmanuel Macron 6,6 millions d’abonnés et près de 67 millions de « J’aime ».

Et ce, d’autant que TikTok était au cœur des opérations d’influence ayant conduit à l’annulation des élections en Roumanie en 2024, et que la Commission européenne a récemment « conclu à titre préliminaire que TikTok enfreignait la législation sur les services numériques en raison de sa conception addictive. Cela inclut des fonctionnalités telles que le défilement infini, la lecture automatique, les notifications push et son système de recommandation hautement personnalisé ».

Ancien responsable des affaires internationales de La French Tech, puis haut fonctionnaire de la Direction générale du Trésor, Gaultier Brand-Gazeau souligne que TikTok entend « protéger l’intégrité de l’information » grâce à 4 600 modérateurs, dont 588 « en langue française », sans pour autant préciser combien couvrent la France en propre, et non les pays francophones. À titre de comparaison, TikTok revendiquait, à l’aune des élections européennes de 2024, qu’« en Europe, plus de 6 000 personnes sont dédiées à la modération de contenu ».

Afin de protéger l’intégrité des élections, lutter contre la désinformation et les opérations d’influence, TikTok travaille en partenariat avec plus de 20 organisations de vérification des faits accréditées par l’International Fact-Checking Network (IFCN), dont l’AFP en France, chargés d’évaluer l’exactitude du contenu sur TikTok dans plus de 60 langues et 130 marchés du monde entier.

Des informations électorales « validées par le ministère de l’Intérieur »

TikTok aurait également investi 2 milliards d’euros dans l’IA, développé des modèles internes de détection des contenus générés par IA, et adhéré à la norme C2PA pour authentifier les contenus créés par IA.

Sur TikTok, les contenus réalistes générés par l’intelligence artificielle doivent en effet être étiquetés par leur créateur, rappelait un communiqué de presse en novembre dernier, qui avançait que 1,3 milliards de vidéos GenAI avaient déjà été étiquetées.

Ces derniers mois, TikTok a aussi enrichi l’étiquetage des contenus générés par l’IA (AIGC) en ajoutant davantage de contexte pour indiquer si un contenu avait été étiqueté grâce à la détection automatisée, par le créateur lui-même ou au moyen d’outils IA proposés sur la plateforme.

Les Échos précisent que l’application aurait aussi créé une page rassemblant les informations électorales, « validées par le ministère de l’Intérieur » (sans plus de précisions), qui renvoie vers du texte et bientôt des vidéos conçues par l’AFP.

L’AFP y publiait récemment un tour du monde de la désinformation électorale, mêlant contenus générés par IA, détournements d’images, manques de contexte, mais nous ne l’intégrerons pas à cette page : non content de ne pas proposer de fonctionnalité de confidentialité avancée comme le propose YouTube, la vidéo se lance en outre automatiquement, en autoplay.

  •  

Élections municipales : comment TikTok se prépare aux ingérences et désinformations

La taca-taca-taca-tac-tactique de TikTok
Élections municipales : comment TikTok se prépare aux ingérences et désinformations

À l’aune des élections municipales, prévues les 15 et 22 mars, TikTok, qui dénombre près de 28 millions d’utilisateurs actifs quotidiens en France, explique reposer sur 588 modérateurs « en langue française », et 50 experts en intégrité électorale, modération, presse et juridique.

« Pour ces municipales, nous avons adopté le dispositif que nous réservons d’ordinaire aux scrutins nationaux », indique aux Échos Gaultier Brand-Gazeau, l’ex-chef du service économique de la Direction générale du Trésor à Dublin, devenu en septembre 2025 directeur des affaires publiques et gouvernementales de TikTok France (dont le siège européen est en Irlande) :

« Nous avons une équipe de 50 experts en intégrité électorale, modération, presse et juridique. Nous travaillons avec l’ONG A voté, nous faisons de la pédagogie avec les créateurs de contenus, et j’ai rencontré tous les partis politiques. »

TikTok échange aussi régulièrement avec le Réseau de coordination et de protection des élections (RCPE), créé en réponse à la menace des ingérences étrangères en période électorale et composé d’administrations et d’autorités indépendantes compétentes en matière électorale : l’Arcom, la CNCCFP, le secrétariat général du Gouvernement, le ministère de l’Intérieur, le service de vigilance et protection contre les ingérences numériques étrangères VIGINUM et son Comité éthique et scientifique, chargé de suivre son activité.

588 modérateurs « en langue française »

« Nous n’avons jamais eu la prétention de devenir la place du village politique », pointe Gaultier Brand-Gazeau, mais a dû s’adapter, relèvent Les Échos avec près de 28 millions d’utilisateurs actifs quotidiens en France, dont des personnalités politiques très en vues : Jordan Bardella y dénombre 2,3 millions d’abonnés et près de 79 millions de « J’aime », Jean-Luc Mélenchon 2,7 millions d’abonnés et près de 47 millions de « J’aime », Emmanuel Macron 6,6 millions d’abonnés et près de 67 millions de « J’aime ».

Et ce, d’autant que TikTok était au cœur des opérations d’influence ayant conduit à l’annulation des élections en Roumanie en 2024, et que la Commission européenne a récemment « conclu à titre préliminaire que TikTok enfreignait la législation sur les services numériques en raison de sa conception addictive. Cela inclut des fonctionnalités telles que le défilement infini, la lecture automatique, les notifications push et son système de recommandation hautement personnalisé ».

Ancien responsable des affaires internationales de La French Tech, puis haut fonctionnaire de la Direction générale du Trésor, Gaultier Brand-Gazeau souligne que TikTok entend « protéger l’intégrité de l’information » grâce à 4 600 modérateurs, dont 588 « en langue française », sans pour autant préciser combien couvrent la France en propre, et non les pays francophones. À titre de comparaison, TikTok revendiquait, à l’aune des élections européennes de 2024, qu’« en Europe, plus de 6 000 personnes sont dédiées à la modération de contenu ».

Afin de protéger l’intégrité des élections, lutter contre la désinformation et les opérations d’influence, TikTok travaille en partenariat avec plus de 20 organisations de vérification des faits accréditées par l’International Fact-Checking Network (IFCN), dont l’AFP en France, chargés d’évaluer l’exactitude du contenu sur TikTok dans plus de 60 langues et 130 marchés du monde entier.

Des informations électorales « validées par le ministère de l’Intérieur »

TikTok aurait également investi 2 milliards d’euros dans l’IA, développé des modèles internes de détection des contenus générés par IA, et adhéré à la norme C2PA pour authentifier les contenus créés par IA.

Sur TikTok, les contenus réalistes générés par l’intelligence artificielle doivent en effet être étiquetés par leur créateur, rappelait un communiqué de presse en novembre dernier, qui avançait que 1,3 milliards de vidéos GenAI avaient déjà été étiquetées.

Ces derniers mois, TikTok a aussi enrichi l’étiquetage des contenus générés par l’IA (AIGC) en ajoutant davantage de contexte pour indiquer si un contenu avait été étiqueté grâce à la détection automatisée, par le créateur lui-même ou au moyen d’outils IA proposés sur la plateforme.

Les Échos précisent que l’application aurait aussi créé une page rassemblant les informations électorales, « validées par le ministère de l’Intérieur » (sans plus de précisions), qui renvoie vers du texte et bientôt des vidéos conçues par l’AFP.

L’AFP y publiait récemment un tour du monde de la désinformation électorale, mêlant contenus générés par IA, détournements d’images, manques de contexte, mais nous ne l’intégrerons pas à cette page : non content de ne pas proposer de fonctionnalité de confidentialité avancée comme le propose YouTube, la vidéo se lance en outre automatiquement, en autoplay.

  •  

La Chancellerie et VIGINUM accélèrent la lutte contre les manipulations de l’information

Le changement c'est maintenant !
La Chancellerie et VIGINUM accélèrent la lutte contre les manipulations de l’information

Le ministère de la Justice vient de publier deux circulaires relatives à la mobilisation de l’autorité judiciaire dans la lutte contre les ingérences étrangères et les manipulations de l’information. VIGINUM, de son côté, a accéléré le rythme et le volume de ses initiatives et partenariats.

La « Stratégie nationale de lutte contre les manipulations de l’information 2026 - 2030 » que vient de publier le Secrétariat de la défense et de la sécurité nationale (SGDSN), et à laquelle nous avons déjà consacré trois articles, ne chiffre aucun budget dédié. Reste donc à savoir si l’intendance suivra.

Signe cela dit que cette stratégie ne relève ni d’une lettre d’intention ni d’un vœu pieux, le garde des Sceaux vient de publier deux circulaires relatives à la mobilisation de l’autorité judiciaire dans la lutte contre les ingérences étrangères et les manipulations de l’information.

En outre, de nombreuses initiatives initiées par ou avec le service de vigilance et de protection contre les ingérences numériques étrangères (VIGINUM) ont d’ores et déjà été mises en œuvre ces trois derniers mois.

Les manipulations de l’information ne font l’objet d’aucune définition juridique

La première circulaire, datée du 21 janvier 2026 et relative à la mobilisation de l’autorité judiciaire dans la lutte contre les ingérences étrangères, précise que « si les critères d’attribution de compétence en vigueur aboutissent déjà en pratique au traitement de l’essentiel de ces procédures par le parquet de Paris (au titre de sa compétence en matière militaire, de cybercriminalité ou encore de criminalité organisée complexe), cette centralisation doit être pleinement entérinée par l’établissement d’une compétence exclusive de fait du parquet de Paris en la matière ».

La circulaire réclame également, « afin de faciliter et de fluidifier l’échange d’information », qu’un magistrat du parquet référent en matière d’atteintes aux intérêts fondamentaux de la Nation (AIFN) soit désigné au sein de chacun des neuf parquets des juridictions spécialisées en matière militaire d’ici le 31 janvier 2026.

La seconde, datée du 26 janvier 2026 et relative à la mobilisation de l’autorité judiciaire dans la lutte contre les manipulations de l’information, relève que si « les manipulations de l’information ne font l’objet d’aucune définition juridique », elles « revêtent certaines caractéristiques, qui permettent de les distinguer de l’exercice normal du droit de chacun à s’exprimer librement, constitutionnellement garanti » :

  • « un caractère délibéré, la manipulation ne pouvant procéder d’une simple erreur de celui qui s’exprime ;
  • un caractère clandestin, l’altération de l’information étant masquée à son destinataire ;
  • un caractère malveillant ou hostile ;
  • l’intention d’agir sur l’opinion publique et/ou de porter atteinte aux intérêts fondamentaux de la nation au sein de laquelle elles s’expriment ».

La circulaire souligne que « si les manipulations de l’information ne sont pas nécessairement en elles-mêmes pénalement répréhensibles, certains comportements relevant de ce phénomène peuvent néanmoins être constitutifs d’infractions pénales ».

Sont visées des infractions de droit commun (à l’image du délit d’usurpation d’identité) ou prévues par la loi du 29 juillet 1881 sur la liberté de la presse (telle que la publication, diffusion ou reproduction de fausses nouvelles), relevant du champ de la cybercriminalité (réprimant par exemple la publication de deepfake) ou du code électoral (comme le délit de diffusion de fausses nouvelles afin de fausser un scrutin) ainsi que les infractions d’atteintes aux intérêts fondamentaux de la Nation.

Des référés de droit commun, de presse et électoraux

La circulaire invite également les procureurs à « recourir, autant que de besoin, aux dispositifs civils que peut activer le ministère public afin de prévenir des manipulations de l’information ou d’y mettre fin », au travers de référés, une procédure judiciaire d’urgence qui permet au juge de prononcer rapidement des mesures provisoires, dans le respect du débat contradictoire, en attendant un jugement sur le fond.

Un focus annexé à la circulaire et consacré à l’appréhension judiciaire de la lutte contre les manipulations de l’information rappelle que le « référé de droit commun » permet de prescrire « les mesures conservatoires (…) pour prévenir un dommage imminent ou pour faire cesser un trouble manifestement illicite » en cas de diffusion de fausses informations. Il souligne qu’il est possible, pour obtenir une décision encore plus rapide, de solliciter l’autorisation d’assigner « d’heure à heure ».

La loi pour la confiance dans l’économie numérique (LCEN) permet en outre au président du tribunal judiciaire « statuant selon la procédure accélérée au fond de prescrire à toute personne susceptible d’y contribuer toutes les mesures propres à prévenir un dommage ou à faire cesser un dommage occasionné par le contenu d’un service de communication au public en ligne », rappelle le ministère.

Le « référé presse » de l’article 50 - 1 de la loi du 29 juillet 1881 sur la liberté de la presse permet quant à lui au juge des référés saisi par le ministère public ou toute personne physique ou morale ayant intérêt à agir de « prononcer l’arrêt d’un service de communication au public en ligne » lorsque des infractions « résultent de messages ou informations mis à disposition du public par un service de communication au public en ligne et qu’ils constituent un trouble manifestement illicite ».

« Le référé presse ne peut toutefois être employé que pour faire cesser certaines infractions limitativement énumérées », tempère le ministère :

  • messages tendant à la provocation de certains crimes ou délits (atteintes volontaires à la vie, à l’intégrité de la personne, agressions sexuelles, destructions, dégradations et détériorations volontaires dangereuses pour les personnes),
  • apologie ou contestation de crimes de guerre, de génocide, contre l’humanité ou de collaboration avec l’ennemi, « y compris si ces crimes n’ont pas donné lieu à la condamnation de leurs auteurs »,
  • diffamation et injure aggravée (envers une personne ou un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion, leur sexe, orientation sexuelle ou identité de genre ou handicap).

Enfin, le « référé électoral » permet de son côté de lutter contre la diffusion de fausses informations pendant les trois mois précédant le premier jour du mois d’élections générales et jusqu’à la date du tour de scrutin, « lorsque des allégations ou imputations inexactes ou trompeuses d’un fait de nature à altérer la sincérité du scrutin à venir sont diffusées de manière délibérée, artificielle ou automatisée et massive par le biais d’un service de communication au public en ligne ».

Le ministère souligne que ce référé est exclu en cas d’élections locales, et qu’il est limité « à la lumière de la réserve de constitutionnalité » émise par le Conseil constitutionnel en 2018, pour qui « les allégations ou imputations mises en cause ne sauraient, sans que soit méconnue la liberté d’expression et de communication, justifier une telle mesure que si leur caractère inexact ou trompeur est manifeste ».

Le document rappelle enfin que « lorsqu’il est recouru à la procédure du référé, la décision rendue est provisoire : cela signifie concrètement que la mesure prescrite en référé peut être remise en cause par une décision du juge du fond ».

« Eu égard à leur sensibilité, l’ensemble des faits relevant de la manipulation de l’information qui seraient constatés devront faire l’objet d’une information précise et complète, transmise au bureau de lutte contre la criminalité organisée, le terrorisme et le blanchiment de la direction des affaires criminelles et des grâces », conclut la circulaire.

Elle invite les procureurs de la République en charge de la direction d’enquêtes portant sur des faits de manipulation de l’information à « déployer une communication particulièrement active, réactive et précise, de nature à préserver la sincérité du débat public et à protéger les institutions que ces manipulations visent justement à remettre en cause, et ce à tous les stades de la procédure ».

Une accélération de la lutte contre la désinformation

En attendant de savoir comment ces deux circulaires contribueront à la mobilisation de l’autorité judiciaire dans la lutte contre les ingérences étrangères et les manipulations de l’information, VIGINUM a d’ores et déjà, ces trois derniers mois, accéléré le rythme et le volume de ses activités.

VIGINUM a ainsi publié en décembre un guide de sensibilisation à la menace informationnelle en contexte électoral, en prévision des élections municipales puis, en partenariat avec le CDSE (Cercle des directions de la sécurité des entreprises), un panorama de la menace informationnelle à destination des acteurs économiques français.

L’Assemblée nationale avait de son côté publié début décembre le rapport d’information d’une mission d’information consacrée à l’irruption de l’intelligence artificielle dans les ingérences étrangères, formulant une quinzaine de propositions.

Elles visent notamment à « renforcer les moyens humains, matériels et financiers de Viginum afin d’accompagner sa montée en puissance et l’extension de son champ d’activité », encourager un « financement vertueux de l’information par les entreprises privées et leurs pratiques publicitaires », et « encourager la conclusion de partenariats public-privé pour développer massivement les techniques de vérification de l’information »

Les rapporteurs proposent également d’ « imposer aux plateformes de réseaux sociaux d’étiqueter les contenus avec un score d’artificialité indiquant dans quelles proportions l’IA a été utilisée pour les générer » ou encore d’ « envisager une labellisation informationnelle selon un modèle de nutri‑score avec des critères objectifs et en sources ouvertes afin que chacun puisse vérifier l’impartialité du système ».

VIGINUM s’est aussi associé avec le Centre pour l’éducation aux médias et à l’information (CLEMI), rattaché au réseau Canopé pour développer un nouveau parcours de formation Magistère « Désinformation et ingérences numériques étrangères » à destination des enseignants souhaitant se former aux enjeux de lutte contre la manipulation de l’information et permettre aux élèves de développer leur esprit critique.

En janvier, l’École de journalisme de Sciences Po et VIGINUM ont par ailleurs créé un nouveau cours visant à mieux préparer les jeunes journalistes aux manipulations de l’information.

VIGINUM vient aussi de signer un « partenariat stratégique » en vue d’associer « l’expertise opérationnelle de VIGINUM à l’excellence scientifique d’Inria », et d’annoncer la création d’un Prix scientifique annuel VIGINUM-Inria, à l’échelle européenne, afin de « soutenir la recherche pour accélérer notre capacité collective à exploiter concrètement l’innovation, et en particulier l’IA, pour développer des outils opérationnels performants » au service de la lutte contre les manipulations de l’information.

VIGINUM a également partagé, sur LinkedIn, le jour de la publication de la stratégie nationale (qu’elle n’a pas, par contre, partagée), une revue de la littérature existante des principales mesures identifiées pour lutter contre les manipulations de l’information et sensibiliser les citoyens à ces enjeux, qu’elle avait commandée à la Direction interministérielle de la transformation publique (DITP) un an plus tôt.

Une consultation publique, lancée par le SGDSN sur make.org en décembre, vient de son côté de réunir 8 740 participants ayant déposé 691 propositions et 103 619 votes. Ses résultats indiquent notamment que la proposition la plus plébiscitée, recueillant jusqu’à 96 % des suffrages, vise à identifier et signaler les contenus générés par IA, « exiger leur traçabilité » via du watermarking et développer des outils de détection des contenus GenAI.

Près de 150 sites pro-russes usurpant la PQR ont été désactivés

Depuis fin janvier, VIGINUM publie également, chaque semaine, un bulletin de son réseau de coordination et de protection des élections (RCPE), composé d’administrations et d’autorités indépendantes compétentes en matière électorale. Il estime que « quatre stratégies d’ingérence numérique étrangère pourraient être mises en œuvre par des acteurs malveillants à l’occasion des élections municipales de 2026 » :

  • « Décrédibiliser la procédure électorale : aucune opération informationnelle servant cette stratégie n’a été caractérisée.
  • Alimenter la défiance vis-à-vis des médias du pays visé : bien que plusieurs noms de domaine, imitant des sites français d’information locale, soient désormais inactifs, cette campagne se poursuit. Huit noms de domaine supplémentaires ont ainsi été identifiés par VIGINUM, dont un enregistré le 5 février 2026
  • Exposer la réputation d’un candidat ou d’un parti politique : aucune opération informationnelle servant cette stratégie n’a été caractérisée.
  • Instrumentaliser certains thèmes afin de polariser le débat public numérique : aucune opération informationnelle servant cette stratégie n’a été caractérisée. »

Début février, il rapportait que depuis février 2024, les membres d’un réseau pro-russe lié au mode opératoire informationnel Storm-1516 avaient lancé une campagne « probablement destinée à se prépositionner dans l‘espace informationnel francophone » via l’enregistrement de plus d’une centaine de noms de domaines en « .fr » imitant des sites de presse locaux et alimentés par des articles de presse générés par des outils d’intelligence artificielle.

Nous avions rajouté un peu plus de ces 140 sites associés au réseau CopyCop de John Mark Dougan à la liste des sites signalés par notre extension GenAI, mais leurs noms de domaine ont récemment été désactivés, probablement par l’AFNIC.

Dans son bulletin n°3, en date du 13 février, VIGINUM relève toutefois que « bien que plusieurs de ces noms de domaine soient désormais inactifs, cette campagne se poursuit. Huit noms de domaine supplémentaires ont ainsi été identifiés par VIGINUM, dont un enregistré le 5 février 2026 ».

  •  

L’Inde oblige les plateformes à tatouer les contenus audiovisuels générés par IA

New délit
L’Inde oblige les plateformes à tatouer les contenus audiovisuels générés par IA

Les médias sociaux devront vérifier que les contenus synthétiques soient labellisés comme tels, empêcher le partage des deepnudes et deepfakes interdits, et retirer les contenus illicites sous trois voire deux heures.

L’adage « je crois ce que je vois » est périmé du fait de l’avènement des deepfakes, qui « constituent une menace importante pour la vie privée des individus et la société dans son ensemble », avance le Deepfake Prevention and Criminalisation Act.

Cette loi indienne vise à prévenir et à criminaliser la création, la diffusion et l’utilisation de contenus synthétiques générés par IA sans consentement ou sans filigrane numérique. D’après TechCrunch, les plateformes pourront se voir ordonner de les retirer dans un délai de trois heures, voire de deux heures seulement dans certains cas. Auparavant, ce délai pouvait monter à trois jours, précise Libération.

Les plateformes et médias sociaux permettant à leurs utilisateurs de partager du contenu audiovisuel devront aussi exiger qu’ils précisent s’ils ont été générés par IA, mais également déployer des outils pour vérifier ces déclarations, veiller à ce que les deepfakes soient clairement identifiés et accompagnés de données de provenance traçables, et empêcher le partage de contenus synthétiques interdits (notamment les usurpations d’identité, images intimes non consenties et contenus liés à des crimes graves).

Les plateformes seront tenues de déployer des « mesures techniques raisonnables et appropriées » pour empêcher leurs utilisateurs de créer ou de partager des contenus audio et vidéo illégaux générés de manière synthétique, précise The Verge.

Les contenus générés par IA qui ne seront pas bloqués devront quant à eux intégrer des « métadonnées permanentes ou d’autres mécanismes techniques appropriés permettant d’en déterminer la provenance », et les doter de marquages visibles et/ou audibles pour permettre aux utilisateurs d’identifier immédiatement qu’il s’agit de contenus synthétiques.

Le « retard considérable » des systèmes de détection et d’étiquetage de l’IA

L’Inde compte un milliard d’internautes, principalement des jeunes, ce qui en fait l’un des marchés les plus importants pour les plateformes sociales, souligne The Verge, pour qui « toute obligation imposée dans ce pays pourrait avoir un impact sur les efforts de modération des deepfakes à travers le monde, soit en améliorant la détection jusqu’à ce qu’elle soit réellement efficace, soit en obligeant les entreprises technologiques à reconnaître la nécessité de trouver de nouvelles solutions ».

Sauf que c’est plus facile à dire qu’à faire, eu égard au « retard considérable » des systèmes de détection et d’étiquetage de l’IA à l’heure actuelle. La Coalition for Content Provenance and Authenticity (C2PA), de la Content Authenticity Initiative (CAI), lancée en 2021 par Arm, la BBC, Intel, Microsoft et Adobe, insère ainsi des métadonnées détaillées dans les images, vidéos et fichiers audio au moment de leur création ou de leur modification, afin de décrire de manière invisible comment ils ont été créés ou modifiés.

Mais si Facebook, Instagram, YouTube et LinkedIn ajoutent des étiquettes aux contenus signalés par le système C2PA, « il est clair que cela ne fonctionne pas », assène The Verge, pour qui « ces étiquettes sont difficiles à repérer, et certains contenus synthétiques qui devraient comporter ces métadonnées passent entre les mailles du filet ».

De plus, les plateformes de médias sociaux ne peuvent pas étiqueter correctement les contenus produits par des tiers, tels que les modèles d’IA open source ou les applications dites « nudify » qui refusent d’adopter la norme volontaire C2PA.

Il sera impossible pour les plateformes de respecter cette nouvelle loi

The Verge souligne également que « l’interopérabilité est l’un des principaux enjeux de la norme C2PA », mais bien que les nouvelles règles indiennes puissent encourager son adoption, « elles sont si faciles à supprimer que certaines plateformes en ligne peuvent involontairement les effacer lors du téléchargement de fichiers ».

Étant donné que les amendements précisent les mécanismes de traçabilité qui doivent être mis en œuvre « dans la mesure où cela est techniquement possible », les responsables à l’origine de la décision indienne sont probablement conscients que les technologies actuelles de détection et d’étiquetage par IA ne sont pas encore au point, conclut The Verge : « Les organisations qui soutiennent la C2PA affirment depuis longtemps que le système fonctionnera si suffisamment de personnes l’utilisent. C’est donc l’occasion de le prouver ».

Interrogé par Libé, Pratik Sinha, cofondateur du média spécialisé dans le fact-checking Alt News, avance qu’il sera « impossible pour les plateformes de respecter cette nouvelle loi. Nous sommes le pays le plus peuplé au monde et chaque jour, des milliards de posts sont générés ». Il s’interroge aussi sur les risques de censure politique :

« Qui détermine si un post-généré par IA est illégal ou non ? Normalement, en Inde, cela devrait relever d’une décision de justice, mais dans les faits, c’est la police qui s’en occupe. Cette loi a été votée pour faciliter la suppression des contenus qui critiquent le gouvernement, alors que les militants proches du pouvoir peuvent poster des fausses informations sans être inquiétés. »

  •  

L’Inde oblige les plateformes à tatouer les contenus audiovisuels générés par IA

New délit
L’Inde oblige les plateformes à tatouer les contenus audiovisuels générés par IA

Les médias sociaux devront vérifier que les contenus synthétiques soient labellisés comme tels, empêcher le partage des deepnudes et deepfakes interdits, et retirer les contenus illicites sous trois voire deux heures.

L’adage « je crois ce que je vois » est périmé du fait de l’avènement des deepfakes, qui « constituent une menace importante pour la vie privée des individus et la société dans son ensemble », avance le Deepfake Prevention and Criminalisation Act.

Cette loi indienne vise à prévenir et à criminaliser la création, la diffusion et l’utilisation de contenus synthétiques générés par IA sans consentement ou sans filigrane numérique. D’après TechCrunch, les plateformes pourront se voir ordonner de les retirer dans un délai de trois heures, voire de deux heures seulement dans certains cas. Auparavant, ce délai pouvait monter à trois jours, précise Libération.

Les plateformes et médias sociaux permettant à leurs utilisateurs de partager du contenu audiovisuel devront aussi exiger qu’ils précisent s’ils ont été générés par IA, mais également déployer des outils pour vérifier ces déclarations, veiller à ce que les deepfakes soient clairement identifiés et accompagnés de données de provenance traçables, et empêcher le partage de contenus synthétiques interdits (notamment les usurpations d’identité, images intimes non consenties et contenus liés à des crimes graves).

Les plateformes seront tenues de déployer des « mesures techniques raisonnables et appropriées » pour empêcher leurs utilisateurs de créer ou de partager des contenus audio et vidéo illégaux générés de manière synthétique, précise The Verge.

Les contenus générés par IA qui ne seront pas bloqués devront quant à eux intégrer des « métadonnées permanentes ou d’autres mécanismes techniques appropriés permettant d’en déterminer la provenance », et les doter de marquages visibles et/ou audibles pour permettre aux utilisateurs d’identifier immédiatement qu’il s’agit de contenus synthétiques.

Le « retard considérable » des systèmes de détection et d’étiquetage de l’IA

L’Inde compte un milliard d’internautes, principalement des jeunes, ce qui en fait l’un des marchés les plus importants pour les plateformes sociales, souligne The Verge, pour qui « toute obligation imposée dans ce pays pourrait avoir un impact sur les efforts de modération des deepfakes à travers le monde, soit en améliorant la détection jusqu’à ce qu’elle soit réellement efficace, soit en obligeant les entreprises technologiques à reconnaître la nécessité de trouver de nouvelles solutions ».

Sauf que c’est plus facile à dire qu’à faire, eu égard au « retard considérable » des systèmes de détection et d’étiquetage de l’IA à l’heure actuelle. La Coalition for Content Provenance and Authenticity (C2PA), de la Content Authenticity Initiative (CAI), lancée en 2021 par Arm, la BBC, Intel, Microsoft et Adobe, insère ainsi des métadonnées détaillées dans les images, vidéos et fichiers audio au moment de leur création ou de leur modification, afin de décrire de manière invisible comment ils ont été créés ou modifiés.

Mais si Facebook, Instagram, YouTube et LinkedIn ajoutent des étiquettes aux contenus signalés par le système C2PA, « il est clair que cela ne fonctionne pas », assène The Verge, pour qui « ces étiquettes sont difficiles à repérer, et certains contenus synthétiques qui devraient comporter ces métadonnées passent entre les mailles du filet ».

De plus, les plateformes de médias sociaux ne peuvent pas étiqueter correctement les contenus produits par des tiers, tels que les modèles d’IA open source ou les applications dites « nudify » qui refusent d’adopter la norme volontaire C2PA.

Il sera impossible pour les plateformes de respecter cette nouvelle loi

The Verge souligne également que « l’interopérabilité est l’un des principaux enjeux de la norme C2PA », mais bien que les nouvelles règles indiennes puissent encourager son adoption, « elles sont si faciles à supprimer que certaines plateformes en ligne peuvent involontairement les effacer lors du téléchargement de fichiers ».

Étant donné que les amendements précisent les mécanismes de traçabilité qui doivent être mis en œuvre « dans la mesure où cela est techniquement possible », les responsables à l’origine de la décision indienne sont probablement conscients que les technologies actuelles de détection et d’étiquetage par IA ne sont pas encore au point, conclut The Verge : « Les organisations qui soutiennent la C2PA affirment depuis longtemps que le système fonctionnera si suffisamment de personnes l’utilisent. C’est donc l’occasion de le prouver ».

Interrogé par Libé, Pratik Sinha, cofondateur du média spécialisé dans le fact-checking Alt News, avance qu’il sera « impossible pour les plateformes de respecter cette nouvelle loi. Nous sommes le pays le plus peuplé au monde et chaque jour, des milliards de posts sont générés ». Il s’interroge aussi sur les risques de censure politique :

« Qui détermine si un post-généré par IA est illégal ou non ? Normalement, en Inde, cela devrait relever d’une décision de justice, mais dans les faits, c’est la police qui s’en occupe. Cette loi a été votée pour faciliter la suppression des contenus qui critiquent le gouvernement, alors que les militants proches du pouvoir peuvent poster des fausses informations sans être inquiétés. »

  •  

Infox : la France veut faire de l’Europe un « exportateur de stabilité informationnelle »

La pilule bleue, blanc, rouge
Infox : la France veut faire de l’Europe un « exportateur de stabilité informationnelle »

La « Stratégie nationale de lutte contre les manipulations de l’information 2026 - 2030 » comporte de nombreuses mesures opérationnelles nationales et internationales visant, non seulement à former l’ensemble des Français à la lutte contre les manipulations de l’information (LMI), mais également à structurer l’écosystème OSINT et à en exporter les méthodologies et moyens à l’international.

La première « Stratégie nationale de lutte contre les manipulations de l’information 2026 - 2030 » du Secrétariat de la défense et de la sécurité nationale (SGDSN), à laquelle nous avons déjà consacré deux articles, ne se contente pas de vouloir former l’ensemble des Français à la lutte contre les manipulations de l’information (LMI).

Elle compte également améliorer la détection précoce des manipulations et ingérences, ainsi que les réponses à vocation dissuasive, qu’elles relèvent de la communication (à l’image du compte @frenchresponse) ou se déclinent en modes diplomatiques, judiciaires, économiques, techniques voire militaires. Elle vise aussi à structurer une filière souveraine, innovante et résiliente de l’OSINT, objectif qualifié d’« enjeu stratégique majeur ».

La stratégie comporte enfin tout un volet international, afin de favoriser l’émergence d’une communauté européenne de la LMI, de permettre l’envoi de missions d’appui technique, sorte de « casques bleus » de la lutte contre la désinformation et, au-delà, de faire de l’Europe un « exportateur de stabilité informationnelle ».

Pour rappel, le premier pilier de la nouvelle stratégie vise à « mobiliser la Nation pour renforcer la résilience », et le second à « réguler les plateformes en ligne et les services d’intelligence artificielle ».

Le 3ᵉ des 4 piliers compte entend quant à lui « structurer une réponse opérationnelle » face aux manipulations de l’information, en « articulant les dimensions techniques, juridiques, diplomatiques et industrielles », « en consolidant les capacités opérationnelles de détection, de caractérisation, d’imputation et de réponse et en renforçant l’écosystème technologique national ».

« La première condition d’efficacité est la détection précoce partagée », poursuit le SGDSN. Or, « le tempo opérationnel de la LMI en fait un exercice de gestion de crise permanent exigeant des échanges techniques quasiment continus » pour traiter la menace, nécessitant « un système d’alerte et de réponse fiable et réactif ».

C’est l’objectif poursuivi par son 9ᵉ objectif stratégique (OS9), qui veut renforcer les capacités de veille, de détection et de caractérisation des ingérences numériques étrangères, « de façon continue, mutualisée et distribuée, pour détecter précocement les campagnes hostiles et en qualifier rigoureusement la portée, les mécanismes et les auteurs ».

Au niveau national, le « cœur opérationnel » de la caractérisation des ingérences numériques étrangères est incarné par le comité opérationnel de lutte contre les manipulations de l’information (COLMI), l’instance de coordination interministérielle animée par VIGINUM : « Pour répondre au rythme imposé par les adversaires, cette structure évoluera vers une configuration plus permanente, réunissant de manière périodique l’ensemble des parties prenantes techniques et stratégiques concernées ».

Des « partenariats structurés » avec le monde académique, les plateformes, les laboratoires publics et privés viendront également « enrichir une capacité d’anticipation stratégique et d’analyse distribuée qui reposera sur une diversité de méthodes croisées » allant de l’exploitation en sources ouvertes (OSINT) au « traitement algorithmique de données massives » en passant par de la « modélisation des dynamiques de propagation ».

Le réseau diplomatique, notamment grâce à ses postes à l’étranger, « apportera un appui décisif à cette stratégie, en assurant une veille contextuelle renforcée dans les zones les plus vulnérables ». La montée en puissance du dispositif de veille du ministère de l’Europe et des Affaires étrangères (MEAE) permettra en parallèle de « mieux détecter les campagnes d’influence et de communication stratégique d’acteurs étrangers ».

« Mais détecter ne suffit pas », poursuit le SGDSN, « encore faut-il pouvoir répondre ». L’OS10 devra ainsi structurer une doctrine interministérielle de réponse aux opérations d’ingérences numériques étrangères, « et plus largement des manipulations de l’information d’origine étrangère », « dans le respect du droit et des orientations politiques validées », « avec des effets dissuasifs ou correctifs clairement identifiés ».

Placée sous l’autorité du SGDSN et du MEAE, une instance de coordination interministérielle spécifique proposera, en fonction de chaque situation, des stratégies combinant différents leviers, « activés de manière graduée ou simultanée, selon différentes temporalités » :

  • « communicationnels : actions de rétablissement des faits, mobilisation des relais d’opinion et des partenaires de confiance, publication régulière de bulletins d’information sur les ingérences numériques étrangères ;
  • diplomatiques : condamnations publiques, actions de rétorsion, canaux de désescalade, mesures de confiance ;
  • judiciaires : ouverture de procédures contre les auteurs ou leurs relais ;
  • économiques : activation de régimes de sanctions nationaux ou européens ;
  • militaires : mobilisation en appui de l’action des autres administrations ou mise en œuvre des leviers d’actions militaires selon le cadre et la chaîne de commandement des opérations ;
  • techniques : entrave de capacités techniques adverses, diffusion ciblée d’éléments d’analyse ou d’alerte. »

« C’est dans ce cadre par exemple que s’inscrivent les formes nouvelles de ripostes immédiates sur les réseaux sociaux tel que le compte French Response mis en place et piloté par le MEAE », souligne le SGDSN.

Viser directement les acteurs humains ou techniques de campagnes hostiles

Pour garantir son efficacité, cette réponse interministérielle « suppose un continuum cohérent entre les actions administratives, diplomatiques, techniques et judiciaires », qui fera l’objet d’un « plan d’action pour les parquets et une meilleure coopération internationale » (OS11) « permettant de viser directement les acteurs humains ou techniques de campagnes hostiles ».

« Nonobstant la mise en œuvre rapide, dans un cadre administratif, de mesures de retrait, de blocage ou de déréférencement », la France poursuivra l’opérationnalisation du référé dit « anti-fake news » pour en élargir le champ d’application aux scrutins locaux, notamment municipaux. « Dans cette boite à outils, les circonstances aggravantes prévues pour les ingérences étrangères pourront être mobilisées », souligne le SGDSN, de sorte que la diffusion de fausses nouvelles ou de manœuvres frauduleuses altérant la sincérité d’un scrutin puisse être « sanctionnée de manière plus forte ».

Le SGDSN évoque également deux récentes circulaires du garde des Sceaux relatives à la mobilisation de l’autorité judiciaire dans la lutte contre les ingérences étrangères et les manipulations de l’information, que nous détaillerons dans un article dédié.

Structurer l’écosystème OSINT, un « enjeu stratégique majeur »

Enfin, pour consolider dans la durée les capacités d’analyse, l’OS12 entend soutenir l’émergence d’une filière souveraine française d’outils, de services et de compétences dédiés à l’investigation en sources ouvertes (OSINT), qualifiée de « levier essentiel, encore largement structuré par des communautés intéressées, militantes, journalistiques ou académiques agissant hors cadre institutionnel ».

Le SGDSN précise que la France dispose de capacités OSINT opérationnelles, « notamment dans des environnements spécialisés, qu’ils soient institutionnels, académiques ou privés » et que « plusieurs acteurs nationaux développent des outils et services prometteurs, illustrant le potentiel et la vitalité de l’écosystème national », mais que « toutefois, ces initiatives restent trop dispersées et insuffisamment coordonnées à l’échelle nationale » :

« Leur potentiel reste limité par un faible niveau de mutualisation et l’absence d’un cadre structurant, favorable à l’industrialisation, à la souveraineté technologique et à l’interopérabilité. Structurer cet écosystème constitue désormais un enjeu stratégique majeur. »

Si le tissu industriel français « compte d’ores et déjà plusieurs entreprises proposant des solutions OSINT de qualité, innovantes et compétitives », ce vivier d’acteurs, « encore en phase de consolidation, mérite d’être pleinement soutenu pour atteindre un niveau de maturité industrielle et répondre aux besoins croissants des institutions et de la société civile ».

L’État entend dès lors « structurer une filière souveraine, innovante et résiliente de l’OSINT, capable de répondre aux besoins croissants des institutions publiques, des chercheurs, des journalistes et de la société civile » :

« Un dialogue structuré entre l’État et l’écosystème permettra d’identifier les priorités, d’orienter les investissements stratégiques, et de favoriser la mutualisation des approches entre acteurs institutionnels et civils. Les dispositifs existants (France 2030, Bpifrance, commande publique) seront mobilisés pour accompagner durablement les entreprises du domaine. »

« Sans remettre en cause leur indépendance ni leur diversité d’organisation », la stratégie nationale vise aussi à « mieux identifier » la communauté d’analystes OSINT de la société civile et à « faciliter, lorsque cela est pertinent, leurs interactions avec les acteurs publics et académiques ».

À cette fin, pourront également être étudiés « différents leviers d’appui proportionnés et non contraignants, tels que des dispositifs légers de soutien à des travaux ou projets ciblés dans le cadre du plan France 2030 ».

Le « bouclier européen de la démocratie » et l’Agence suédoise de défense psychologique

Le 4e et dernier pilier vise quant à lui à « Assurer, avec nos alliés, l’existence d’un espace informationnel libre, ouvert et sécurisé ». Le SGDSN précise que « la France entend jouer un rôle moteur pour promouvoir le droit, la transparence et la souveraineté des sociétés ouvertes et démocratiques », et qu’elle s’appuiera pour cela « sur ses alliances, ses partenariats et son savoir-faire reconnu, pour structurer une diplomatie de la résilience informationnelle autour de quatre chantiers complémentaires ».

L’OS13 cherchera ainsi à structurer et « construire une approche fédérative des services de détection au sein de l’Union européenne afin de disposer d’un réseau fonctionnel », afin de « protéger la stabilité institutionnelle, l’intégrité des processus électoraux et la confiance dans le débat public ».

« Dans le cadre du bouclier démocratique européen porté par l’Union européenne, la France est en faveur de l’émergence d’une communauté européenne de la LMI », écrit le SGDSN. Objectifs : diffuser les bonnes pratiques opérationnelles de détection, accompagner les pays souhaitant monter en puissance ou mettre en œuvre des services gouvernementaux opérationnels dédiés, et développer l’interopérabilité entre les États membres, les institutions européennes et la société civile :

« Dans ce cadre, la France bénéficie d’une légitimité particulière. Son dispositif de lutte contre les manipulations de l’information dans l’espace numérique constitue une référence européenne. Ce modèle permet à la France de jouer un rôle moteur dans la construction d’une capacité partagée entre États membres. »

Présenté par la Commission européenne en novembre 2025, le « bouclier européen de la démocratie », qui « repose sur une double logique de résilience interne et d’influence externe », précise le SGDSN, et vise lui aussi à protéger l’UE des ingérences et manipulations étrangères en ligne.

Il prévoit le lancement d’un Centre européen pour la résilience démocratique, qui vise à réunir l’expertise et les capacités des États membres et des pays voisins, et qui s’appuiera sur les exemples de Viginum ou de l’Agence suédoise de défense psychologique, créée en 2022 pour contrecarrer « les influences inappropriées » et « informations erronées », et « sauvegarder une société ouverte et démocratique, la liberté d’opinion et l’indépendance et la liberté en Suède ».

Faire de l’Europe un « exportateur de stabilité informationnelle »

« Dans les régions où la démocratie est fragile, les campagnes de manipulation peuvent avoir un effet déstabilisateur majeur », avance par ailleurs le SGDSN. L’OS14 entend donc « définir une stratégie internationale de renforcement des capacités d’action de nos partenaires », cibler les efforts de renforcement sur les États et zones les plus vulnérables, en fonction des échéances démocratiques sensibles (élections, référendums, débats législatifs ou sociaux majeurs, etc.) et des contextes géopolitiques critiques :

« Ces séquences sensibles deviennent des cibles privilégiées pour des puissances étrangères hostiles, qui y voient des opportunités de polarisation, de déstabilisation, de renforcement de la confusion voire du chaos et in fine de perte de confiance dans les institutions. »

Le SGDSN évoque également la création de « missions d’appui technique », mobilisant des expertises françaises et européennes, pouvant être déployées rapidement à l’invitation d’un État, avant ou pendant une échéance électorale.

« En intégrant cette action dans le cadre européen, la France entend faire de l’Union un pôle de projection de stabilité démocratique » et de l’Europe un « exportateur de stabilité informationnelle », dans une logique de réponse conjointe aux menaces, résume le SGDSN :

« Cet effort s’inscrira dans la continuité des partenariats déjà engagés par la France dans des zones de tension informationnelle ou démocratique, notamment dans les Balkans ou en Europe de l’Est et plus largement le voisinage de l’Union européenne. »

Faire de la France une voix structurante dans les enceintes multilatérales

« Par définition, les campagnes d’ingérences numériques étrangères impliquent des dynamiques internationales, visent des opinions publiques fragmentées, et s’appuient sur des vecteurs transnationaux », relève le SGDSN. Dans ce contexte, les enceintes multilatérales « constituent un levier stratégique essentiel pour faire émerger des normes communes, favoriser la coordination des réponses et porter une vision démocratique de l’espace informationnel mondial ».

L’OS15 cherche dès lors à « prioriser l’engagement de la France » et « coordonner la réponse démocratique » afin de « faire de la France une voix structurante dans les enceintes multilatérales pour inscrire la LMI dans une vision partagée, fondée sur l’État de droit, la transparence et la résilience démocratique », et « mobiliser pleinement les cercles européens, transatlantiques et onusiens ».

Se disant « consciente des difficultés et divisions des enceintes multilatérales internationales », la France « s’opposera à toute tentative de captation du discours multilatéral par des États autoritaires visant à légitimer la censure ou le contrôle total de l’espace numérique » à l’ONU. Elle encouragera, a contrario, « une reconnaissance des normes démocratiques d’intervention : proportionnalité, redevabilité, droit à l’information, transparence ».

Elle y défendra une approche fondée sur la « souveraineté informationnelle », notamment dans le cadre du Global Digital Compact et dans les travaux conduits au sein de l’UNESCO. Ce « Pacte numérique mondial », négocié par 193 États membres depuis 2024, « engage les gouvernements […] à prendre des mesures concrètes pour rendre l’espace numérique sûr et sécurisé ».

Il entend notamment « promouvoir et faciliter l’accès à une information indépendante, factuelle et opportune afin de contrer la désinformation et la mésinformation », « renforcer la gouvernance internationale des données et assurer une gouvernance de l’IA au service de l’humanité ».

La France soutiendra également l’intégration des manipulations informationnelles au sein de la doctrine de l’OTAN, les efforts du Centre d’excellence StratCom basé à Riga, en Lettonie, « tout en promouvant une approche plus offensive dans l’attribution publique et la réponse coordonnée aux campagnes de manipulation menées contre les Alliés ».

« Par cette stratégie multilatérale, la France entend articuler ses intérêts nationaux et ses principes démocratiques fondamentaux, en contribuant à l’émergence d’un cadre international fondé sur l’intégrité du débat public, la transparence algorithmique, la souveraineté informationnelle des peuples, la transparence et la sécurité partagée », conclut le SGDSN.

Dans un quatrième article, nous reviendrons sur les deux récentes circulaires du garde des Sceaux relatives à la mobilisation de l’autorité judiciaire dans la lutte contre les ingérences étrangères et les manipulations de l’information, ainsi que les nombreuses initiatives initiées par ou avec VIGINUM ces derniers mois.

  •  

Comment la France entend concrètement lutter contre les manipulations de l’information

« Faites vos propres recherches » reloaded
Comment la France entend concrètement lutter contre les manipulations de l’information

La Stratégie nationale de lutte contre les manipulations de l’information dresse un très ambitieux plan de bataille visant à sensibiliser voire former l’ensemble des Français à la lutte contre les manipulations de l’information, qui s’inspire en bonne partie des méthodes en vigueur en matière de renseignement d’origine sources ouvertes (OSINT).

La première « Stratégie nationale de lutte contre les manipulations de l’information 2026 - 2030 » du Secrétariat de la défense et de la sécurité nationale (SGDSN, cf notre premier article de présentation) « repose sur trois principes fondamentaux : l’ouverture, l’action en réseau et l’intégration », largement inspirés des méthodes en vigueur en matière de renseignement d’origine sources ouvertes (OSINT).

Contrairement à d’autres champs de la sécurité nationale fondés sur la confidentialité, la lutte contre les manipulations de l’information « s’appuie, dans une large mesure, sur des méthodes et des ressources publiquement accessibles », privilégiant « la transparence, la vérifiabilité, et la mobilisation de l’ensemble des parties prenantes », résume le SGDSN.

Ce « choix stratégique », qualifié de « changement important de paradigme » en matière de sécurité nationale, « sera renforcé et rendu régulier », à mesure qu’il « vise à permettre la reproduction, la vérification, la contestation et la contribution par des acteurs tiers », ainsi que la validation par les pairs :

« Cette logique d’ouverture et de transparence est un levier de renforcement démocratique : en donnant au public les moyens de comprendre les mécanismes de manipulation, elle réduit leur efficacité. Une campagne de manipulation informationnelle ne peut opérer durablement sans opacité. La transparence devient ainsi un outil préventif autant que curatif, contribuant à une meilleure appropriation citoyenne des enjeux liés à l’ingérence numérique étrangère. »

L’action en réseau repose de son côté sur une « mobilisation distribuée », s’appuyant sur une logique de coopération entre les administrations, institutions, acteurs techniques, régulateurs, chercheurs, médias, plateformes, ainsi que la société civile et les citoyens, « chacun à son niveau de responsabilité ».

L’intégration renvoie de son côté à « une exigence de partage de l’information, dans le respect des impératifs de sécurité ». Le renforcement de la confiance mutuelle entre acteurs publics et privés « repose sur la circulation maîtrisée de ce qui est su, de ce qui est en cours d’évaluation, et de ce qui demeure encore incertain », précise le SGDSN.

Faire collectif à l’échelle du pays, et au-delà

La stratégie en elle-même s’articule autour de quatre priorités et piliers structurants, eux-mêmes déclinés en quinze objectifs stratégiques (OS) afin de « consolider l’avance de la France dans la préservation de l’intégrité du débat public et de prolonger ses efforts de résilience démocratique face aux manipulations de l’information ».

« Face à l’ampleur de la menace, l’enjeu central identifié de la stratégie est la constitution et l’animation d’un collectif à l’échelle du pays, et au-delà, dans une logique de réponse concertée à l’échelle internationale », ce qui induit :

  • « d’impliquer l’ensemble de la population dans la compréhension des phénomènes de manipulation ;
  • de partager largement l’information utile à la prévention et à la détection de ces phénomènes ;
  • de renforcer la capacité d’action des entités publiques et des acteurs de terrain ;
  • de mutualiser les ressources opérationnelles disponibles afin d’assurer une réponse coordonnée et efficace. »

Une nouvelle génération de professionnels hautement qualifiés

Le premier pilier vise à « renforcer la résilience de la société dans son ensemble, en agissant sur les facteurs cognitifs, sociaux, éducatifs et culturels que ces manipulations exploitent ». Intitulé « Mobiliser la Nation pour renforcer sa résilience », il entend « mobiliser les leviers éducatifs, associatifs, scientifiques et citoyens sur l’ensemble du territoire » afin de faire de chaque citoyen un acteur éclairé contre la manipulation de l’information.

« La première condition de cette résilience est la constitution d’une capacité nationale d’expertise, apte à détecter, caractériser et comprendre les opérations de manipulation de l’information (OS1) », précise le SGDSN, afin « d’assurer la fiabilité de l’environnement informationnel national au sens large, qu’il soit numérique ou non ».

Les connaissances, savoir-faire et réflexes associés « doivent pouvoir être intégrés dans l’ensemble des structures déterminantes pour le fonctionnement du pays ». Ce qui « requiert des adaptations organisationnelles mais aussi l’existence d’une nouvelle génération de professionnels hautement qualifiés » dans des domaines aussi variés que la veille stratégique, l’analyse des réseaux sociaux, l’évaluation des manipulations algorithmiques, l’utilisation malveillante des systèmes d’IA, l’investigation numérique ou encore la compréhension technique des dynamiques informationnelles.

Or, ce champ « souffre dès lors d’une pénurie de compétences, accentuée par une sous-représentation sociale et de genres, caractéristique plus large du secteur numérique », et par un « manque d’alignement entre les profils formés et les besoins réels du terrain ».

« À court terme, il importe de fournir à l’ensemble des décideurs locaux et nationaux, aux cadres de l’administration ainsi qu’aux directeurs des médias et journalistes », via leurs organes de formation professionnels respectifs, une information claire sur les mécanismes techniques et technologiques utilisés dans les opérations de manipulation de l’information.

Sur le long terme, « il importe d’investir massivement dans le développement de ces expertises », en les intégrant notamment aux cursus de formation existants dans les domaines régaliens, les médias, les sciences sociales et le numérique. Pour cela, « l’État développera une politique nationale de formation structurée, à destination d’un public d’acteurs clefs ».

À l’horizon 2027, la France structurera et déploiera une Académie de la lutte contre les manipulations de l’information (LMI), au sein de VIGINUM. Elle sera chargée de concevoir et partager des ressources pédagogiques adaptées à chaque public cible, former le plus grand nombre, et développer une « offre de renforcement capacitaire à l’échelle internationale », destinée aux partenaires étrangers souhaitant se doter de structures similaires à VIGINUM.

Une mobilisation de l’ensemble des acteurs de l’éducation

En parallèle, la stratégie nationale vise aussi à déployer une filière complète de long terme, allant de la sensibilisation citoyenne « transgénérationnelle » à la recherche académique « de haut niveau », en mobilisant l’ensemble des acteurs concernés : l’École, l’université, la recherche, les médias, la sphère culturelle et la société civile (OS2).

Au niveau scolaire, cela passera notamment par l’éducation aux médias et à l’information (EMI), l’enseignement moral et civique (EMC), un renforcement de la diffusion des ressources existantes, en particulier produites par le CLEMI et valorisées sur le site éduscol, et la « production de nouvelles ressources pour LUMNI ENSEIGNEMENT en collaboration avec l’INA et FRANCE TV, ainsi que des outils comme l’évolution du projet THE OSINT PROJECT ou la plateforme PIX, dont les usages pédagogiques seront valorisés et démultipliés ».

L’offre académique et les acteurs de l’enseignement supérieur, ainsi que leurs ministères compétents, « seront pleinement mobilisés » pour rappeler à leurs opérateurs l’importance de prendre en considération la LMI et l’éducation critique aux médias et à l’information dans la construction de leurs stratégies de formation.

Des actions de sensibilisation pourront être proposées aux doctorants dans le cadre de l’enseignement obligatoire à l’intégrité scientifique et aux enseignants-chercheurs nouvellement recrutés. Le sujet sera également pris en compte dans le cadre des enseignements de méthodologie dispensés aux étudiants de licence et master.

En parallèle, un réseau des communicants au sein des établissements d’enseignement supérieur et de recherche, des bibliothèques universitaires et des acteurs de formation à l’information scientifique sera mis en place et « facilitera l’accessibilité et la visibilité des travaux et contenus qui éclairent l’actualité, et participent à l’enrichissement du débat public ainsi qu’à la diffusion d’une culture scientifique, à l’attrait et à la démocratisation de la science ».

L’objectif est également de soutenir la recherche interdisciplinaire via des études approfondies sur la reconfiguration de l’économie de l’information en ligne et, plus largement, le paysage informationnel (« modèles d’affaires, architectures techniques, technologies émergentes, chaînes de valeur »), « en intégrant le potentiel de transformation majeur de l’IA générative ».

Favoriser le développement de l’esprit critique, soutenir Wikipedia

Au-delà du système éducatif, l’État mobilisera également les dispositifs d’engagement civique pour « former une jeunesse active dans la défense du débat public, […] structurer un vivier de citoyens actifs face aux manipulations de l’information », et « irriguer l’ensemble du tissu social de formats accessibles à tous » (OS3).

La stratégie s’appuiera aussi sur la diffusion à large échelle de « formats de sensibilisation participatifs » portés par un réseau de référents locaux de personnes formées, issues de l’éducation aux médias et à l’information, de l’éducation populaire, du monde associatif ou de l’Académie de la lutte contre la manipulation de l’information par un réseau de référents locaux (OS4) :

« L’objectif est de favoriser le développement de l’esprit critique, dans une logique d’autonomisation et de sensibilisation à même de remplir les fonctions de défense collective. Cette ambition suppose de multiplier les formats d’intervention adaptés (ateliers, débats, conférences, expériences immersives, etc.), en s’appuyant sur des dynamiques locales, participatives et décentralisées, à destination de tous les publics et sur l’ensemble du territoire. »

Cet OS4 entend « capitaliser » sur les « nombreuses initiatives, allant de l’éducation populaire aux espaces de débat citoyen, [qui] œuvrent déjà à outiller et sensibiliser l’ensemble de la population », tels que l’initiative Café IA, ou des structures comme le CLEMI, ainsi que l’encyclopédie participative Wikipédia :

« Il convient également d’apporter un soutien particulier à la contribution et à la valorisation de ressources telles que Wikipédia, qui bénéficient d’un important capital de confiance et jouent un rôle central dans les usages de vérification de l’information par les Français, sur quelque forme de savoir que ce soit, leur fiabilité et leur qualité reposant directement sur l’engagement et l’étendue de leurs communautés. »

S’inspirer de la loi Avia pour réguler les plateformes et services d’IA

Le second pilier, « Réguler les plateformes en ligne et les services d’intelligence artificielle générative », vise de son côté à « faire évoluer la gouvernance du numérique en responsabilisant les acteurs structurants de l’environnement informationnel – plateformes, moteurs de recherche, fournisseurs de services d’IA – face aux risques systémiques liés aux manipulations de l’information ».

Le SGDSN souligne que « cette architecture algorithmique, sans équivalent dans les médias traditionnels régis par une responsabilité éditoriale claire, soulève des enjeux inédits en matière d’intégrité, de responsabilité, de pluralisme et de transparence ».

Dans ce cadre, l’OS5 « exige de mobiliser tous les leviers possibles offerts par le cadre européen et national » pour pouvoir agir efficacement sur les plateformes numériques et les services d’IA générative, « en particulier pendant les périodes électorales ».

Le règlement européen sur les services numériques (DSA) confie la supervision principale des très grandes plateformes et très grands moteurs de recherche à la Commission européenne. Dans ce contexte, il s’agira notamment de « définir au niveau européen des règles techniques communes et précises permettant aux autorités nationales d’imposer, en période électorale, des mesures concrètes aux plateformes et aux services d’IA – adaptation des systèmes de recommandation, obligations renforcées de modération, exigences de transparence – afin de protéger le débat public ».

L’OS6 vise quant à lui à « établir un cadre de relations et de régulation rigoureux, sous peine de sanctions, entre les plateformes, les fournisseurs d’IA générative, les autorités, les chercheurs et la société civile ».

Le SGDSN avance en effet que les informations utiles à la compréhension des mécanismes de manipulation, des usages des plateformes et des effets des systèmes de recommandation « demeurent aujourd’hui dispersées et inégalement accessibles », ce qui limite la capacité d’analyse partagée et l’expression structurée des besoins des acteurs spécialisés.

Il propose de s’inspirer de l’expérience de l’Observatoire de la haine en ligne mis en place par la loi Avia au CSA en 2020, relancé par l’ARCOM en 2025 et composés de 28 représentants d’associations, de plateformes et d’administrations (contre une cinquantaine auparavant) pour créer un « cadre permanent de dialogue structuré », et doter l’écosystème d’un espace stable de partage d’analyses et de connaissances sur les phénomènes de manipulation de l’information.

Un centre d’excellence et un registre public des supports d’ingérences

L’OS7 poursuivra pour sa part la consolidation des moyens d’analyse des risques informationnels liés à l’IA afin de « créer une capacité d’expertise de référence, capable de qualifier, quantifier et anticiper les effets systémiques de l’IA sur la fiabilité de l’environnement informationnel ».

« Hypertrucages, génération de textes persuasifs, synthèse vocale, clonage d’identités, microciblage algorithmique : l’IA permet aujourd’hui de manipuler l’information à une échelle inédite, de manière difficilement détectable, et à un coût marginal », constate en effet le SGDSN.

L’équipe DATALAB de VIGINUM se transformera dès lors en « centre d’excellence IAxLMI » afin de « fournir des outils et services clés en main aux communautés de vérification de faits, aux médias, aux ONG et chercheurs », mais également « renforcer l’appui à l’ARCOM », au titre des missions découlant du DSA sur la modération et la vérification des algorithmes, « et appuyer les autorités publiques dans l’élaboration de réponses réglementaires ou techniques ».

« De manière complémentaire », souligne le SGDSN, la France doit aussi apporter son soutien aux acteurs de l’écosystème mobilisés dans la LMI, via des appels à coopération ou financements, ainsi que « différents modes de mise en visibilité ».

Enfin, la stratégie nationale s’attaquera aux mécanismes de financement de la manipulation de
l’information par la publicité programmatique et la monétisation des plateformes (OS8), afin de réduire la rentabilité des sites, comptes et chaînes impliqués dans des opérations de manipulation ou des pratiques frauduleuses.

Les algorithmes de recommandation des réseaux sociaux amplifient en effet les contenus « générant le plus d’activité (clics, commentaires, partages, temps de lecture) », et « donnant un avantage indirect aux contenus polarisants voire polémiques » :

« L’intérêt financier que représente la viralité de certaines thématiques peut ainsi motiver des acteurs opportunistes. L’institutionnalisation des programmes de redistribution crée ainsi une « économie » de la manipulation, pouvant favoriser des acteurs produisant massivement des contenus manifestement inexacts ou trompeurs. »

Ce risque, « identifié depuis plusieurs années », connaît une intensification avec l’essor des IA génératives, qui abaissent les coûts de production et de diffusion de contenus à grande échelle, ce qui renforce l’enjeu de régulation des dispositifs de monétisation.

La stratégie prévoit d’abord de définir « à l’échelle nationale » un référentiel cartographiant les dispositifs de monétisation des plateformes, et de « renforcer l’application des obligations de transparence » pour les créateurs et éditeurs établis hors de France diffusant des contenus politiques visant des audiences françaises.

Il est également question d’ « obliger les plateformes à mettre en place un guide de bonne conduite pour les contenus monétisables et prévoir des sanctions en cas de non-respect », d’ « encourager la vérification de l’identité des administrateurs et de la fiabilité des contenus pour l’éligibilité aux programmes de monétisation », et d’ « exiger la suspension du financement de comptes diffusant de manière répétée ou coordonnée des informations trompeuses à des fins lucratives, avec transparence sur les comptes concernés ».

Un registre public, librement accessible sous formats interopérables (fichiers téléchargeables, API), pour intégration dans les outils des agences médias, plateformes publicitaires et acteurs publics, recensera en outre les « sites ou chaînes identifiés comme supports manifestes d’ingérences numériques étrangères ».

« Il reposera sur des évaluations indépendantes associant journalistes, chercheurs, experts OSINT, organisations indépendantes, et entités étatiques compétentes telles que VIGINUM », précise le SGDSN :

« Les critères d’inclusion seront transparents : caractère manipulatoire des contenus, absence de transparence éditoriale, participation à des campagnes coordonnées. Il sera mis à jour régulièrement, horodaté, avec un dispositif contradictoire permettant aux éditeurs de contester leur inclusion. »

Un troisième article reviendra plus en détail sur les mesures opérationnelles de détection et de réponse aux ingérences numériques, la stratégie industrielle destinée à structurer l’écosystème OSINT, le volet international de la stratégie, et les nombreuses initiatives lancées par et avec VIGINUM.

  •  

☕️ La Russie veut autoriser le FSB à couper l’accès à Internet et la téléphonie mobile

La Russie veut obliger les fournisseurs d’accès à Internet et de téléphonie mobile à se conformer aux ordres du service de sécurité intérieure russe FSB, successeur du KGB, visant à interrompre les services de télécommunications, rapporte The Moscow Times.

Le projet de loi, adopté mardi par la Douma d’État, chambre basse du Parlement russe, est censé contribuer à protéger les Russes et les institutions publiques contre les menaces pour la sécurité tout en préservant les entreprises de télécommunications de poursuites judiciaires. Et ce, alors que les régions du pays sont de plus en plus confrontées à des perturbations généralisées de l’internet et des réseaux mobiles en raison des attaques de drones ukrainiens, souligne le Moscow Times.

Le projet de loi, qui a été approuvé par 393 législateurs (sur 450, avec 13 voix contre), a depuis subi plusieurs modifications, notamment la suppression des références aux « menaces pour la sécurité » comme justification des fermetures et la modification des pouvoirs accordés au FSB, qui passent de la délivrance de « demandes » à celle d’« exigences » contraignantes.

Outre les services Internet et mobiles, le projet de loi permettrait également aux responsables de la sécurité de bloquer les appels téléphoniques, les SMS et même les services postaux, a déclaré Igor Lebedev, vice-ministre russe des Communications.

Pour entrer en vigueur, les modifications apportées à la loi russe sur les communications doivent encore être approuvées par le Conseil de la Fédération, la chambre haute du Parlement, et signées par Vladimir Poutine.

The Moscow Times, dont la rédaction s’est relocalisée à Amsterdam suite à l’invasion de l’Ukraine par la Russie, a depuis été classé « organisation indésirable » et l’accès à son site web est bloqué par le Roskomnadzor dans le pays.

  •  

☕️ La Russie veut autoriser le FSB à couper l’accès à Internet et la téléphonie mobile

La Russie veut obliger les fournisseurs d’accès à Internet et de téléphonie mobile à se conformer aux ordres du service de sécurité intérieure russe FSB, successeur du KGB, visant à interrompre les services de télécommunications, rapporte The Moscow Times.

Le projet de loi, adopté mardi par la Douma d’État, chambre basse du Parlement russe, est censé contribuer à protéger les Russes et les institutions publiques contre les menaces pour la sécurité tout en préservant les entreprises de télécommunications de poursuites judiciaires. Et ce, alors que les régions du pays sont de plus en plus confrontées à des perturbations généralisées de l’internet et des réseaux mobiles en raison des attaques de drones ukrainiens, souligne le Moscow Times.

Le projet de loi, qui a été approuvé par 393 législateurs (sur 450, avec 13 voix contre), a depuis subi plusieurs modifications, notamment la suppression des références aux « menaces pour la sécurité » comme justification des fermetures et la modification des pouvoirs accordés au FSB, qui passent de la délivrance de « demandes » à celle d’« exigences » contraignantes.

Outre les services Internet et mobiles, le projet de loi permettrait également aux responsables de la sécurité de bloquer les appels téléphoniques, les SMS et même les services postaux, a déclaré Igor Lebedev, vice-ministre russe des Communications.

Pour entrer en vigueur, les modifications apportées à la loi russe sur les communications doivent encore être approuvées par le Conseil de la Fédération, la chambre haute du Parlement, et signées par Vladimir Poutine.

The Moscow Times, dont la rédaction s’est relocalisée à Amsterdam suite à l’invasion de l’Ukraine par la Russie, a depuis été classé « organisation indésirable » et l’accès à son site web est bloqué par le Roskomnadzor dans le pays.

  •  

Infox, ingérences & cie : la France veut « garantir que chacun puisse penser librement »

Les complotistes vont adorer le détester
Infox, ingérences & cie : la France veut « garantir que chacun puisse penser librement »

La Stratégie nationale de lutte contre les manipulations de l’information 2026 - 2030 relève que la menace, en matière d’ingérences étrangères, n’a jamais été aussi élevée, mais également que la France a été l’une des pionnières dans la lutte dirigée contre cette dernière.

« Chaque citoyen, acteur public ou privé, doit disposer des moyens de s’informer de manière éclairée, de comprendre les mécanismes d’ingérence et de contribuer activement au débat démocratique », résume la Stratégie nationale de lutte contre les manipulations de l’information 2026 - 2030. Son introduction souligne qu’ « au cœur de cette stratégie se trouve l’ambition de dépasser la simple lutte contre les manipulations de l’information pour construire une société capable de maintenir la confiance et des repères communs ».

Un objectif urgent mais probablement hors d’atteinte, d’autant plus louable que le Parlement et donc l’opinion publique n’ont jamais été aussi divisés, que les médias et réseaux sociaux n’ont jamais été autant instrumentalisés et pollués par des manipulations de l’information (franco-françaises comme pouvant relever d’ingérences étrangères).

Cette première Stratégie nationale de lutte contre les manipulations de l’information, que vient de publier le Secrétariat de la défense et de la sécurité nationale (SGDSN), a pour objectif de doter la France de « moyens renforcés pour protéger son débat public, garantir la capacité de chacun à se forger un jugement éclairé et défendre, avec ses partenaires, un espace informationnel fondé sur la liberté d’expression et la pluralité des opinions » :

« Elle s’articule autour de quatre priorités : renforcer la résilience de la Nation ; encadrer et responsabiliser les plateformes en ligne et les services d’intelligence artificielle générative ; consolider les capacités nationales de détection, d’attribution et de réponse ; agir avec les partenaires européens et internationaux pour préserver un espace informationnel libre, ouvert et sécurisé. »

Dans sa préface, le président de la République souligne que les manipulations de l’information « ne sont plus des accidents marginaux du débat public » et qu’elles sont « devenues des instruments à part entière de confrontation stratégique » :

« Elles visent moins à convaincre qu’à désorienter, moins à imposer une vérité qu’à dissoudre les repères communs, moins à gagner un débat qu’à affaiblir la possibilité même du débat. En brouillant les frontières entre le vrai et le faux et en exploitant les fractures sociales et émotionnelles, elles cherchent à miner de l’intérieur ce que les démocraties ont de plus robuste : la confiance. »

« Face à ces pratiques, la tentation pourrait être grande d’ériger des murs, de restreindre la parole, de surveiller les idées. Ce serait une erreur », poursuit Emmanuel Macron : « La force des régimes autoritaires est de pouvoir contrôler l’information ; la force des démocraties est de pouvoir la confronter ».

« Il ne s’agit pas de dire ce qu’il faut penser, mais de garantir que chacun puisse penser librement », tout en identifiant les auteurs et vecteurs de manœuvres hostiles, « sans jamais soupçonner les citoyens » :

« Cette stratégie repose sur une conviction simple : le premier rempart contre la manipulation est la société elle-même. Une société instruite, capable de discernement, confiante dans ses institutions et dans ses médias, est une société moins vulnérable aux récits de division. »

« Ce n’est pas un hasard si les manipulations de l’information prospèrent d’abord là où existent l’ouverture, le débat et la pluralité », et donc dans nos démocraties, qui « sont aujourd’hui observées, testées, parfois attaquées par des régimes qui redoutent leur exemple » :

« C’est le paradoxe de la liberté : elle attire ceux qui veulent l’affaiblir. Mais c’est aussi sa force : elle permet de leur résister sans leur ressembler. […] Il ne s’agit pas seulement de protéger nos institutions. Il s’agit de défendre la capacité de chacun à se forger un jugement éclairé. »

Des MacronLeaks à l’assassinat de Samuel Paty

Élaborée sous l’égide du SGDSN, la stratégie nationale 2026 - 2030 s’appuie sur des contributions d’experts, de chercheurs, de parlementaires et d’acteurs de terrain engagés dans la lutte contre les manipulations de l’information, mais sans que le SGDSN n’en indique la liste. Elle revient par contre largement sur les différentes étapes ayant conduit à sa rédaction, et souligne que la France a été un « pays précurseur » en matière de lutte contre les manipulations de l’information.

Les MacronLeaks, publiés à la veille du premier tour de la présidentielle 2017, et depuis attribués à Fancy Bear (ou APT28, une unité du GRU, le service de renseignement militaire russe, également à l’origine du piratage de TV5Monde) avaient ainsi conduit à la mise en place, en 2018, d’un réseau de coordination interministérielle placé sous l’égide du SGDSN.

En décembre 2018, la loi relative à la lutte contre la manipulation de l’information avait doté, en parallèle, le CSA (devenu Autorité de régulation de la communication audiovisuelle et numérique, ARCOM) et le juge des référés de nouvelles prérogatives en la matière.

Fin 2020, l’assassinat de Samuel Paty « a marqué un tournant dans la perception de la menace, révélant la dangerosité des dynamiques de haine amplifiées numériquement ». La création de la « Task force Honfleur » interministérielle dédiée, décidée dans la foulée, jeta les bases d’un dispositif de réponse pérenne.

La création du service de vigilance et de protection contre les ingérences numériques étrangères (VIGINUM) en 2021 a depuis permis de sortir d’une « logique de gestion de crise », souligne le SGDSN, de structurer la doctrine et de lui dédier des « capacités opérationnelles », d’inscrire la « protection du débat public francophone au cœur de la défense et de la sécurité nationale », mais également de « renforcer la crédibilité de la France dans les coopérations internationales ».

Un « périmètre d’action publique ciblé »

Le décret du 13 juillet 2021 portant création de VIGINUM a défini la notion d’ingérence numérique étrangère (INE) comme étant une « opération impliquant, de manière directe ou indirecte, un acteur étranger (étatique ou non), et visant la diffusion artificielle ou automatisée, massive et délibérée d’allégations ou imputations de faits manifestement inexactes ou trompeuses, de nature à porter atteinte aux intérêts fondamentaux de la Nation ».

VIGINUM ne vise donc pas à lutter contre toute forme de désinformation, mais uniquement celles relevant d’une « typologie rigoureuse de la menace, qui repose sur quatre critères cumulatifs : une atteinte potentielle aux intérêts fondamentaux de la Nation ; une allégation ou imputation de fait manifestement inexacte ou trompeuse ; une diffusion, ou une volonté de diffusion, artificielle ou automatisée, massive et délibérée ; l’implication, directe ou indirecte d’un acteur étranger (étatique, paraétatique ou non-étatique) ».

Dès lors, VIGINUM reste circonscrit à un « périmètre d’action publique ciblé » et concentre ses moyens « sur l’amplification artificielle, l’automatisation et la coordination inauthentique », de sorte qu’il « protège le pluralisme interne en dissociant l’analyse des procédés de manipulation de toute appréciation des opinions, des acteurs ou des mouvements » :

« Le dispositif national de lutte contre les manipulations de l’information repose sur un principe démocratique clair : il n’a ni vocation ni mandat pour qualifier les dynamiques nationales. Son champ d’intervention porte sur la détection de manœuvres techniques de manipulation et d’opérations coordonnées impliquant une origine étrangère, dans une logique de sécurité nationale. »

« L’administration US mène une croisade pour sauver l’Europe »

Si le périmètre est délimité, la menace s’accroît. Aux traditionnels acteurs russes, chinois ou azerbaïdjanais, le SGDSN note en effet qu’ « une vision absolutiste de la liberté d’expression telle que conçue par certains courants conservateurs aux États-Unis est délibérément introduite dans le débat public européen ».

Instrumentalisée de manière « désinhibée » et « reprise opportunément par les plateformes en ligne », elle permet d’ « entretenir une conception trompeuse, voire erronée, des objectifs de la réglementation numérique européenne (DSA) », croisade récemment documentée par L’observatoire des multinationales.

Alors que l’administration Trump a pris soin de démanteler ses services et unités en charge (directement, ou via les fonds qu’ils accordaient à la société civile et aux ONG) de la lutte contre la désinformation et les ingérences étrangères, une note de bas de page souligne que l’U.S. National Security Strategy, publiée le 5 décembre 2025, souligne des velléités d’influence politique partisane en faveur des partis politiques européens d’extrême-droite, présentés comme « patriotiques » :

« La diplomatie américaine doit continuer à défendre la démocratie authentique, la liberté d’expression et la célébration sans complexe du caractère et de l’histoire propres à chaque nation européenne. Les États-Unis encouragent leurs alliés politiques en Europe à promouvoir ce renouveau spirituel, et l’influence croissante des partis patriotiques européens est en effet source d’un grand optimisme. »

Évoquant un risque d’ « effacement civilisationnel » de l’Europe, la nouvelle stratégie US dénonce pêle-mêle les décisions européennes qui « sapent la liberté politique et la souveraineté ; les politiques migratoires, qui transforment le continent et créent des tensions ; la censure de la liberté d’expression et la répression de l’opposition politique ; la chute des taux de natalité, ainsi que la perte des identités nationales (…) ». Elle souhaite dans le même temps que « l’Europe reste européenne, retrouve sa confiance en elle-même sur le plan civilisationnel et abandonne son obsession infructueuse pour l’asphyxie réglementaire », résume l’AFP :

« Nous rejetons les idéologies désastreuses “changement climatique” et “zéro émission nette” qui ont tant nui à l’Europe, menacé les États-Unis et subventionné nos adversaires. »

Le Financial Times révélait en outre le 6 février que « l’administration américaine mène une croisade pour sauver l’Europe », et que le département d’État états-unien s’apprêtait aussi à financer des groupes de réflexion et des organisations caritatives alignés sur le mouvement Maga à travers l’Europe, afin de diffuser les positions politiques de Washington et de lutter contre ce qu’il qualifie de menaces envers la liberté d’expression.

Les IA nous conduisent « vers une réalité de plus en plus fragmentée »

Cherchant à se projeter à l’horizon 2030, le SGDSN anticipe une banalisation des contenus générés par IA, au fur et à mesure que cette dernière est « intégrée aux outils du quotidien et aux gestes ordinaires de communication et de recherche d’information ». Or, « lorsque des traces numériques peuvent être produites instantanément et en nombre, leur valeur probante tend à s’affaiblir », au point que « ce qui faisait auparavant preuve comme élément visuel ou sonore isolé devient plus fragile et plus facilement contestable » :

« Dans ce contexte, la frontière entre information, commentaire, interprétation et manipulation devient moins lisible […] réduisant la capacité des publics à discriminer une production authentique d’une fabrication artificielle. »

« Cette banalisation s’accompagne d’une personnalisation accrue de l’information », poursuit le SGDSN, pour qui cette « hyper-personnalisation algorithmique » nous conduit « vers une réalité de plus en plus fragmentée ». Or, cette fragmentation crée aussi un terrain favorable aux stratégies d’ingérence, qui peuvent cibler des publics segmentés, adapter les messages et exploiter des clivages existants : « la polarisation ne résulterait alors plus seulement des désaccords d’opinion, mais du fait que les individus n’accèdent plus aux mêmes sujets ou aux mêmes récits, avec des mises en perspective différentes ».

Le SGDSN relève que des dispositifs, « notamment des agents IA ou des modèles agentiques, capables de produire, relayer et amplifier des prises de parole », commencent d’ores et déjà à participer aux échanges en ligne dans certains environnements, sans être toujours identifiables comme tels :

« L’enjeu ne consiste alors plus seulement à convaincre, mais à imposer une dynamique d’attention : capter l’attention, maintenir un sujet au premier plan et, in fine, saturer les capacités d’échange. Le débat public peut ainsi être moins structuré par la qualité des arguments que par la capacité à orienter ou disperser l’attention collective. Ces logiques s’accordent avec des modes opératoires d’ingérence fondés sur la diffusion artificielle et coordonnée de contenus, visant moins la persuasion directe que la perturbation durable du débat public. »

« À mesure que l’intelligence artificielle devient une interface d’accès à l’information (moteurs génératifs, assistants conversationnels, outils de synthèse) », les stratégies d’ingérence informationnelle « pourraient viser non plus seulement les publics, mais les systèmes chargés de produire, d’organiser et de reformuler l’information », souligne le SGDSN, évoquant les risques d’empoisonnement des IA :

« Dans un environnement où la valeur informationnelle repose de plus en plus sur les données – corpus d’entraînement, contenus indexés, signaux d’ajustement des modèles – l’action d’ingérence peut s’exercer en amont, par une intervention directe ou indirecte sur ces ensembles de données, plus facilement sur les couches d’indexation et de recherche dans des environnements ouverts, que sur les modèles fondamentaux eux-mêmes dont les corpus d’entraînement devraient, en théorie, être plus filtrés et préparés. »

Dans un second article, nous reviendrons sur les nombreuses mesures concrètes énumérées dans cette stratégie nationale de lutte contre les manipulations de l’information 2026 - 2030.

  •  
❌