Bercy a annoncé vendredi après-midi son accord pour la vente d’Exaion par EDF à l’américain Mara, assorti de plusieurs conditions censées garantir la protection des intérêts français. Le montage prévoit l’entrée d’un nouvel investisseur au capital : Xavier Niel, via sa holding NJJ.
L’affaire était devenue très politique, avec un retentissement qui dépassait sans doute la portée réelle des activités d’Exaion en matière de souveraineté énergétique ou industrielle. Qu’importe, l’État semble avoir réussi à négocier avec Mara des conditions à même d’éteindre la polémique : Bercy a en effet annoncé vendredi avoir autorisé la vente d’Exaion à l’américain, mais en l’assortissant de plusieurs conditions contraignantes.
Ancrage et gouvernance propice aux intérêts français garantis
Bercy impose en premier lieu l’internalisation chez EDF de la plupart des activités que son ancienne filiale réalisait pour le groupe, de façon à assurer « l’absence d’hébergement de toute donnée sensible d’EDF sur les serveurs d’Exaion ». Pour les sujets moins sensibles, l’accord prévoit le maintien en France des activités réalisées par Exaion au profit de son ancienne maison mère.
L’État indique par ailleurs avoir fait lever la clause de non-concurrence exigée au départ par Mara de l’ancien propriétaire, qui aurait pu empêcher l’énergéticien de développer certains projets en rapport avec le calcul ou les infrastructures informatiques.
Xavier Niel dans les bagages
Enfin, il a obtenu que l’offre d’acquisition soit révisée pour faire entrer un nouvel acteur autour de la table, le fonds NJJ détenu par Xavier Niel. Du fait de ce nouvel actionnaire, présent aux côtés d’EDF Pulse Holding et donc du nouveau majoritaire qu’est Mara, « les intérêts français représentent désormais près de la moitié du capital d’Exaion », affirme Bercy.
L’investissement de NJJ s’incarne par une prise de participation de 10 % au capital de Mara France, la société de tête qui va intégrer les activités d’Exaion.
« Le conseil d’administration d’Exaion comptera trois représentants désignés par Mara Inc, trois représentants désignés par EDF Pulse Ventures, un représentant désigné par NJJ et le directeur général et co-fondateur d’Exaion. Xavier Niel ainsi que Fred Thiel, CEO Mara Inc, siégeront au sein du conseil d’administration d’Exaion. », précise EDF, qui reste donc à la fois client et actionnaire d’Exaion.
« Dans cette opération, l’État avance sur deux jambes : nous confirmons l’attractivité de la France pour les investissements internationaux, tout en assurant une protection intransigeante de nos intérêts stratégiques et de notre souveraineté technologique. », se félicite Roland Lescure, ministre de l’Économie, dans un communiqué.
À l’aune des élections municipales, prévues les 15 et 22 mars, TikTok, qui dénombre près de 28 millions d’utilisateurs actifs quotidiens en France, explique reposer sur 588 modérateurs « en langue française », et 50 experts en intégrité électorale, modération, presse et juridique.
« Pour ces municipales, nous avons adopté le dispositif que nous réservons d’ordinaire aux scrutins nationaux », indique aux ÉchosGaultier Brand-Gazeau, l’ex-chef du service économique de la Direction générale du Trésor à Dublin, devenu en septembre 2025 directeur des affaires publiques et gouvernementales de TikTok France (dont le siège européen est en Irlande) :
« Nous avons une équipe de 50 experts en intégrité électorale, modération, presse et juridique. Nous travaillons avec l’ONG A voté, nous faisons de la pédagogie avec les créateurs de contenus, et j’ai rencontré tous les partis politiques. »
TikTok échange aussi régulièrement avec le Réseau de coordination et de protection des élections (RCPE), créé en réponse à la menace des ingérences étrangères en période électorale et composé d’administrations et d’autorités indépendantes compétentes en matière électorale : l’Arcom, la CNCCFP, le secrétariat général du Gouvernement, le ministère de l’Intérieur, le service de vigilance et protection contre les ingérences numériques étrangères VIGINUM et son Comité éthique et scientifique, chargé de suivre son activité.
« Nous n’avons jamais eu la prétention de devenir la place du village politique », pointe Gaultier Brand-Gazeau, mais a dû s’adapter, relèvent Les Échos avec près de 28 millions d’utilisateurs actifs quotidiens en France, dont des personnalités politiques très en vues : Jordan Bardella y dénombre 2,3 millions d’abonnés et près de 79 millions de « J’aime », Jean-Luc Mélenchon 2,7 millions d’abonnés et près de 47 millions de « J’aime », Emmanuel Macron 6,6 millions d’abonnés et près de 67 millions de « J’aime ».
Et ce, d’autant que TikTok était au cœur des opérations d’influence ayant conduit à l’annulation des élections en Roumanie en 2024, et que la Commission européenne a récemment « conclu à titre préliminaire que TikTok enfreignait la législation sur les services numériques en raison de sa conception addictive. Cela inclut des fonctionnalités telles que le défilement infini, la lecture automatique, les notifications push et son système de recommandation hautement personnalisé ».
Ancien responsable des affaires internationales de La French Tech, puis haut fonctionnaire de la Direction générale du Trésor, Gaultier Brand-Gazeau souligne que TikTok entend « protéger l’intégrité de l’information » grâce à 4 600 modérateurs, dont 588 « en langue française », sans pour autant préciser combien couvrent la France en propre, et non les pays francophones. À titre de comparaison, TikTok revendiquait, à l’aune des élections européennes de 2024, qu’« en Europe, plus de 6 000 personnes sont dédiées à la modération de contenu ».
Des informations électorales « validées par le ministère de l’Intérieur »
TikTok aurait également investi 2 milliards d’euros dans l’IA, développé des modèles internes de détection des contenus générés par IA, et adhéré à la norme C2PA pour authentifier les contenus créés par IA.
Sur TikTok, les contenus réalistes générés par l’intelligence artificielle doivent en effet être étiquetés par leur créateur, rappelait un communiqué de presse en novembre dernier, qui avançait que 1,3 milliards de vidéos GenAI avaient déjà été étiquetées.
Ces derniers mois, TikTok a aussi enrichi l’étiquetage des contenus générés par l’IA (AIGC) en ajoutant davantage de contexte pour indiquer si un contenu avait été étiqueté grâce à la détection automatisée, par le créateur lui-même ou au moyen d’outils IA proposés sur la plateforme.
Les Échos précisent que l’application aurait aussi créé une page rassemblant les informations électorales, « validées par le ministère de l’Intérieur » (sans plus de précisions), qui renvoie vers du texte et bientôt des vidéos conçues par l’AFP.
L’AFP y publiait récemment un tour du monde de la désinformation électorale, mêlant contenus générés par IA, détournements d’images, manques de contexte, mais nous ne l’intégrerons pas à cette page : non content de ne pas proposer de fonctionnalité de confidentialité avancée comme le propose YouTube, la vidéo se lance en outre automatiquement, en autoplay.
La Confédération française démocratique du travail (CFDT) a signalé mercredi 18 février par voie de communiqué (PDF) avoir été victime« d’une attaque informatique impliquant un téléchargement illégal de fichiers contenant des données personnelles d’adhérents ».
« Dès qu’elle a eu connaissance de cet incident, la CFDT a isolé et stoppé le serveur hébergeant ses applications. Des investigations sont en cours pour estimer l’impact de cette violation de données informatiques », écrit encore la confédération, qui indique avoir déposé plainte et averti à la fois la Cnil et l’ANSSI, conformément à ses obligations.
L’information aux adhérents a débuté dans la foulée avec une communication par email, dans laquelle la CFDT liste plus précisément la nature des données potentiellement compromises. Outre les coordonnées complètes et le couple prénom / nom, l’exposition concerne également la date d’adhésion à la confédération, et le syndicat d’affiliation. « À ce stade, aucune donnée bancaire ne serait concernée par cette faille de confidentialité », indique avec précaution ce courrier. Rappelons que la Cnil considère l’appartenance syndicale comme relevant des données sensibles.
Communiqué de presse de la CFDT daté du 18 février 2026
« Au 31 décembre 2024, la CFDT comptait 640 631 adhérentes et adhérents », indique l’organisation, qui ne précise pas le volume de comptes concernés par cette fuite de données. Le chiffre total pourrait cependant se révéler supérieur au total du nombre actuel d’adhérents. La confédération a en effet également entrepris d’avertir certains ex-adhérents que leurs données ont pu être exfiltrées dans le contexte de cette attaque.
« En tant qu’ex-adhérent.e, vos données ont pu être impactées : en effet, et conformément aux dispositions légales et réglementaires, nous conservons les données de nos ex-adhérent.es pour une durée de 4 ans à partir de la clôture de l’exercice après leur départ de la CFDT, et pendant 10 ans en ce qui concerne les documents comptables (par exemple les pièces justificatives de remboursement de frais) », justifie l’organisation dans un email consulté par Next.
Une annonce revendiquant un piratage de la CFDT est apparue le 18 février sur un forum dédié aux échanges de données volées. L’auteur y affirmait disposer des coordonnées de 1,4 million de personnes, ainsi que les informations professionnelles d’une partie des employés de la confédération. Le lien entre cette annonce et l’attaque reconnue par la CFDT n’a pas été établi.
La faute à celui qui est entre la chaise et le clavier, encore ?
Plusieurs pannes chez AWS sont liées à l’utilisation en interne de ses propres agents IA par ses ingénieurs. L’entreprise qui a lancé son agent Kiro en assurant qu’il allait « au-delà du vibe coding » rejette la faute sur ses employés qui auraient laissé faire son IA.
Au moins deux pannes internes à Amazon Web Services récentes sont liées à l’utilisation de ses outils d’IA générative comme Kiro, utilisés par ses employés pour gérer ses infrastructures.
L’entreprise avait présenté son agent IA Kiro en juillet 2025 en le proposant d’abord via inscription sur liste d’attente avant de le lancer pleinement fin décembre lors de sa conférence annuelle re:Invent.
AWS présentait Kiro comme un « environnement de développement IA qui vous aide à passer du concept à la production grâce à une expérience de développement simplifiée pour travailler avec des agents IA. Kiro excelle dans le « vibe coding », mais va bien au-delà : la force de Kiro réside dans sa capacité à intégrer ces prototypes dans des systèmes de production grâce à des fonctionnalités telles que les spécifications et les hooks ».
Suppression et recréation de l’environnement sur un système en production
Mais, comme l’explique le Financial Times, l’utilisation de ces outils provoque, même en interne, des doutes sur la qualité qui en résulte. Ainsi, des employés d’AWS ont expliqué au journal économique britannique que deux pannes ont eu lieu sur les systèmes de l’entreprise alors que des ingénieurs les ont utilisés pour les gérer.
« Nous avons déjà constaté au moins deux interruptions de production [au cours des derniers mois] », explique une des sources de nos confrères. « Les ingénieurs ont laissé l’ [agent] IArésoudre un problème sans intervenir. Les interruptions étaient mineures, mais tout à fait prévisibles. »
L’une d’entre elles concerne un service utilisé par les clients ayant subi une interruption de 13 h à la mi-décembre. AWS a fait circuler en interne un postmortem de l’incident. L’outil d’Amazon Kiro aurait été utilisé par un ingénieur de l’entreprise. Et il aurait déterminé que la meilleure solution consistait à « supprimer et recréer l’environnement » du système.
Concernant l’autre panne, c’était l’outil Amazon Q Developer qui était impliqué, selon les sources du Financial Times, sans plus de détails.
Une erreur de l’utilisateur, et non une erreur de l’IA, selon AWS
Amazon a affirmé qu’il s’agissait « d’une coïncidence que des outils d’IA aient été impliqués [et que] le même problème pourrait se produire avec n’importe quel outil de développement ou action manuelle ».
L’entreprise a ajouté que « dans les deux cas, il s’agissait d’une erreur de l’utilisateur, et non d’une erreur de l’IA ». Elle assure que l’incident de décembre était un « événement extrêmement limité » qui n’a touché qu’un service dans certaines régions de Chine, et que l’autre n’a eu aucune conséquence sur les services AWS orientés client.
Amazon continue en parallèle de promouvoir l’utilisation de ses outils d’IA générative en interne qui sont en retard par rapport à certains outils de ses concurrents. L’entreprise interdit même l’utilisation de Claude Code à ses employés au profit de Kiro, ce qui a attiré des critiques en interne.
Dans un fil de discussion sur l’outil de chat de l’entreprise, environ 1 500 employés d’Amazon ont poussé à l’adoption officielle de Claude Code en interne, expliquait la semaine dernière Business Insider. Cette situation est d’autant plus étrange qu’Amazon propose à ses clients un accès à Claude Code via sa plateforme Bedrock.
La course aux LLM se poursuit chez les grands noms de l’IA avec, cette semaine, deux annonces successives, qui concernent respectivement Claude Sonnet 4.6, dernière version en date du modèle généraliste d’Anthropic et Gemini 3.1 Pro qui, chez Google, promet des capacités améliorées en matière de raisonnement.
Le calendrier s’accélère encore sur le front des grands modèles de langage, avec deux sorties quasi concomitantes cette semaine : Claude Sonnet 4.6 chez Anthropic et Gemini 3.1 Pro chez Google. Deux semaines plus tôt, ce sont Claude Opus 4.6 et GPT-5.3 Codex qui s’affrontaient dans l’actualité, illustrant le caractère presque frénétique du rythme de publication adoptés par les acteurs de l’IA générative.
Sonnet 4.6 se rapproche d’Opus
Chez Anthropic, Opus (le modèle haut de gamme dédié aux tâches complexes) n’aura pas conservé longtemps l’exclusivité des nouveautés de Claude 4.6. Sonnet (le modèle courant proposé par défaut, moins gourmand en tokens) intègre en effet les principales, à commencer par sa fenêtre contextuelle désormais étendue à un million de jetons. Ce paramètre est important pour les usages avancés, puisqu’il définit la quantité d’information que le modèle peut traiter et conserver en mémoire dans le cadre d’une conversation avec l’usager.
Anthropic ne détaille pas les emprunts précis de Sonnet à Opus, mais affirme dans le tableau qui résume les performances de ses modèles et les compare à la concurrence que Sonnet 4.6 talonne, voire dépasse, son aîné sur la plupart des scénarios fonctionnels (code, analyse financière, traitements agentiques). Opus 4.6 garderait tout de même une longueur d’avance sur les raisonnements complexes.
Face à la concurrence, les deux modèles 4.6 seraient supérieurs à GPT-5.2 et Gemini 3 Pro sur la plupart des scénarios d’usage. Rappelons que les chiffres présentés dans ce tableau émanent d’outils de mesure (benchmarks) choisis et opérés par Anthropic. L’entreprise double ces mesures de quelques sondages réalisés auprès de ses utilisateurs, qui mettent quant à eux en lumière un réel progrès en passant de 4.5 à 4.6, notamment sur le code.
Anthropic revendique des performances en nette hausse pour Claude Sonnet 4.6
Sonnet 4.6 est désormais utilisé par défaut sur tous les abonnements à Claude, y compris dans sa version gratuite. « Nous avons également mis à niveau notre offre gratuite vers Sonnet 4.6 par défaut ; elle inclut désormais la création de fichiers, les connecteurs, les compétences et la compression. », indique à ce sujet l’entreprise.
Gemini 3.1 Pro mise sur le raisonnement
Chez Google, c’est donc le déploiement de Gemini 3.1 Pro qui commence au travers des différents produits et modèles de la gamme.
3.1 Pro offrirait, selon Google, des performances doublées en matière de raisonnement sur ARC-AGI-2, l’outil de mesure de la fondation ARC Prize, qui fait aussi office de mètre étalon chez Anthropic. Gemini 3.1 Pro obtiendrait à ce niveau un score de 77,1 %, soit près de dix points de plus que ce qu’obtient Claude Opus 4.6.
Au-delà des performances synthétiques, Google promet une amélioration sensible des performances dans les usages appliqués, prenant comme exemple la génération d’une animation SVG à partir d’une requête texte.
« À compter d’aujourd’hui, Gemini 3.1 Pro est déployé dans l’application Gemini avec des limites plus élevées pour les utilisateurs disposant des abonnements Google AI Pro et Ultra. La version 3.1 Pro est également disponible sur NotebookLM, exclusivement pour les utilisateurs Pro et Ultra. Les développeurs et les entreprises peuvent dès maintenant accéder à la version préliminaire de Gemini 3.1 Pro via l’API Gemini, grâce à AI Studio, Antigravity, Vertex AI, Gemini Enterprise, Gemini CLI et Android Studio. », précise Google.
Gemini 3.1 Pro est censé écraser la concurrence sur les raisonnements abstraits
Le ministère de la Justice vient de publier deux circulaires relatives à la mobilisation de l’autorité judiciaire dans la lutte contre les ingérences étrangères et les manipulations de l’information. VIGINUM, de son côté, a accéléré le rythme et le volume de ses initiatives et partenariats.
Signe cela dit que cette stratégie ne relève ni d’une lettre d’intention ni d’un vœu pieux, le garde des Sceaux vient de publier deux circulaires relatives à la mobilisation de l’autorité judiciaire dans la lutte contre les ingérences étrangères et les manipulations de l’information.
En outre, de nombreuses initiatives initiées par ou avec le service de vigilance et de protection contre les ingérences numériques étrangères (VIGINUM) ont d’ores et déjà été mises en œuvre ces trois derniers mois.
Les manipulations de l’information ne font l’objet d’aucune définition juridique
La première circulaire, datée du 21 janvier 2026 et relative à la mobilisation de l’autorité judiciaire dans la lutte contre les ingérences étrangères, précise que « si les critères d’attribution de compétence en vigueur aboutissent déjà en pratique au traitement de l’essentiel de ces procédures par le parquet de Paris (au titre de sa compétence en matière militaire, de cybercriminalité ou encore de criminalité organisée complexe), cette centralisation doit être pleinement entérinée par l’établissement d’une compétence exclusive de fait du parquet de Paris en la matière ».
La circulaire réclame également, « afin de faciliter et de fluidifier l’échange d’information », qu’un magistrat du parquet référent en matière d’atteintes aux intérêts fondamentaux de la Nation (AIFN) soit désigné au sein de chacun des neuf parquets des juridictions spécialisées en matière militaire d’ici le 31 janvier 2026.
La seconde, datée du 26 janvier 2026 et relative à la mobilisation de l’autorité judiciaire dans la lutte contre les manipulations de l’information, relève que si « les manipulations de l’information ne font l’objet d’aucune définition juridique », elles « revêtent certaines caractéristiques, qui permettent de les distinguer de l’exercice normal du droit de chacun à s’exprimer librement, constitutionnellement garanti » :
« un caractère délibéré, la manipulation ne pouvant procéder d’une simple erreur de celui qui s’exprime ;
un caractère clandestin, l’altération de l’information étant masquée à son destinataire ;
un caractère malveillant ou hostile ;
l’intention d’agir sur l’opinion publique et/ou de porter atteinte aux intérêts fondamentaux de la nation au sein de laquelle elles s’expriment ».
La circulaire souligne que « si les manipulations de l’information ne sont pas nécessairement en elles-mêmes pénalement répréhensibles, certains comportements relevant de ce phénomène peuvent néanmoins être constitutifs d’infractions pénales ».
Sont visées des infractions de droit commun (à l’image du délit d’usurpation d’identité) ou prévues par la loi du 29 juillet 1881 sur la liberté de la presse (telle que la publication, diffusion ou reproduction de fausses nouvelles), relevant du champ de la cybercriminalité (réprimant par exemple la publication de deepfake) ou du code électoral (comme le délit de diffusion de fausses nouvelles afin de fausser un scrutin) ainsi que les infractions d’atteintes aux intérêts fondamentaux de la Nation.
Des référés de droit commun, de presse et électoraux
La circulaire invite également les procureurs à « recourir, autant que de besoin, aux dispositifs civils que peut activer le ministère public afin de prévenir des manipulations de l’information ou d’y mettre fin », au travers de référés, une procédure judiciaire d’urgence qui permet au juge de prononcer rapidement des mesures provisoires, dans le respect du débat contradictoire, en attendant un jugement sur le fond.
Un focus annexé à la circulaire et consacré à l’appréhension judiciaire de la lutte contre les manipulations de l’information rappelle que le « référé de droit commun » permet de prescrire « les mesures conservatoires (…) pour prévenir un dommage imminent ou pour faire cesser un trouble manifestement illicite » en cas de diffusion de fausses informations. Il souligne qu’il est possible, pour obtenir une décision encore plus rapide, de solliciter l’autorisation d’assigner « d’heure à heure ».
La loi pour la confiance dans l’économie numérique (LCEN) permet en outre au président du tribunal judiciaire « statuant selon la procédure accélérée au fond de prescrire à toute personne susceptible d’y contribuer toutes les mesures propres à prévenir un dommage ou à faire cesser un dommage occasionné par le contenu d’un service de communication au public en ligne », rappelle le ministère.
Le « référé presse » de l’article 50 - 1 de la loi du 29 juillet 1881 sur la liberté de la presse permet quant à lui au juge des référés saisi par le ministère public ou toute personne physique ou morale ayant intérêt à agir de « prononcer l’arrêt d’un service de communication au public en ligne » lorsque des infractions « résultent de messages ou informations mis à disposition du public par un service de communication au public en ligne et qu’ils constituent un trouble manifestement illicite ».
« Le référé presse ne peut toutefois être employé que pour faire cesser certaines infractions limitativement énumérées », tempère le ministère :
messages tendant à la provocation de certains crimes ou délits (atteintes volontaires à la vie, à l’intégrité de la personne, agressions sexuelles, destructions, dégradations et détériorations volontaires dangereuses pour les personnes),
apologie ou contestation de crimes de guerre, de génocide, contre l’humanité ou de collaboration avec l’ennemi, « y compris si ces crimes n’ont pas donné lieu à la condamnation de leurs auteurs »,
diffamation et injure aggravée (envers une personne ou un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion, leur sexe, orientation sexuelle ou identité de genre ou handicap).
Enfin, le « référé électoral » permet de son côté de lutter contre la diffusion de fausses informations pendant les trois mois précédant le premier jour du mois d’élections générales et jusqu’à la date du tour de scrutin, « lorsque des allégations ou imputations inexactes ou trompeuses d’un fait de nature à altérer la sincérité du scrutin à venir sont diffusées de manière délibérée, artificielle ou automatisée et massive par le biais d’un service de communication au public en ligne ».
Le ministère souligne que ce référé est exclu en cas d’élections locales, et qu’il est limité « à la lumière de la réserve de constitutionnalité » émise par le Conseil constitutionnel en 2018, pour qui « les allégations ou imputations mises en cause ne sauraient, sans que soit méconnue la liberté d’expression et de communication, justifier une telle mesure que si leur caractère inexact ou trompeur est manifeste ».
Le document rappelle enfin que « lorsqu’il est recouru à la procédure du référé, la décision rendue est provisoire : cela signifie concrètement que la mesure prescrite en référé peut être remise en cause par une décision du juge du fond ».
« Eu égard à leur sensibilité, l’ensemble des faits relevant de la manipulation de l’information qui seraient constatés devront faire l’objet d’une information précise et complète, transmise au bureau de lutte contre la criminalité organisée, le terrorisme et le blanchiment de la direction des affaires criminelles et des grâces », conclut la circulaire.
Elle invite les procureurs de la République en charge de la direction d’enquêtes portant sur des faits de manipulation de l’information à « déployer une communication particulièrement active, réactive et précise, de nature à préserver la sincérité du débat public et à protéger les institutions que ces manipulations visent justement à remettre en cause, et ce à tous les stades de la procédure ».
Une accélération de la lutte contre la désinformation
En attendant de savoir comment ces deux circulaires contribueront à la mobilisation de l’autorité judiciaire dans la lutte contre les ingérences étrangères et les manipulations de l’information, VIGINUM a d’ores et déjà, ces trois derniers mois, accéléré le rythme et le volume de ses activités.
VIGINUM a ainsi publié en décembre un guide de sensibilisation à la menace informationnelle en contexte électoral, en prévision des élections municipales puis, en partenariat avec le CDSE (Cercle des directions de la sécurité des entreprises), un panorama de la menace informationnelle à destination des acteurs économiques français.
L’Assemblée nationale avait de son côté publié début décembre le rapport d’information d’une mission d’information consacrée à l’irruption de l’intelligence artificielle dans les ingérences étrangères, formulant une quinzaine de propositions.
Elles visent notamment à « renforcer les moyens humains, matériels et financiers de Viginum afin d’accompagner sa montée en puissance et l’extension de son champ d’activité », encourager un « financement vertueux de l’information par les entreprises privées et leurs pratiques publicitaires », et « encourager la conclusion de partenariats public-privé pour développer massivement les techniques de vérification de l’information »
Les rapporteurs proposent également d’ « imposer aux plateformes de réseaux sociaux d’étiqueter les contenus avec un score d’artificialité indiquant dans quelles proportions l’IA a été utilisée pour les générer » ou encore d’ « envisager une labellisation informationnelle selon un modèle de nutri‑score avec des critères objectifs et en sources ouvertes afin que chacun puisse vérifier l’impartialité du système ».
VIGINUM s’est aussi associé avec le Centre pour l’éducation aux médias et à l’information (CLEMI), rattaché au réseau Canopé pour développer un nouveau parcours de formation Magistère « Désinformation et ingérences numériques étrangères » à destination des enseignants souhaitant se former aux enjeux de lutte contre la manipulation de l’information et permettre aux élèves de développer leur esprit critique.
En janvier, l’École de journalisme de Sciences Po et VIGINUM ont par ailleurs créé un nouveau cours visant à mieux préparer les jeunes journalistes aux manipulations de l’information.
VIGINUM vient aussi de signer un « partenariat stratégique » en vue d’associer « l’expertise opérationnelle de VIGINUM à l’excellence scientifique d’Inria », et d’annoncer la création d’un Prix scientifique annuel VIGINUM-Inria, à l’échelle européenne, afin de « soutenir la recherche pour accélérer notre capacité collective à exploiter concrètement l’innovation, et en particulier l’IA, pour développer des outils opérationnels performants » au service de la lutte contre les manipulations de l’information.
VIGINUM a également partagé, sur LinkedIn, le jour de la publication de la stratégie nationale (qu’elle n’a pas, par contre, partagée), une revue de la littérature existante des principales mesures identifiées pour lutter contre les manipulations de l’information et sensibiliser les citoyens à ces enjeux, qu’elle avait commandée à la Direction interministérielle de la transformation publique (DITP) un an plus tôt.
Une consultation publique, lancée par le SGDSN sur make.org en décembre, vient de son côté de réunir 8 740 participants ayant déposé 691 propositions et 103 619 votes. Ses résultats indiquent notamment que la proposition la plus plébiscitée, recueillant jusqu’à 96 % des suffrages, vise à identifier et signaler les contenus générés par IA, « exiger leur traçabilité » via du watermarking et développer des outils de détection des contenus GenAI.
Près de 150 sites pro-russes usurpant la PQR ont été désactivés
Depuis fin janvier, VIGINUM publie également, chaque semaine, un bulletin de son réseau de coordination et de protection des élections (RCPE), composé d’administrations et d’autorités indépendantes compétentes en matière électorale. Il estime que « quatre stratégies d’ingérence numérique étrangère pourraient être mises en œuvre par des acteurs malveillants à l’occasion des élections municipales de 2026 » :
« Décrédibiliser la procédure électorale : aucune opération informationnelle servant cette stratégie n’a été caractérisée.
Alimenter la défiance vis-à-vis des médias du pays visé : bien que plusieurs noms de domaine, imitant des sites français d’information locale, soient désormais inactifs, cette campagne se poursuit. Huit noms de domaine supplémentaires ont ainsi été identifiés par VIGINUM, dont un enregistré le 5 février 2026
Exposer la réputation d’un candidat ou d’un parti politique : aucune opération informationnelle servant cette stratégie n’a été caractérisée.
Instrumentaliser certains thèmes afin de polariser le débat public numérique : aucune opération informationnelle servant cette stratégie n’a été caractérisée. »
Début février, il rapportait que depuis février 2024, les membres d’un réseau pro-russe lié au mode opératoire informationnel Storm-1516 avaient lancé une campagne « probablement destinée à se prépositionner dans l‘espace informationnel francophone » via l’enregistrement de plus d’une centaine de noms de domaines en « .fr » imitant des sites de presse locaux et alimentés par des articles de presse générés par des outils d’intelligence artificielle.
Nous avions rajouté un peu plus de ces 140 sites associés au réseau CopyCop de John Mark Dougan à la liste des sites signalés par notre extension GenAI, mais leurs noms de domaine ont récemment été désactivés, probablement par l’AFNIC.
Dans son bulletin n°3, en date du 13 février, VIGINUM relève toutefois que « bien que plusieurs de ces noms de domaine soient désormais inactifs, cette campagne se poursuit. Huit noms de domaine supplémentaires ont ainsi été identifiés par VIGINUM, dont un enregistré le 5 février 2026 ».
Alors que l’opposition monte, au sein du camp républicain, envers le soutien affiché de Donald Trump et ses équipes à l’industrie technologique, l’administration crée une task force face à laquelle l’essentiel des patrons du secteur devrait venir s’exprimer.
Après le ministère de l’efficacité gouvernementale (DOGE), la « Tech Force d’élite ». Le gouvernement américain recrute plusieurs dirigeants de l’industrie numérique pour entraîner un groupe d’agents de l’administration dont la mission consistera à moderniser les équipements numériques fédéraux.
Fin 2025, l’administration annonçait le recrutement d’un millier d’ingénieurs logiciel au sein d’un groupe de travail dédié. « Le président Trump a rendu évident que s’assurer du leadership américain en matière d’IA était le défi national essentiel de cette génération », indiquait-elle dans son communiqué.
Pour le relever, le programme des experts recrutés consistera à passer les deux prochaines années à déployer des outils d’IA et des applications technologiques variées au sein de l’administration, à commencer par le Trésor ou la NASA. Et ce, sous la gouvernance des principaux acteurs de l’industrie locale : Apple, Meta, Nvidia, OpenAI, xAI, Coinbase, ou encore Palantir.
Chaque entreprise a « promis d’envoyer soit son PDG, soit son directeur technique » pour s’exprimer devant la task force, déclare Scott Kupor au Financial Times. Ancien capital-risqueur auprès du fonds Andreessen Horowitz, ce dernier dirige désormais le bureau national du management et la Tech Force.
Relever les « défis les plus ambitieux de notre époque »
Le site officiel de cette « Tech force », disponible à l’adresse techforce.gov, annonce sur fond orange et noir que le projet consistera à « s’attaquer aux défis civils et militaires les plus complexes et les plus ambitieux de notre époque ».
Capture d’écran du site techforce.gov
Outre des présentations notamment réalisées par Alex Karp (Palantir) ou Sam Altman (OpenAI), Scott Kupor annonce que ces sociétés devraient rendre leurs dispositifs de formations et de certifications internes accessibles gratuitement aux membres de la task force.
Quant aux 1 000 premières recrues, elles devraient être encadrées par 100 employés des sociétés tech états-uniennes débauchés directement par le gouvernement. Plusieurs anciens du DOGE seront par ailleurs mobilisés.
Interrogé sur les risques de conflits d’intérêt, le directeur de la Task Force les balaie au motif qu’ils seraient dépassés par les gains envisageables pour le fonctionnement de l’administration états-unienne.
Opposition croissante du camp Trump à sa politique technologique
Cette réaffirmation de la proximité entre l’administration de Donald Trump et son industrie technologique se produit pourtant à un moment où son développement, en particulier celui de l’intelligence artificielle, est de plus en plus débattu au sein du camp républicain.
Alors que les élections de mi-mandat se profilent pour novembre 2026, une partie des effectifs républicains s’oppose de plus en plus ouvertement au soutien du président et de ses équipes au domaine. Selon un sondage mené pour le Financial Times, 60 % des électeurs de Trump s’inquiètent du développement rapide de l’intelligence artificielle, et 80 % pensent que le domaine devrait être plus régulé.
À l’approche des élections de mi-mandat, cela dit, l’industrie de l’IA et celle de la tech derrière elle ont déjà dépensé des millions de dollars pour soutenir des approches promouvant des régulations limitées. Comme en amont de l’élection présidentielle de 2024, ils financent notamment des super PAC (political action committe, comités d’action politique), comme Leading the Future ou Public First Action. À la tête des 50 États, cela dit, au moins 370 mesures relatives au développement de l’IA ont été déposées, dont plus d’un tiers l’ont été depuis des chambres à majorité républicaine.
IDMerit, entreprise californienne spécialisée dans les processus de vérification de l’identité du client, est accusée d’avoir laissé en accès libre un jeu de bases de données contenant les données personnelles d’environ un milliard de personnes, dont 52 millions de Français.
Peut-on encore parler d’intrusion dans un système informatique quand la porte d’entrée est laissée béante ? Une enquête de Cybernews, publiée le 18 février, affirme qu’une entreprise spécialisée dans les processus de vérification d’identité du client (ou KYC, pour know your customer) avait laissé en accès libre une instance MongoDB d’environ 1 To.
Cette dernière hébergeait plusieurs bases de données qui, dans leur ensemble, représentaient environ 3 milliards d’enregistrements. Dans le lot figuraient environ 2 milliards de lignes correspondant à des logs (un historique d’activité), et 1 milliard d’informations considérées comme des données personnelles.
1 milliard de données personnelles exposées
« Plusieurs bases de données semblaient contenir des données redondantes pour un même pays. Cependant, notre équipe estime que la plupart des enregistrements étaient uniques », affirme Cybernews. Au total, les informations couvriraient un échantillon significatif de la population de 26 pays différents, avec 52 millions d’enregistrements qui émaneraient d’internautes français.
26 pays seraient concernés par cet ensemble de bases de données – crédit Cybernews
Outre le volume, la nature des données exposées est également particulièrement problématique. Selon Cybernews, l’instance contenait en effet des informations personnelles détaillées, avec coordonnées complètes, date de naissance et pièces d’identité. Dans certains jeux de données apparaissaient aussi des métadonnées liées à la ligne téléphonique ou d’autres critères que les auteurs de la découverte n’explicitent pas tels que des « annotations de profil social ».
« À cette échelle, les risques en aval comprennent la prise de contrôle de comptes, le phishing ciblé, la fraude à la carte de crédit, l’échange de cartes SIM et les atteintes à la vie privée à long terme », alerte Cybernews. Le média souligne par ailleurs le caractère très structuré des différentes bases de données exposées, qui facilite selon lui une exploitation à l’échelle industrielle, notamment grâce à des outils d’IA.
Exposées, mais téléchargées ?
Cybernews affirme que ses chercheurs ont découvert l’instance en question le 11 novembre dernier. Ces derniers ont dans la foulée contacté l’entreprise IDMerit qui a immédiatement sécurisé l’accès aux fichiers concernés. Un temps trop tard ? « Bien qu’il n’existe actuellement aucune preuve d’utilisation malveillante, des robots d’exploration automatisés mis en place par des acteurs malveillants parcourent constamment le web à la recherche d’instances exposées, les téléchargeant presque instantanément dès leur apparition », redoute Cybernews.
L’hypothèse de pirates capables de littéralement scanner Internet à la recherche de bases de données accessibles est pour mémoire tout à fait sérieuse, a minima pour les adresses IPv4.
Inconnue du grand public, IDMerit est une entreprise californienne qui fournit des services de vérification d’identité à des banques, des émetteurs de services financiers, mais aussi des e-commerçants, des mutuelles, des assurances, des opérateurs téléphoniques ou des acteurs du jeu d’argent en ligne.
Tous ces secteurs ont en effet besoin, à des niveaux divers, de contrôler l’identité précise de la personne qui souscrit un service, notamment à des fins de conformité : une banque doit par exemple pouvoir justifier qu’elle connait ses clients (au sens vérification d’identité) dans le cadre des lois contre le blanchiment d’argent.
Les outils de vérification nécessaires sont généralement implémentés en marque blanche (le nom du prestataire n’apparait pas). À cette première brique très opérationnelle, IDMerit ajoute la promesse d’une capacité à enrichir les données, en croisant les différentes sources d’information à sa disposition, pour aider par exemple un établissement financier à déterminer le profil de risque du client qui cherche à souscrire un crédit.
« Nous intégrons des informations détaillées issues de sources de données officielles pour une analyse de données plus poussée. L’intégration de données démographiques telles que la situation géographique, le statut socio-économique, le sexe et l’âge nous permet d’améliorer considérablement notre capacité à identifier et à signaler les facteurs de risque et à optimiser la détection des fraudes », vante par exemple l’entreprise.
Ces intermédiaires, dont le métier consiste finalement à agréger un maximum de contexte autour de données personnelles, constituent de ce fait une cible de choix pour les pirates.
IDMerit n’a pas, à ce stade, commenté publiquement les informations révélées par Cybernews, et pourra peut-être se permettre de rester silencieuse si aucune action malveillante ne peut être rattachée aux informations issues de cette instance mal sécurisée.
Sumsub alerte sur une intrusion
Sumsub, un autre prestataire de KYC très utilisé par les plateformes spécialisés dans les cryptomonnaies (mais aussi par Duolingo) n’a pas eu cette chance. Début février, l’entreprise (basée à Londres) a communiqué au sujet d’une intrusion survenue dans son système en juillet 2024. L’incident a été découvert a posteriori, à l’occasion d’un audit de sécurité conduit en janvier dernier.
« D’après les informations actuellement disponibles, l’enquête de Sumsub indique qu’en juillet 2024, un acteur malveillant externe a soumis une pièce jointe malveillante via une plateforme de gestion de tickets d’assistance tierce, ce qui a permis un accès non autorisé limité à un environnement interne lié à l’assistance. », décrit Sumsub.
L’entreprise affirme que les données exposées consistaient principalement en une série de noms, mais elle indique aussi qu’une partie des enregistrements contenait des adresses email et des numéros de téléphone. Dans ce cas précis, aucune pièce d’identité, information biométrique ou information bancaire n’aurait été exposée ou compromise.
Sumsub comme IDMerit revendiquent sur leurs sites les certifications courantes de type ISO 27001 ou SOC2, ainsi qu’une totale conformité aux règlements européens ou états-uniens encadrant l’exploitation de données personnelles.
IDmerit vante la sécurité de ses services sur la page d’accueil de son site – capture d’écran
Google a signalé jeudi l’apparition de trois nouvelles fonctionnalités au sein de son navigateur Chrome.
La première consiste en une vue partagée (ou split view), c’est à dire la possibilité d’afficher côte à côte deux pages Web au sein d’un même onglet, sans qu’il soit nécessaire d’ouvrir une nouvelle instance du navigateur.
L’annonce de Google est récente, mais le déploiement de cette vue partagée a en réalité débuté en novembre dernier, d’abord dans le canal Canary dédié aux testeurs, puis sur une part progressive des utilisateurs de la version stable du logiciel.
Lorsqu’elle est activée, cette vue partagée fait apparaître un bouton contextuel à gauche de la barre d’adresse. Il permet de fermer l’une ou l’autre des vues, d’en inverser l’ordre d’affichage, ou de séparer les deux pages en onglets distincts.
Sur ce volet, Chrome se met simplement à niveau par rapport à la concurrence : la vue partagée vient aussi de faire son apparition chez Firefox, et des navigateurs comme Edge, Vivaldi, Opera ou Safari la proposent de longue date.
Chrome inaugure un mode split view
La visionneuse de PDF intégrée à Chrome évolue elle aussi : elle s’enrichit de possibilités d’annotation et de commentaires sans recours à un outil tiers. « Cette fonctionnalité est idéale pour apposer rapidement des signatures numériques, relire un rapport de travail, prendre des notes sur un programme de cours ou simplement surligner une section clé d’un document personnel », fait valoir Google qui, là aussi, rattrape la concurrence.
Dans la foulée, Google introduit une nouvelle option qui renforce l’intégration entre Chrome et son univers de services en ligne : la possibilité d’enregistrer le PDF ouvert ou annoté directement sur Google Drive, plutôt qu’uniquement en local sur la machine de l’utilisateur.
Auditionné devant un jury à Los Angeles dans l’affaire qui oppose, entre autres, Meta à une jeune femme reprochant la mise en place de mécanismes d’addiction sur les plateformes de réseaux sociaux, Mark Zuckerberg a du expliquer pourquoi, comme l’indiquait un document de 2018, son entreprise estimait qu’il y avait 4 millions d’utilisateurs d’Instagram de 10 à 12 ans. Il a défendu la mise à disposition de « filtres de beauté » sur Instagram comme une liberté d’expression des utilisateurs.
Une jeune femme de 20 ans, Kaley G. M., et sa mère accusent les géants des réseaux sociaux, et notamment Google (via YouTube) et Meta (via Facebook et surtout Instagram), de provoquer et d’entretenir l’addiction chez les jeunes.
Après Adam Mosseri, patron d’Instagram, c’était ce mercredi 18 février à Mark Zuckerberg de s’y rendre. Le patron de Meta est arrivé au tribunal encadré par plusieurs personnes portant des lunettes connectées de l’entreprise.
Comme l’explique le Los Angeles Times, la juge Carolyn B. Kuhl a estimé nécessaire de prendre un moment pour avertir la salle que l’usage de ces lunettes était interdit : « Si vos lunettes enregistrent, vous devez les retirer. La cour ordonne qu’il ne doit y avoir aucune reconnaissance faciale du jury. Si vous l’avez fait, vous devez supprimer l’enregistrement. C’est très sérieux. »
Un filtre des enfants peu efficace
Les débats se sont notamment concentrés sur la politique de Meta concernant la création de comptes de jeunes enfants. Comme le Los Angeles Times l’explique, Mark Zuckerberg a rappelé qu’Instagram n’a jamais autorisé, dans ses conditions d’utilisation, les enfants de moins de 13 ans à s’inscrire.
Mais la plaignante, Kaley G. M., affirme dans sa plainte avoir créé son compte à l’âge de 9 ans. « Je pense généralement qu’il existe un groupe de personnes, potentiellement assez important, qui mentent sur leur âge afin d’utiliser nos services », a affirmé Mark Zuckerberg, évoquant également « une autre question séparée et très importante concerne la mise en application, et celle-ci est très difficile ».
Le patron de Meta en a profité pour réaffirmer que, selon lui, c’était aux responsables des systèmes d’exploitation comme Apple et Google que devrait revenir la charge de contrôler l’âge des utilisateurs.
Cibler les préados pour attirer les ados
Mais ce n’est qu’en décembre 2019, a pointé l’avocat de Kaley, Mark Lanier, qu’Instagram a commencé à demander leurs dates de naissance aux nouveaux inscrits, relate CNN. Il a aussi montré à la cour un document interne à Meta qui évaluait en 2015, selon NPR, à 30 % les enfants de 10 à 12 ans aux États-Unis qui utilisaient Instagram.
« Je ne me souviens pas du contexte de cet e-mail datant d’il y a plus de dix ans », a répondu Mark Zuckerberg. « Je pense que nous devons créer des services utiles qui permettent aux gens de rester en contact avec leur famille et leurs amis et d’apprendre à connaître le monde », a-t-il ajouté.
Mark Lanier a cité un autre document interne à l’entreprise, datant cette fois de 2018, dans lequel était affirmé « si nous voulons vraiment gagner auprès des adolescents, nous devons les attirer dès leur préadolescence ».
La liberté d’expression pour défendre les filtres « beauté » d’Instagram
Le patron de Meta a aussi été interrogé sur la volonté de son entreprise de pousser ses utilisateurs à utiliser toujours plus ses réseaux sociaux. L’avocat de la plaignante lui a demandé si son entreprise avait mis en place des buts à atteindre pour maximiser le temps d’exposition des utilisateurs, relate CNN.
Mark Zuckerberg a reconnu que ces buts avaient existé « plus tôt dans l’entreprise » mais qu’ils avaient été modifié pour se focaliser sur l’« utilité et la valeur apportée ». « Je pars du principe que si quelque chose a de la valeur, les gens le feront davantage », a-t-il ajouté.
Mark Lanier a aussi pointé le problème des filtres de beauté sur Instagram, qui permettent de modifier l’apparence du visage en y ajoutant du faux maquillage et des fausses modifications chirurgicales. Selon lui, Instagram a consulté 18 experts qui lui ont fait remarquer que ces filtres pouvaient être nuisibles. L’entreprise a décidé de laisser aux utilisateurs la possibilité de les créer tout en ne les mettant pas en avant.
« Je pensais que l’équilibre de la liberté d’expression devait permettre aux gens de créer ces filtres, mais que nous ne devions pas les créer nous-mêmes », a répondu Mark Zuckerberg, ajoutant que l’entreprise avait consulté des experts sur la liberté d’expression à ce sujet.
Les médias sociaux devront vérifier que les contenus synthétiques soient labellisés comme tels, empêcher le partage des deepnudes et deepfakes interdits, et retirer les contenus illicites sous trois voire deux heures.
L’adage « je crois ce que je vois » est périmé du fait de l’avènement des deepfakes, qui « constituent une menace importante pour la vie privée des individus et la société dans son ensemble », avance le Deepfake Prevention and Criminalisation Act.
Cette loi indienne vise à prévenir et à criminaliser la création, la diffusion et l’utilisation de contenus synthétiques générés par IA sans consentement ou sans filigrane numérique. D’après TechCrunch, les plateformes pourront se voir ordonner de les retirer dans un délai de trois heures, voire de deux heures seulement dans certains cas. Auparavant, ce délai pouvait monter à trois jours, précise Libération.
Les plateformes et médias sociaux permettant à leurs utilisateurs de partager du contenu audiovisuel devront aussi exiger qu’ils précisent s’ils ont été générés par IA, mais également déployer des outils pour vérifier ces déclarations, veiller à ce que les deepfakes soient clairement identifiés et accompagnés de données de provenance traçables, et empêcher le partage de contenus synthétiques interdits (notamment les usurpations d’identité, images intimes non consenties et contenus liés à des crimes graves).
Les plateformes seront tenues de déployer des « mesures techniques raisonnables et appropriées » pour empêcher leurs utilisateurs de créer ou de partager des contenus audio et vidéo illégaux générés de manière synthétique, précise The Verge.
Les contenus générés par IA qui ne seront pas bloqués devront quant à eux intégrer des « métadonnées permanentes ou d’autres mécanismes techniques appropriés permettant d’en déterminer la provenance », et les doter de marquages visibles et/ou audibles pour permettre aux utilisateurs d’identifier immédiatement qu’il s’agit de contenus synthétiques.
Le « retard considérable » des systèmes de détection et d’étiquetage de l’IA
L’Inde compte un milliard d’internautes, principalement des jeunes, ce qui en fait l’un des marchés les plus importants pour les plateformes sociales, souligne The Verge, pour qui « toute obligation imposée dans ce pays pourrait avoir un impact sur les efforts de modération des deepfakes à travers le monde, soit en améliorant la détection jusqu’à ce qu’elle soit réellement efficace, soit en obligeant les entreprises technologiques à reconnaître la nécessité de trouver de nouvelles solutions ».
Sauf que c’est plus facile à dire qu’à faire, eu égard au « retard considérable » des systèmes de détection et d’étiquetage de l’IA à l’heure actuelle. La Coalition for Content Provenance and Authenticity (C2PA), de la Content Authenticity Initiative (CAI), lancée en 2021 par Arm, la BBC, Intel, Microsoft et Adobe, insère ainsi des métadonnées détaillées dans les images, vidéos et fichiers audio au moment de leur création ou de leur modification, afin de décrire de manière invisible comment ils ont été créés ou modifiés.
Mais si Facebook, Instagram, YouTube et LinkedIn ajoutent des étiquettes aux contenus signalés par le système C2PA, « il est clair que cela ne fonctionne pas », assène The Verge, pour qui « ces étiquettes sont difficiles à repérer, et certains contenus synthétiques qui devraient comporter ces métadonnées passent entre les mailles du filet ».
De plus, les plateformes de médias sociaux ne peuvent pas étiqueter correctement les contenus produits par des tiers, tels que les modèles d’IA open source ou les applications dites « nudify » qui refusent d’adopter la norme volontaire C2PA.
Il sera impossible pour les plateformes de respecter cette nouvelle loi
The Verge souligne également que « l’interopérabilité est l’un des principaux enjeux de la norme C2PA », mais bien que les nouvelles règles indiennes puissent encourager son adoption, « elles sont si faciles à supprimer que certaines plateformes en ligne peuvent involontairement les effacer lors du téléchargement de fichiers ».
Étant donné que les amendements précisent les mécanismes de traçabilité qui doivent être mis en œuvre « dans la mesure où cela est techniquement possible », les responsables à l’origine de la décision indienne sont probablement conscients que les technologies actuelles de détection et d’étiquetage par IA ne sont pas encore au point, conclut The Verge : « Les organisations qui soutiennent la C2PA affirment depuis longtemps que le système fonctionnera si suffisamment de personnes l’utilisent. C’est donc l’occasion de le prouver ».
Interrogé par Libé, Pratik Sinha, cofondateur du média spécialisé dans le fact-checking Alt News, avance qu’il sera « impossible pour les plateformes de respecter cette nouvelle loi. Nous sommes le pays le plus peuplé au monde et chaque jour, des milliards de posts sont générés ». Il s’interroge aussi sur les risques de censure politique :
« Qui détermine si un post-généré par IA est illégal ou non ? Normalement, en Inde, cela devrait relever d’une décision de justice, mais dans les faits, c’est la police qui s’en occupe. Cette loi a été votée pour faciliter la suppression des contenus qui critiquent le gouvernement, alors que les militants proches du pouvoir peuvent poster des fausses informations sans être inquiétés. »
Google semble préférer que vous utilisiez Google Maps en étant connecté à votre compte. Depuis quelques jours, le service propose en effet un « affichage limité » aux internautes anonymes, qui se trouvent ainsi privés des photos d’autres utilisateurs ou des avis laissés sur le lieu recherché.
La restriction ne semble pas en place chez tout le monde, mais il est assez facile de vérifier si vous êtes concerné : ouvrez un nouvel onglet de votre butineur favori en navigation privée, rendez-vous sur Google Maps et entrez l’adresse ou le nom d’un lieu qui vous est familier. Dans ce mode déconnecté (au sens non connecté à votre compte Google), vous risquez fort de disposer d’un « affichage limité de Google Maps », comme l’indique très clairement l’interface de l’outil de cartographie.
Des infos « sociales » en moins
Cette petite mention apparait en bas de la colonne qui réunit habituellement les informations relatives au lieu recherché. Comme nous avons pu le vérifier nous-même sur quelques recherches portant sur des lieux français de notoriété publique, Google Maps affiche toujours l’adresse, les horaires ou les informations de contact, mais toute la dimension sociale (avis laissés par d’autres internautes et galerie de photos) disparait. Dans le cas d’un célèbre musée, l’indicateur de l’affluence en fonction de l’heure ou les liens directs vers des services de billetterie en ligne manquent également à l’appel.
À gauche, Maps en navigation privée (le panneau d’aide n’est pas ouvert par défaut), à droite la même recherche en surfant connecté à un compte Google – captures d’écran Next
Partagée par quelques internautes sur Reddit et relayée dans la presse tech anglophone, la découverte fait s’interroger les commentateurs : Google aurait-il sciemment décidé de brider les utilisateurs non connectés pour mieux alimenter ses outils de collecte de données ? Neowin remarque que ce changement intervient quelques jours seulement après que Google a introduit des interactions avec Gemini, son chatbot d’IA générative, au sein de Maps.
Collecte de données ou lutte contre le scraping ?
D’après nos rapides tests conduits jeudi, l’utilisation d’extensions dédiés au blocage des publicités ou à la limitation du partage d’informations liées à la navigation n’a pas d’impact sur l’affichage. En mode déconnecté, le fait d’accepter ou de refuser les cookies lors de la connexion au service ne modifie pas non plus ce comportement.
Le lien « En savoir plus » prodigué par Google ne donne aucune explication précise quant à ce phénomène : il ouvre un panneau d’aide générique, qui recense quelques facteurs possibles de restrictions au niveau de l’affichage, et invite lui aussi à se connecter à son compte.
Ce panneau comporte toutefois une allusion au scraping de données, c’est-à-dire la collecte à grande échelle et de façon automatisée des informations disponibles sur les fiches. « Le scraping non autorisé de données peut avoir un impact négatif sur les performances et la disponibilité des services Google pour les autres utilisateurs. », y indique Google.
Le moteur de recherche n’a pour l’instant pas commenté ouvertement ce nouveau comportement. Il semble par ailleurs n’intervenir que chez certains internautes, ce qui pourrait laisser imaginer une phase de test (logique de test A/B).
Alors que la Commission européenne et plusieurs pays de l’UE ouvrent des enquêtes sur les manquements des différents réseaux sociaux et notamment X aux législations européennes, l’administration Trump met en place freedom.gov, un site qui doit permettre de consulter les contenus interdits en Europe, y compris les discours de haine et la propagande terroriste.
Utilisant le vocabulaire de la liberté sur lequel Donald Trump a surfé lors de sa campagne électorale de 2024, son administration prévoit de lancer le site Freedom.gov pour viser le public européen. Le nom de domaine a été créé le 12 janvier.
N’affichant pour l’instant qu’une page statique avec des petits effets suggérant le dévoilement de la liberté, il doit être l’un des premiers outils concrets de l’offensive trumpiste contre la régulation numérique européenne.
Un projet mené par la diplomatie américaine
Reuters a eu vent du projet mené par Sarah B. Rogers, la responsable du sous-secrétaire d’État à la diplomatie publique et aux affaires publiques étatsunien. Le site doit prochainement accueillir un portail qui permettrait aux personnes résidant en Europe mais aussi ailleurs de voir les contenus interdits dans leurs pays, y compris les discours de haine et la propagande terroriste qu’interdisent les différentes législations européennes.
Selon les sources de l’agence de presse, l’administration Trump présente cette initiative comme une contre-mesure contre la censure. Le projet aurait dû être lancé la semaine dernière alors qu’avait lieu la Conférence sur la sécurité de Munich.
Ce forum est régulièrement utilisé comme un théâtre des tensions diplomatiques : discussions sur le parapluie nucléaire français, remise en question de la guerre en Irak ou, plus récemment, en 2025, le discours de JD Vance. Dans celui-ci, le vice-président étatusien dénonçait un « recul » de la liberté d’expression en Europe, reprenant les arguments d’Elon Musk qui avait défendu le parti d’extrême-droite Alternative für Deutschland.
Finalement, l’administration Trump, représentée cette fois par Marco Rubio, a voulu montrer un visage rassurant à l’Europe, tout en gardant le même cap. Et le lancement du projet Freedom.gov aurait été repoussé sans qu’on en connaisse la raison, selon les sources de Reuters, mais des responsables du secrétariat d’État auraient exprimé des doutes sur le projet.
Du flou sur le service qui sera réellement proposé
Officiellement, le secrétariat d’État n’admet aucun retard ni aucun doute juridique sur le sujet. Il rejette tout projet de contournement de censure visant spécifiquement l’Europe tout en affirmant que « la liberté numérique est toutefois une priorité pour le Département d’État, ce qui inclut la prolifération des technologies de protection de la vie privée et de contournement de la censure, telles que les VPN ».
L’agence de presse ne détaille pas la façon dont Freedom.gov permettrait ce contournement. Si le terme VPN est utilisé, ce n’est pas un outil utilisable directement via un site web. On imagine plutôt un service comme les sites de « proxy » qui reroutent les requêtes via l’intégration des pages dans les pages principales du site.
Une confrontation d’approches ancienne, poussée sur le terrain par Donald Trump
Les approches étatsunienne et européenne sur la liberté d’expression divergent depuis des décennies. Ainsi, le linguiste américain Noam Chomsky et l’historien français Pierre Vidal-Naquet se sont affrontés au début des années 80 sur la question de la possibilité ou non de laisser diffuser la propagande négationniste en démocratie.
Mais l’administration Trump veut maintenant imposer sa propre définition au Vieux continent alors que la Commission européenne mais aussi des États comme la France, l’Espagne ou le Royaume-Uni ont lancé des enquêtes judiciaires notamment contre le réseau social X et son IA Grok. Rappelons que l’année dernière, le dirigeant états-unien a imposé aux agences de son pays la censure, sur leurs sites web, d’au moins 200 mots, dont injustice, femmes, victimes, noir ou encore pollution.
À l’occasion d’une visite de quatre jours en Inde et du sommet mondial de l’IA qui s’y déroule, Emmanuel Macron s’est emporté contre cette « soi-disant liberté d’expression », relate Ouest-France. « Nous sommes en faveur de l’algorithme libre mais totalement transparent », a-t-il affirmé. « La liberté d’expression c’est du pur bullshit si personne ne sait comment on est guidé à travers cette soi-disant liberté d’expression », a ajouté le président français, qui continue à n’utiliser essentiellement que X lorsqu’il s’agit de communiquer sur un réseau social.
La « Stratégie nationale de lutte contre les manipulations de l’information 2026 - 2030 » comporte de nombreuses mesures opérationnelles nationales et internationales visant, non seulement à former l’ensemble des Français à la lutte contre les manipulations de l’information (LMI), mais également à structurer l’écosystème OSINT et à en exporter les méthodologies et moyens à l’international.
Elle compte également améliorer la détection précoce des manipulations et ingérences, ainsi que les réponses à vocation dissuasive, qu’elles relèvent de la communication (à l’image du compte @frenchresponse) ou se déclinent en modes diplomatiques, judiciaires, économiques, techniques voire militaires. Elle vise aussi à structurer une filière souveraine, innovante et résiliente de l’OSINT, objectif qualifié d’« enjeu stratégique majeur ».
La stratégie comporte enfin tout un volet international, afin de favoriser l’émergence d’une communauté européenne de la LMI, de permettre l’envoi de missions d’appui technique, sorte de « casques bleus » de la lutte contre la désinformation et, au-delà, de faire de l’Europe un « exportateur de stabilité informationnelle ».
Pour rappel, le premier pilier de la nouvelle stratégie vise à « mobiliser la Nation pour renforcer la résilience », et le second à « réguler les plateformes en ligne et les services d’intelligence artificielle ».
Le 3ᵉ des 4 piliers compte entend quant à lui « structurer une réponse opérationnelle » face aux manipulations de l’information, en « articulant les dimensions techniques, juridiques, diplomatiques et industrielles », « en consolidant les capacités opérationnelles de détection, de caractérisation, d’imputation et de réponse et en renforçant l’écosystème technologique national ».
« La première condition d’efficacité est la détection précoce partagée », poursuit le SGDSN. Or, « le tempo opérationnel de la LMI en fait un exercice de gestion de crise permanent exigeant des échanges techniques quasiment continus » pour traiter la menace, nécessitant « un système d’alerte et de réponse fiable et réactif ».
C’est l’objectif poursuivi par son 9ᵉ objectif stratégique (OS9), qui veut renforcer les capacités de veille, de détection et de caractérisation des ingérences numériques étrangères, « de façon continue, mutualisée et distribuée, pour détecter précocement les campagnes hostiles et en qualifier rigoureusement la portée, les mécanismes et les auteurs ».
Au niveau national, le « cœur opérationnel » de la caractérisation des ingérences numériques étrangères est incarné par le comité opérationnel de lutte contre les manipulations de l’information (COLMI), l’instance de coordination interministérielle animée par VIGINUM : « Pour répondre au rythme imposé par les adversaires, cette structure évoluera vers une configuration plus permanente, réunissant de manière périodique l’ensemble des parties prenantes techniques et stratégiques concernées ».
Des « partenariats structurés » avec le monde académique, les plateformes, les laboratoires publics et privés viendront également « enrichir une capacité d’anticipation stratégique et d’analyse distribuée qui reposera sur une diversité de méthodes croisées » allant de l’exploitation en sources ouvertes (OSINT) au « traitement algorithmique de données massives » en passant par de la « modélisation des dynamiques de propagation ».
Le réseau diplomatique, notamment grâce à ses postes à l’étranger, « apportera un appui décisif à cette stratégie, en assurant une veille contextuelle renforcée dans les zones les plus vulnérables ». La montée en puissance du dispositif de veille du ministère de l’Europe et des Affaires étrangères (MEAE) permettra en parallèle de « mieux détecter les campagnes d’influence et de communication stratégique d’acteurs étrangers ».
« Mais détecter ne suffit pas », poursuit le SGDSN, « encore faut-il pouvoir répondre ». L’OS10 devra ainsi structurer une doctrine interministérielle de réponse aux opérations d’ingérences numériques étrangères, « et plus largement des manipulations de l’information d’origine étrangère », « dans le respect du droit et des orientations politiques validées », « avec des effets dissuasifs ou correctifs clairement identifiés ».
Placée sous l’autorité du SGDSN et du MEAE, une instance de coordination interministérielle spécifique proposera, en fonction de chaque situation, des stratégies combinant différents leviers, « activés de manière graduée ou simultanée, selon différentes temporalités » :
« communicationnels : actions de rétablissement des faits, mobilisation des relais d’opinion et des partenaires de confiance, publication régulière de bulletins d’information sur les ingérences numériques étrangères ;
diplomatiques : condamnations publiques, actions de rétorsion, canaux de désescalade, mesures de confiance ;
judiciaires : ouverture de procédures contre les auteurs ou leurs relais ;
économiques : activation de régimes de sanctions nationaux ou européens ;
militaires : mobilisation en appui de l’action des autres administrations ou mise en œuvre des leviers d’actions militaires selon le cadre et la chaîne de commandement des opérations ;
techniques : entrave de capacités techniques adverses, diffusion ciblée d’éléments d’analyse ou d’alerte. »
« C’est dans ce cadre par exemple que s’inscrivent les formes nouvelles de ripostes immédiates sur les réseaux sociaux tel que le compte French Response mis en place et piloté par le MEAE », souligne le SGDSN.
Viser directement les acteurs humains ou techniques de campagnes hostiles
Pour garantir son efficacité, cette réponse interministérielle « suppose un continuum cohérent entre les actions administratives, diplomatiques, techniques et judiciaires », qui fera l’objet d’un « plan d’action pour les parquets et une meilleure coopération internationale » (OS11) « permettant de viser directement les acteurs humains ou techniques de campagnes hostiles ».
« Nonobstant la mise en œuvre rapide, dans un cadre administratif, de mesures de retrait, de blocage ou de déréférencement », la France poursuivra l’opérationnalisation du référé dit « anti-fake news » pour en élargir le champ d’application aux scrutins locaux, notamment municipaux. « Dans cette boite à outils, les circonstances aggravantes prévues pour les ingérences étrangères pourront être mobilisées », souligne le SGDSN, de sorte que la diffusion de fausses nouvelles ou de manœuvres frauduleuses altérant la sincérité d’un scrutin puisse être « sanctionnée de manière plus forte ».
Le SGDSN évoque également deux récentes circulaires du garde des Sceaux relatives à la mobilisation de l’autorité judiciaire dans la lutte contre les ingérences étrangères et les manipulations de l’information, que nous détaillerons dans un article dédié.
Structurer l’écosystème OSINT, un « enjeu stratégique majeur »
Enfin, pour consolider dans la durée les capacités d’analyse, l’OS12 entend soutenir l’émergence d’une filière souveraine française d’outils, de services et de compétences dédiés à l’investigation en sources ouvertes (OSINT), qualifiée de « levier essentiel, encore largement structuré par des communautés intéressées, militantes, journalistiques ou académiques agissant hors cadre institutionnel ».
Le SGDSN précise que la France dispose de capacités OSINT opérationnelles, « notamment dans des environnements spécialisés, qu’ils soient institutionnels, académiques ou privés » et que « plusieurs acteurs nationaux développent des outils et services prometteurs, illustrant le potentiel et la vitalité de l’écosystème national », mais que « toutefois, ces initiatives restent trop dispersées et insuffisamment coordonnées à l’échelle nationale » :
« Leur potentiel reste limité par un faible niveau de mutualisation et l’absence d’un cadre structurant, favorable à l’industrialisation, à la souveraineté technologique et à l’interopérabilité. Structurer cet écosystème constitue désormais un enjeu stratégique majeur. »
Si le tissu industriel français « compte d’ores et déjà plusieurs entreprises proposant des solutions OSINT de qualité, innovantes et compétitives », ce vivier d’acteurs, « encore en phase de consolidation, mérite d’être pleinement soutenu pour atteindre un niveau de maturité industrielle et répondre aux besoins croissants des institutions et de la société civile ».
L’État entend dès lors « structurer une filière souveraine, innovante et résiliente de l’OSINT, capable de répondre aux besoins croissants des institutions publiques, des chercheurs, des journalistes et de la société civile » :
« Un dialogue structuré entre l’État et l’écosystème permettra d’identifier les priorités, d’orienter les investissements stratégiques, et de favoriser la mutualisation des approches entre acteurs institutionnels et civils. Les dispositifs existants (France 2030, Bpifrance, commande publique) seront mobilisés pour accompagner durablement les entreprises du domaine. »
« Sans remettre en cause leur indépendance ni leur diversité d’organisation », la stratégie nationale vise aussi à « mieux identifier » la communauté d’analystes OSINT de la société civile et à « faciliter, lorsque cela est pertinent, leurs interactions avec les acteurs publics et académiques ».
À cette fin, pourront également être étudiés « différents leviers d’appui proportionnés et non contraignants, tels que des dispositifs légers de soutien à des travaux ou projets ciblés dans le cadre du plan France 2030 ».
Le « bouclier européen de la démocratie » et l’Agence suédoise de défense psychologique
Le 4e et dernier pilier vise quant à lui à « Assurer, avec nos alliés, l’existence d’un espace informationnel libre, ouvert et sécurisé ». Le SGDSN précise que « la France entend jouer un rôle moteur pour promouvoir le droit, la transparence et la souveraineté des sociétés ouvertes et démocratiques », et qu’elle s’appuiera pour cela « sur ses alliances, ses partenariats et son savoir-faire reconnu, pour structurer une diplomatie de la résilience informationnelle autour de quatre chantiers complémentaires ».
L’OS13 cherchera ainsi à structurer et « construire une approche fédérative des services de détection au sein de l’Union européenne afin de disposer d’un réseau fonctionnel », afin de « protéger la stabilité institutionnelle, l’intégrité des processus électoraux et la confiance dans le débat public ».
« Dans le cadre du bouclier démocratique européen porté par l’Union européenne, la France est en faveur de l’émergence d’une communauté européenne de la LMI », écrit le SGDSN. Objectifs : diffuser les bonnes pratiques opérationnelles de détection, accompagner les pays souhaitant monter en puissance ou mettre en œuvre des services gouvernementaux opérationnels dédiés, et développer l’interopérabilité entre les États membres, les institutions européennes et la société civile :
« Dans ce cadre, la France bénéficie d’une légitimité particulière. Son dispositif de lutte contre les manipulations de l’information dans l’espace numérique constitue une référence européenne. Ce modèle permet à la France de jouer un rôle moteur dans la construction d’une capacité partagée entre États membres. »
Présenté par la Commission européenne en novembre 2025, le « bouclier européen de la démocratie », qui « repose sur une double logique de résilience interne et d’influence externe », précise le SGDSN, et vise lui aussi à protéger l’UE des ingérences et manipulations étrangères en ligne.
Il prévoit le lancement d’un Centre européen pour la résilience démocratique, qui vise à réunir l’expertise et les capacités des États membres et des pays voisins, et qui s’appuiera sur les exemples de Viginum ou de l’Agence suédoise de défense psychologique, créée en 2022 pour contrecarrer « les influences inappropriées » et « informations erronées », et « sauvegarder une société ouverte et démocratique, la liberté d’opinion et l’indépendance et la liberté en Suède ».
Faire de l’Europe un « exportateur de stabilité informationnelle »
« Dans les régions où la démocratie est fragile, les campagnes de manipulation peuvent avoir un effet déstabilisateur majeur », avance par ailleurs le SGDSN. L’OS14 entend donc « définir une stratégie internationale de renforcement des capacités d’action de nos partenaires », cibler les efforts de renforcement sur les États et zones les plus vulnérables, en fonction des échéances démocratiques sensibles (élections, référendums, débats législatifs ou sociaux majeurs, etc.) et des contextes géopolitiques critiques :
« Ces séquences sensibles deviennent des cibles privilégiées pour des puissances étrangères hostiles, qui y voient des opportunités de polarisation, de déstabilisation, de renforcement de la confusion voire du chaos et in fine de perte de confiance dans les institutions. »
Le SGDSN évoque également la création de « missions d’appui technique », mobilisant des expertises françaises et européennes, pouvant être déployées rapidement à l’invitation d’un État, avant ou pendant une échéance électorale.
« En intégrant cette action dans le cadre européen, la France entend faire de l’Union un pôle de projection de stabilité démocratique » et de l’Europe un « exportateur de stabilité informationnelle », dans une logique de réponse conjointe aux menaces, résume le SGDSN :
« Cet effort s’inscrira dans la continuité des partenariats déjà engagés par la France dans des zones de tension informationnelle ou démocratique, notamment dans les Balkans ou en Europe de l’Est et plus largement le voisinage de l’Union européenne. »
Faire de la France une voix structurante dans les enceintes multilatérales
« Par définition, les campagnes d’ingérences numériques étrangères impliquent des dynamiques internationales, visent des opinions publiques fragmentées, et s’appuient sur des vecteurs transnationaux », relève le SGDSN. Dans ce contexte, les enceintes multilatérales « constituent un levier stratégique essentiel pour faire émerger des normes communes, favoriser la coordination des réponses et porter une vision démocratique de l’espace informationnel mondial ».
L’OS15 cherche dès lors à « prioriser l’engagement de la France » et « coordonner la réponse démocratique » afin de « faire de la France une voix structurante dans les enceintes multilatérales pour inscrire la LMI dans une vision partagée, fondée sur l’État de droit, la transparence et la résilience démocratique », et « mobiliser pleinement les cercles européens, transatlantiques et onusiens ».
Se disant « consciente des difficultés et divisions des enceintes multilatérales internationales », la France « s’opposera à toute tentative de captation du discours multilatéral par des États autoritaires visant à légitimer la censure ou le contrôle total de l’espace numérique » à l’ONU. Elle encouragera, a contrario, « une reconnaissance des normes démocratiques d’intervention : proportionnalité, redevabilité, droit à l’information, transparence ».
Elle y défendra une approche fondée sur la « souveraineté informationnelle », notamment dans le cadre du Global Digital Compact et dans les travaux conduits au sein de l’UNESCO. Ce « Pacte numérique mondial », négocié par 193 États membres depuis 2024, « engage les gouvernements […] à prendre des mesures concrètes pour rendre l’espace numérique sûr et sécurisé ».
Il entend notamment « promouvoir et faciliter l’accès à une information indépendante, factuelle et opportune afin de contrer la désinformation et la mésinformation », « renforcer la gouvernance internationale des données et assurer une gouvernance de l’IA au service de l’humanité ».
La France soutiendra également l’intégration des manipulations informationnelles au sein de la doctrine de l’OTAN, les efforts du Centre d’excellence StratCom basé à Riga, en Lettonie, « tout en promouvant une approche plus offensive dans l’attribution publique et la réponse coordonnée aux campagnes de manipulation menées contre les Alliés ».
« Par cette stratégie multilatérale, la France entend articuler ses intérêts nationaux et ses principes démocratiques fondamentaux, en contribuant à l’émergence d’un cadre international fondé sur l’intégrité du débat public, la transparence algorithmique, la souveraineté informationnelle des peuples, la transparence et la sécurité partagée », conclut le SGDSN.
Dans un quatrième article, nous reviendrons sur les deux récentes circulaires du garde des Sceaux relatives à la mobilisation de l’autorité judiciaire dans la lutte contre les ingérences étrangères et les manipulations de l’information, ainsi que les nombreuses initiatives initiées par ou avec VIGINUM ces derniers mois.
Les F-35 se débrident-ils comme un simple iPhone ? C’est ce qu’a suggéré le ministre néerlandais de la Défense, illustrant en creux les difficultés des pays de l’OTAN à s’autonomiser de leur allié historique que sont les États-Unis.
« Comme un iPhone, vous pouvez tout à fait jailbreaker un F-35 », a affirmé le ministre néerlandais de la Défense Gijs Tuinman à la radio locale BNR Nieuwsradio.
Hacker des avions, embaucher des forces supplémentaires : alors que les États-Unis se font toujours plus belliqueux, ses alliés historiques s’interrogent sur les meilleures manières de réduire leur dépendance au complexe militaro-industriel de l’Oncle Sam. Le Canada prévoit ainsi d’augmenter nettement ses dépenses militaires domestiques, tandis que le Royaume-Uni se cherche une voie du milieu.
Hacker des avions comme on hackerait des tracteurs ?
Aux Pays-Bas, donc, un ministre suggère que cela puisse passer par le hack des systèmes intégrés aux F-35, les avions militaires de Lockheed Martin créés grâce aux financements des États-Unis et d’une dizaine de pays de l’OTAN.
Aussi floue soit l’affirmation – Gijs Tuinman n’a fourni aucune indication concrète de la manière dont les armées pourraient s’y prendre –, l’affirmation illustre une problématique présente dans le domaine militaire comme dans le domaine civil : en se reposant pendant des décennies sur les équipements créés par les sociétés états-uniennes, ses alliés se sont laissés enfermer dans certains de leurs environnements technologiques.
L’impossibilité d’opérer des modifications logicielles sur l’appareil et au sol sans passer par l’armée américaine et Lockheed Martin rappelle les blocages subis par les agriculteurs dépendants du constructeur John Deere pour modifier ou réparer leurs tracteurs. Elle agite par ailleurs des inquiétudes au sujet d’un potentiel « kill switch » dans les avions américains : pour filer la métaphore agricole, des tracteurs ukrainiens construits par John Deere et volés par les Russes en 2022 ont pu être verrouillés, donc rendus inutilisables, à distance.
À l’heure actuelle, le Royaume-Uni, la Belgique, le Danemark, l’Italie, la Finlande, la Norvège, les Pays-Bas et la Pologne sont déjà équipés de F-35. Si quelques-uns ont isolé certaines de leurs activités derrière des pare-feu, les seuls à avoir accès au code source sont le Royaume-Uni et Israël. Ce dernier est par ailleurs le seul à pouvoir installer ses propres logiciels sur les F-35I (une version du F35 spécifiquement équipée d’armes israéliennes), selon Opex360. Pour les autres, un potentiel jailbreak risquerait surtout de tendre un peu plus les relations diplomatiques avec le pays fournisseur des avions, sans parler des risques de dysfonctionnements que cela pourrait entraîner.
Indépendantisation relative des équipements US
Pour éviter la reproduction de ce type de problématiques, nombreux sont les États qui travaillent à prendre une plus grande indépendance de leur allié traditionnel. Au plus près des États-Unis, le Canada prévoit ainsi d’augmenter ses dépenses militaires à 5 % de son PIB et de créer 125 000 nouveaux emplois au fil de la prochaine décennie pour se défaire de ses liens aux fabricants d’armes américains.
Le but : dépenser 70 % des dépenses de défense à des sociétés canadiennes, contre environ 50 % actuellement, et construire « un nouveau partenariat ambitieux et complet avec l’Union européenne et le Royaume-Uni », selon son document stratégique. Le Canada cherchera aussi des partenaires dans la zone indo-pacifique, dont l’Australie, la Nouvelle-Zélande, le Japon et la Corée du Sud.
Concrètement, l’État est en train d’examiner des contrats de 2023 pour lui fournir 88 F-35. Il cherche par ailleurs à faire l’acquisition de 12 sous-marins adaptés aux conditions arctiques, projet pour lequel des propositions allemandes et sud-coréennes doivent être soumises d’ici le mois prochain.
Auprès du Financial Times, le gérant du seul fonds canadien de capital-risque, ONE9, souligne qu’une logique « buy Canadian » fonctionnera mieux « lorsque nous aurons développé des sociétés mûres dans lesquelles investir », une perspective pour laquelle il faut « à la fois des capitaux patients et un premier client crédible ».
Au Royaume-Uni, allié traditionnel des États-Unis, la question de l’indépendance se pose depuis plusieurs mois. Société britannique, BAE Systems travaille depuis plusieurs mois à créer explosifs et combustibles de manière indépendante, notamment pour se conformer aux nouvelles obligations du ministère de la Défense.
Historiquement, le plus gros fournisseur militaire en Europe reposait en effet largement sur les États-Unis et la France. Fin 2025, les résultats de l’entreprise ont augmenté de 10 % par rapport à l’année précédente, portés par un record de 83,6 milliards de livres sterling (95,62 milliards d’euros) de commandes à honorer.
Malgré ces travaux, et des discussions autour d’une alliance canado-britannique pour financer des sociétés de défense, le Royaume-Uni acceptait en ce début février d’acheter pour 150 millions de livres d’armes américaines pour continuer de fournir l’Ukraine.
Le ministre de la Défense néerlandais a de son côté admis que les F-35, aussi dépendants des décisions américaines soient-ils, restaient« un meilleur avion que bien d’autres chasseurs ». Autant d’éléments qui soulignent les complexités de la création de stratégies financières et technologiques de défense plus autonomes vis-à-vis des États-Unis.
Plus de trente mémoriaux allemands ont alerté sur la prolifération d’« IA slop », ces fausses images générées par IA, représentant des victimes fictives de l’Holocauste. Next s’entretient avec Andrew Hoskins, spécialiste des liens entre mémoire, guerre et technologies.
Depuis l’été 2025, des fermes à contenu inondent les réseaux sociaux d’images générées par IA (ou slop) prétendant illustrer la Shoah. Le 13 janvier dernier, les sites mémoriaux de Bergen-Belsen, Buchenwald, Dachau et des dizaines d’autres institutions ont publié une lettre ouverte dénonçant un phénomène « en expansion » qui « déforme l’histoire par la trivialisation et la kitschification ».
Titulaire de la chaire en IA, mémoire et guerre à l’université d’Édimbourg, Andrew Hoskins étudie l’irruption de l’IA générative dans notre rapport au passé. Son article « Intelligence artificielle, une nouvelle réalité pour la mémoire », vient de paraître en version française dans l’ouvrage collectif Technomémoires, mémoire, souvenirs et technologies émergentes (PUQ, 2026). Sa théorie : l’IA générative produit un passé hybride, au-delà du consentement et du contrôle de ceux qui l’ont vécu. Entretien.
>> Plusieurs mémoriaux de l’Holocauste alertent contre la montée en puissance de contenus « entièrement fabriqués » ciblant la Shoah. Comment analysez-vous ce phénomène ?
Les fausses images de l’Holocauste représentent un cas particulièrement frappant. Le problème central est le suivant : comment pouvons-nous encore faire la différence entre ce qui est réel et ce qui ne l’est pas, entre ce qui est factuel et ce qui est inventé ?
Ces « fakes » sont une forme de mémoire hybride homme-machine, fondamentalement perturbatrice. Ici, nous perdons l’humain à deux niveaux. Premièrement, notre capacité à reconnaître quelque chose comme réel, authentique ou véritablement humain est diminuée. Ensuite, à travers nos interactions avec de fausses images, des avatars ou des deadbots produits par l’IA, nous générons un nouveau type de mémoire, qui n’est pas entièrement humaine.
À mesure que ces couches d’interaction homme-machine s’accumulent, il devient de plus en plus difficile de distinguer si un contenu est d’origine humaine et d’en identifier l’auteur.
« Les archives sont empoisonnées, car elles ne sont plus contenues »
>> Vous parlez d’un passé rendu toxique par l’IA…
Il s’agit d’une intoxication du passé, car nous ne comprenons pas l’IA. J’appelle cela une « mémoire boîte noire » [black box memory, ndlr] : on ne sait pas ce qui a été injecté dans les modèles de transformeurs qui nous permettent d’interroger et d’extraire de l’information sur le passé. Comme nous avons si peu de compréhension du fonctionnement de ce processus, il devient facile de le manipuler, de transformer certains aspects du passé en armes afin qu’ils soient intégrés dans ce qui est régulièrement suggéré dans les modèles d’IA actuels. Il s’agit d’une forme d’effondrement du modèle : les archives sont empoisonnées, car elles ne sont plus contenues.
>> Comment les institutions mémorielles peuvent-elles faire face ?
C’est une vraie lutte pour elles. Elles sont tiraillées et craignent de perdre le contrôle du récit. D’un côté, n’importe qui peut créer très rapidement une fausse image, un avatar très réaliste d’un survivant ou d’un défunt et lui faire dire toutes sortes de choses. De l’autre, ces institutions ne travaillent pas à ce rythme. Ce sont des bureaucraties, des gouvernements, des réglementations. Vous avez d’un côté l’accélération, de l’autre la stase, la peur, l’hésitation. Et elles sont poussées, lentement mais sûrement, à adopter la technologie, parce que si elles ne le font pas, quelqu’un d’autre le fera.
>> D’autant plus que l’IA générative arrive à un « moment » particulièrement complexe pour la transmission des grands conflits du XXe siècle. La génération des enfants et préadolescents qui ont survécu à l’Holocauste est en train de disparaître. Idem pour les Hibakusha, victimes des bombardements atomiques d’Hiroshima et de Nagasaki…
Absolument. Les institutions mémorielles explorent de nombreuses pistes. L’exemple japonais est particulièrement éclairant : les Hibakusha forment des témoins pendant deux ans pour qu’ils incarnent leur témoignage. Ces « témoins relais » sont très rigoureusement formés par les musées. Ils passent un test : l’Hibakusha original doit confirmer que le conteur peut parler avec des détails précis, fidèles à son expérience.
« Radicalisation de la mémoire »
L’objectif est de sécuriser le récit de paix, de transmettre l’horreur pour que les gens réfléchissent à deux fois aux risques nucléaires. Mais certains de ces conteurs deviennent incontrôlables. Ils prennent un statut de célébrité et commencent à dire des choses fausses. Si, malgré un dispositif très élaboré, ces institutions perdent le contrôle du récit, quel espoir reste-t-il face à l’arrivée de l’IA générative, non régulée et illimitée dans sa capacité à produire des bots hyperréalistes de survivants ?
>> Jusqu’à présent, il y avait consensus sur le fait que « faire mémoire » consistait à lutter contre l’oubli. Avec l’arrivée de l’IA générative, vous affirmez que nous avons besoin d’une « nouvelle forme d’oubli » pour garder le contrôle. C’est assez contre-intuitif…
Oui… Mais d’une certaine manière, l’oubli humain est devenu impossible. Nous sommes constamment enregistrés, dupliqués. Il y a toutes sortes de nouvelles formes hybrides de mémoire, entre machine et humain. Prenez les compagnons IA : vous discutez et devenez intimes avec eux. Ce faisant, vous répliquez des versions de vous-même dans le monde. Et nous perdons le contrôle de l’oubli, parce que ces versions pourraient devenir incontrôlables, dire des choses qu’on ne voulait pas qu’elles disent, que nous soyons vivants ou morts. Cette prolifération stupéfiante de versions de nous-mêmes, ce nouvel ensemble de relations avec la technologie qui produit des mémoires hybrides homme-machine, c’est une perte de contrôle sur notre moi autobiographique.
>> Cette perte de contrôle a-t-elle des conséquences au-delà de l’individu ? Sur notre relation collective au passé ?
C’est ce que j’appelle la radicalisation de la mémoire. Le passé nous offrait autrefois certitude et stabilité comme guide dans le présent. On pouvait ne pas l’aimer, mais il était terminé. On pouvait tenter d’en tirer des leçons, avancer, construire un consensus. Or l’IA déconnecte le passé humain du présent. Et ce n’est pas seulement géopolitique, culturel, politique : c’est aussi très personnel. Pensez aux deadbots, au deuil, à cette tentation constante de recréer et de parler aux gens que nous avons perdus… Que se passe-t-il si vous pouvez vivre constamment dans un état qui révise mais aussi recrée le passé ? Car c’est ce que fait cette technologie. L’IA ne se contente pas d’archiver le passé. Elle en fabrique un nouveau. Un passé qui n’a jamais existé.
>> Malgré tout cela, pensez-vous qu’on puisse encore fabriquer de la mémoire collective ? Ou est-ce devenu obsolète ?
Ce qu’est la mémoire et ce qu’elle produit est complètement transformé. Pensez à ce sur quoi reposera son avenir : tout ce qui a été enregistré, collecté, documenté au cours des quinze dernières années. Beaucoup de tout cela se trouve dans des archives de réseaux sociaux, dans d’immenses réseaux numériques.
Pour être plus positif : il y a une opportunité stupéfiante de comprendre le passé. Un potentiel fantastique pour comprendre l’histoire de la guerre, de la géopolitique, des décisions politiques ou militaires. Mais ce potentiel est en partie perdu. Parce que tout cela est manipulé, instrumentalisé, radicalisé, plutôt que mis au service de la connaissance. On assiste donc une nouvelle bataille autour de la nature et des usages du passé. C’est à la fois une bataille sur nos traces numériques, mais aussi sur la génération par l’IA d’un passé qui n’a jamais existé.
L’assistant IA inclus dans Microsoft 365 Copilot avait la possibilité de passer outre les mesures de sécurités censées être mises en place pour qu’il n’accède pas à tous les contenus des utilisateurs de la suite.
BleepingComputer a relevé que Microsoft avait signalé depuis le 21 janvier ce bug dans son outil réservé aux administrateurs Microsoft 365 sous le numéro CW1226324.
Copilot Chat pouvait accéder aux emails envoyés ou en brouillon des utilisateurs même s’ils étaient étiquetés par l’utilisateur comme confidentiels (étiquette pourtant explicitement mise en place pour éviter cela). Ainsi ses résumés pouvaient intégrer des informations issues de ces emails confidentiels.
Selon Microsoft elle-même, ce bug entraine le fait que « les emails des utilisateurs auxquels une étiquette confidentielle a été appliquée sont traités de manière incorrecte par le chat Microsoft 365 Copilot » et que « l’ « onglet travail » du Chat de Copilot Microsoft 365 résume les emails même si ceux-ci sont assortis d’une étiquette de confidentialité et qu’une politique DLP [data loss prevention, ndlr] est configurée ».
L’entreprise affirme avoir commencé à déployer le correctif début février et indique qu’elle a contacté une partie des utilisateurs concernés pour vérifier qu’il fonctionnait. Mais elle ne s’est encore engagée sur aucune date de correction complète du bug et n’a donné aucune information sur le nombre d’organisations touchées.
Plus tôt, la direction des services informatiques du Parlement européen avait décidé de bloquer l’accès à tous les outils d’IA générative sur ses appareils pour s’assurer que des informations ne fuitent pas via ces outils.
Considérée comme une solution de choix pour déployer un serveur de stockage objet compatible S3, la Community Edition de MinIO vient d’être enterrée sans tambour ni trompette par la société du même nom, qui se contente simplement de renvoyer vers sa solution commerciale à sources fermées.
Plusieurs signaux faibles, observés tout au long de l’année 2025, laissaient augurer de cette décision, mais la découverte du bandeau annonçant l’archivage du dépôt dédié à MinIO risque tout de même de faire grincer quelques dents dans la communauté open source. « Ce dépôt a été archivé par son propriétaire le 13 février 2026. Il est désormais en lecture seule », indiquent en effet les pages du projet sur GitHub.
La dernière mise à jour opérée sur le dépôt en scelle le destin : opérée au niveau du Readme du projet, elle signale simplement que ce dernier n’est plus maintenu et renvoie vers AIStor, la déclinaison commerciale de MinIO, qui dispose bien d’une licence gratuite pour un usage « communautaire », mais s’appuie sur du code propriétaire, et présente certaines restrictions par rapport à la Community Edition.
Ultime commit de MinIO CE – capture d’écran Next
Un outil populaire, apprécié pour sa simplicité
En 2020, Next avait consacré une série d’articles à MinIO, et pour cause : la solution présentait sur le papier toutes les cartes pour intéresser les internautes à la recherche d’un stockage objet open source, simple à mettre en œuvre, mais offrant néanmoins tous les raffinements nécessaires à des usages avancés, de la redondance à la protection contre la dégradation des données en passant par des fonctions d’administration poussées, soit à la main, soit par l’intermédiaire de Docker ou Kubernetes.
La version serveur de MinIO Community Edition avait par ailleurs le bon goût d’être accompagnée d’un client multiplateformes lui aussi facile à prendre en main. Bref, tous les ingrédients d’un bon outil, et les amateurs ne s’y sont d’ailleurs pas trompés, comme en témoignent les 60 000 étoiles qui ornent le dépôt GitHub du projet.
La société éditrice a quant à elle connu une trajectoire commerciale de premier plan, auréolée par une levée de fonds en série B de 103 millions de dollars bouclée début 2022 sur la base d’une valorisation fixée à un milliard de dollars. MinIO ne communique pas son chiffre d’affaires, mais s’enorgueillit sur son site de compter quelques sociétés parmi les plus gourmandes en données de la planète au rang de ses clients. Dans le lot figurent des grands comptes tels que Salesforce, BNP Paribas, Palantir, Disney ou AMD.
Des signes avant-coureurs au gré des mises à jour
MinIO n’a pas exprimé publiquement sa position au sujet de la Community Edition ces derniers temps, mais l’entreprise a procédé, sur les douze derniers mois, à plusieurs petites modifications qui visaient à restreindre le périmètre fonctionnel offert par cette dernière.
Harshavardhana, l’un des cofondateurs de MinIO, a par exemple introduit le 26 février dernier une modification du code privant les utilisateurs de l’interface graphique d’administration, et limitant de fait ces derniers à la ligne de commande.
Harshavardhana s’en est expliqué quelques semaines plus tard, en réponse à un utilisateur qui se plaignait de cette disparition : « La création et la maintenance de consoles graphiques distinctes pour les branches communautaire et commerciale représentent un travail considérable. Honnêtement, il est difficile de reproduire ce travail pour la branche communautaire. »
L’argument s’entend : après tout, MinIO est une entreprise commerciale, mais il a tout de même suscité analyses et commentaires réprobateurs, évoquant par exemple l’épisode du changement de licence de Redis. L’annonce a également entraîné la création d’un fork du navigateur en question, même si ce dernier ne semble pas avoir dépassé le stade du démarrage, peut-être faute de gouvernance adaptée.
La suite allait donner du grain à moudre aux déçus : le 15 octobre, Harshavardhana a mis à jour le Readme pour signaler cette fois la fin des exécutables qui simplifiaient l’installation. « Nous n’acceptons plus de demandes de fonctionnalités pour l’édition communautaire. », précise-t-il à cette occasion. Dans le même temps, les liens qui pointaient vers la documentation renvoient vers le support payant de MinIO.
Le 3 décembre, le projet passe officiellement en maintenance. « Aucune nouvelle fonctionnalité, amélioration ou demande de fusion ne sera acceptée. Les correctifs de sécurité critiques pourront être évalués au cas par cas ». Jusqu’au 13 février, qui signe donc le gel (définitif ?) de la version communautaire de MinIO.
Fort heureusement pour les déçus, la scène du stockage objet est dynamique, et même si MinIO était salué pour ses qualités, il existe des alternatives de Garage à RustFS en passant par Ceph ou SeaweedFS.