Vue normale

Zuckerberg pressé devant la justice de justifier la politique de Meta relative aux préados

19 février 2026 à 16:51
Cibler les préados pour gagner les ados
Zuckerberg pressé devant la justice de justifier la politique de Meta relative aux préados

Auditionné devant un jury à Los Angeles dans l’affaire qui oppose, entre autres, Meta à une jeune femme reprochant la mise en place de mécanismes d’addiction sur les plateformes de réseaux sociaux, Mark Zuckerberg a du expliquer pourquoi, comme l’indiquait un document de 2018, son entreprise estimait qu’il y avait 4 millions d’utilisateurs d’Instagram de 10 à 12 ans. Il a défendu la mise à disposition de « filtres de beauté » sur Instagram comme une liberté d’expression des utilisateurs.

Une jeune femme de 20 ans, Kaley G. M., et sa mère accusent les géants des réseaux sociaux, et notamment Google (via YouTube) et Meta (via Facebook et surtout Instagram), de provoquer et d’entretenir l’addiction chez les jeunes.

Après Adam Mosseri, patron d’Instagram, c’était ce mercredi 18 février à Mark Zuckerberg de s’y rendre. Le patron de Meta est arrivé au tribunal encadré par plusieurs personnes portant des lunettes connectées de l’entreprise.

Comme l’explique le Los Angeles Times, la juge Carolyn B. Kuhl a estimé nécessaire de prendre un moment pour avertir la salle que l’usage de ces lunettes était interdit : « Si vos lunettes enregistrent, vous devez les retirer. La cour ordonne qu’il ne doit y avoir aucune reconnaissance faciale du jury. Si vous l’avez fait, vous devez supprimer l’enregistrement. C’est très sérieux. »

Un filtre des enfants peu efficace

Les débats se sont notamment concentrés sur la politique de Meta concernant la création de comptes de jeunes enfants. Comme le Los Angeles Times l’explique, Mark Zuckerberg a rappelé qu’Instagram n’a jamais autorisé, dans ses conditions d’utilisation, les enfants de moins de 13 ans à s’inscrire.

Mais la plaignante, Kaley G. M., affirme dans sa plainte avoir créé son compte à l’âge de 9 ans. « Je pense généralement qu’il existe un groupe de personnes, potentiellement assez important, qui mentent sur leur âge afin d’utiliser nos services », a affirmé Mark Zuckerberg, évoquant également « une autre question séparée et très importante concerne la mise en application, et celle-ci est très difficile ».

Le patron de Meta en a profité pour réaffirmer que, selon lui, c’était aux responsables des systèmes d’exploitation comme Apple et Google que devrait revenir la charge de contrôler l’âge des utilisateurs.

Cibler les préados pour attirer les ados

Mais ce n’est qu’en décembre 2019, a pointé l’avocat de Kaley, Mark Lanier, qu’Instagram a commencé à demander leurs dates de naissance aux nouveaux inscrits, relate CNN. Il a aussi montré à la cour un document interne à Meta qui évaluait en 2015, selon NPR, à 30 % les enfants de 10 à 12 ans aux États-Unis qui utilisaient Instagram.

« Je ne me souviens pas du contexte de cet e-mail datant d’il y a plus de dix ans », a répondu Mark Zuckerberg. « Je pense que nous devons créer des services utiles qui permettent aux gens de rester en contact avec leur famille et leurs amis et d’apprendre à connaître le monde », a-t-il ajouté.

Mark Lanier a cité un autre document interne à l’entreprise, datant cette fois de 2018, dans lequel était affirmé « si nous voulons vraiment gagner auprès des adolescents, nous devons les attirer dès leur préadolescence ».

La liberté d’expression pour défendre les filtres « beauté » d’Instagram

Le patron de Meta a aussi été interrogé sur la volonté de son entreprise de pousser ses utilisateurs à utiliser toujours plus ses réseaux sociaux. L’avocat de la plaignante lui a demandé si son entreprise avait mis en place des buts à atteindre pour maximiser le temps d’exposition des utilisateurs, relate CNN.

Mark Zuckerberg a reconnu que ces buts avaient existé « plus tôt dans l’entreprise » mais qu’ils avaient été modifié pour se focaliser sur l’« utilité et la valeur apportée ». « Je pars du principe que si quelque chose a de la valeur, les gens le feront davantage », a-t-il ajouté.

Mark Lanier a aussi pointé le problème des filtres de beauté sur Instagram, qui permettent de modifier l’apparence du visage en y ajoutant du faux maquillage et des fausses modifications chirurgicales. Selon lui, Instagram a consulté 18 experts qui lui ont fait remarquer que ces filtres pouvaient être nuisibles. L’entreprise a décidé de laisser aux utilisateurs la possibilité de les créer tout en ne les mettant pas en avant.

« Je pensais que l’équilibre de la liberté d’expression devait permettre aux gens de créer ces filtres, mais que nous ne devions pas les créer nous-mêmes », a répondu Mark Zuckerberg, ajoutant que l’entreprise avait consulté des experts sur la liberté d’expression à ce sujet.

L’Inde oblige les plateformes à tatouer les contenus audiovisuels générés par IA

19 février 2026 à 15:11
New délit
L’Inde oblige les plateformes à tatouer les contenus audiovisuels générés par IA

Les médias sociaux devront vérifier que les contenus synthétiques soient labellisés comme tels, empêcher le partage des deepnudes et deepfakes interdits, et retirer les contenus illicites sous trois voire deux heures.

L’adage « je crois ce que je vois » est périmé du fait de l’avènement des deepfakes, qui « constituent une menace importante pour la vie privée des individus et la société dans son ensemble », avance le Deepfake Prevention and Criminalisation Act.

Cette loi indienne vise à prévenir et à criminaliser la création, la diffusion et l’utilisation de contenus synthétiques générés par IA sans consentement ou sans filigrane numérique. D’après TechCrunch, les plateformes pourront se voir ordonner de les retirer dans un délai de trois heures, voire de deux heures seulement dans certains cas. Auparavant, ce délai pouvait monter à trois jours, précise Libération.

Les plateformes et médias sociaux permettant à leurs utilisateurs de partager du contenu audiovisuel devront aussi exiger qu’ils précisent s’ils ont été générés par IA, mais également déployer des outils pour vérifier ces déclarations, veiller à ce que les deepfakes soient clairement identifiés et accompagnés de données de provenance traçables, et empêcher le partage de contenus synthétiques interdits (notamment les usurpations d’identité, images intimes non consenties et contenus liés à des crimes graves).

Les plateformes seront tenues de déployer des « mesures techniques raisonnables et appropriées » pour empêcher leurs utilisateurs de créer ou de partager des contenus audio et vidéo illégaux générés de manière synthétique, précise The Verge.

Les contenus générés par IA qui ne seront pas bloqués devront quant à eux intégrer des « métadonnées permanentes ou d’autres mécanismes techniques appropriés permettant d’en déterminer la provenance », et les doter de marquages visibles et/ou audibles pour permettre aux utilisateurs d’identifier immédiatement qu’il s’agit de contenus synthétiques.

Le « retard considérable » des systèmes de détection et d’étiquetage de l’IA

L’Inde compte un milliard d’internautes, principalement des jeunes, ce qui en fait l’un des marchés les plus importants pour les plateformes sociales, souligne The Verge, pour qui « toute obligation imposée dans ce pays pourrait avoir un impact sur les efforts de modération des deepfakes à travers le monde, soit en améliorant la détection jusqu’à ce qu’elle soit réellement efficace, soit en obligeant les entreprises technologiques à reconnaître la nécessité de trouver de nouvelles solutions ».

Sauf que c’est plus facile à dire qu’à faire, eu égard au « retard considérable » des systèmes de détection et d’étiquetage de l’IA à l’heure actuelle. La Coalition for Content Provenance and Authenticity (C2PA), de la Content Authenticity Initiative (CAI), lancée en 2021 par Arm, la BBC, Intel, Microsoft et Adobe, insère ainsi des métadonnées détaillées dans les images, vidéos et fichiers audio au moment de leur création ou de leur modification, afin de décrire de manière invisible comment ils ont été créés ou modifiés.

Mais si Facebook, Instagram, YouTube et LinkedIn ajoutent des étiquettes aux contenus signalés par le système C2PA, « il est clair que cela ne fonctionne pas », assène The Verge, pour qui « ces étiquettes sont difficiles à repérer, et certains contenus synthétiques qui devraient comporter ces métadonnées passent entre les mailles du filet ».

De plus, les plateformes de médias sociaux ne peuvent pas étiqueter correctement les contenus produits par des tiers, tels que les modèles d’IA open source ou les applications dites « nudify » qui refusent d’adopter la norme volontaire C2PA.

Il sera impossible pour les plateformes de respecter cette nouvelle loi

The Verge souligne également que « l’interopérabilité est l’un des principaux enjeux de la norme C2PA », mais bien que les nouvelles règles indiennes puissent encourager son adoption, « elles sont si faciles à supprimer que certaines plateformes en ligne peuvent involontairement les effacer lors du téléchargement de fichiers ».

Étant donné que les amendements précisent les mécanismes de traçabilité qui doivent être mis en œuvre « dans la mesure où cela est techniquement possible », les responsables à l’origine de la décision indienne sont probablement conscients que les technologies actuelles de détection et d’étiquetage par IA ne sont pas encore au point, conclut The Verge : « Les organisations qui soutiennent la C2PA affirment depuis longtemps que le système fonctionnera si suffisamment de personnes l’utilisent. C’est donc l’occasion de le prouver ».

Interrogé par Libé, Pratik Sinha, cofondateur du média spécialisé dans le fact-checking Alt News, avance qu’il sera « impossible pour les plateformes de respecter cette nouvelle loi. Nous sommes le pays le plus peuplé au monde et chaque jour, des milliards de posts sont générés ». Il s’interroge aussi sur les risques de censure politique :

« Qui détermine si un post-généré par IA est illégal ou non ? Normalement, en Inde, cela devrait relever d’une décision de justice, mais dans les faits, c’est la police qui s’en occupe. Cette loi a été votée pour faciliter la suppression des contenus qui critiquent le gouvernement, alors que les militants proches du pouvoir peuvent poster des fausses informations sans être inquiétés. »

Google Maps limite les infos affichées aux utilisateurs non connectés à leur compte

19 février 2026 à 14:15
Map$
Google Maps limite les infos affichées aux utilisateurs non connectés à leur compte

Google semble préférer que vous utilisiez Google Maps en étant connecté à votre compte. Depuis quelques jours, le service propose en effet un « affichage limité » aux internautes anonymes, qui se trouvent ainsi privés des photos d’autres utilisateurs ou des avis laissés sur le lieu recherché.

La restriction ne semble pas en place chez tout le monde, mais il est assez facile de vérifier si vous êtes concerné : ouvrez un nouvel onglet de votre butineur favori en navigation privée, rendez-vous sur Google Maps et entrez l’adresse ou le nom d’un lieu qui vous est familier. Dans ce mode déconnecté (au sens non connecté à votre compte Google), vous risquez fort de disposer d’un « affichage limité de Google Maps », comme l’indique très clairement l’interface de l’outil de cartographie.

Des infos « sociales » en moins

Cette petite mention apparait en bas de la colonne qui réunit habituellement les informations relatives au lieu recherché. Comme nous avons pu le vérifier nous-même sur quelques recherches portant sur des lieux français de notoriété publique, Google Maps affiche toujours l’adresse, les horaires ou les informations de contact, mais toute la dimension sociale (avis laissés par d’autres internautes et galerie de photos) disparait. Dans le cas d’un célèbre musée, l’indicateur de l’affluence en fonction de l’heure ou les liens directs vers des services de billetterie en ligne manquent également à l’appel.

À gauche, Maps en navigation privée (le panneau d’aide n’est pas ouvert par défaut), à droite la même recherche en surfant connecté à un compte Google – captures d’écran Next

Partagée par quelques internautes sur Reddit et relayée dans la presse tech anglophone, la découverte fait s’interroger les commentateurs : Google aurait-il sciemment décidé de brider les utilisateurs non connectés pour mieux alimenter ses outils de collecte de données ? Neowin remarque que ce changement intervient quelques jours seulement après que Google a introduit des interactions avec Gemini, son chatbot d’IA générative, au sein de Maps.

Collecte de données ou lutte contre le scraping ?

D’après nos rapides tests conduits jeudi, l’utilisation d’extensions dédiés au blocage des publicités ou à la limitation du partage d’informations liées à la navigation n’a pas d’impact sur l’affichage. En mode déconnecté, le fait d’accepter ou de refuser les cookies lors de la connexion au service ne modifie pas non plus ce comportement.

Le lien « En savoir plus » prodigué par Google ne donne aucune explication précise quant à ce phénomène : il ouvre un panneau d’aide générique, qui recense quelques facteurs possibles de restrictions au niveau de l’affichage, et invite lui aussi à se connecter à son compte.

Ce panneau comporte toutefois une allusion au scraping de données, c’est-à-dire la collecte à grande échelle et de façon automatisée des informations disponibles sur les fiches. « Le scraping non autorisé de données peut avoir un impact négatif sur les performances et la disponibilité des services Google pour les autres utilisateurs. », y indique Google.

Le moteur de recherche n’a pour l’instant pas commenté ouvertement ce nouveau comportement. Il semble par ailleurs n’intervenir que chez certains internautes, ce qui pourrait laisser imaginer une phase de test (logique de test A/B).

L’administration Trump prépare un site débloquant l’accès aux discours de haine en Europe

19 février 2026 à 13:33
Trolling étatique
L’administration Trump prépare un site débloquant l’accès aux discours de haine en Europe

Alors que la Commission européenne et plusieurs pays de l’UE ouvrent des enquêtes sur les manquements des différents réseaux sociaux et notamment X aux législations européennes, l’administration Trump met en place freedom.gov, un site qui doit permettre de consulter les contenus interdits en Europe, y compris les discours de haine et la propagande terroriste.

Utilisant le vocabulaire de la liberté sur lequel Donald Trump a surfé lors de sa campagne électorale de 2024, son administration prévoit de lancer le site Freedom.gov pour viser le public européen. Le nom de domaine a été créé le 12 janvier.

N’affichant pour l’instant qu’une page statique avec des petits effets suggérant le dévoilement de la liberté, il doit être l’un des premiers outils concrets de l’offensive trumpiste contre la régulation numérique européenne.

Un projet mené par la diplomatie américaine

Reuters a eu vent du projet mené par Sarah B. Rogers, la responsable du sous-secrétaire d’État à la diplomatie publique et aux affaires publiques étatsunien. Le site doit prochainement accueillir un portail qui permettrait aux personnes résidant en Europe mais aussi ailleurs de voir les contenus interdits dans leurs pays, y compris les discours de haine et la propagande terroriste qu’interdisent les différentes législations européennes.

Selon les sources de l’agence de presse, l’administration Trump présente cette initiative comme une contre-mesure contre la censure. Le projet aurait dû être lancé la semaine dernière alors qu’avait lieu la Conférence sur la sécurité de Munich.

Ce forum est régulièrement utilisé comme un théâtre des tensions diplomatiques : discussions sur le parapluie nucléaire français, remise en question de la guerre en Irak ou, plus récemment, en 2025, le discours de JD Vance. Dans celui-ci, le vice-président étatusien dénonçait un « recul » de la liberté d’expression en Europe, reprenant les arguments d’Elon Musk qui avait défendu le parti d’extrême-droite Alternative für Deutschland.

Finalement, l’administration Trump, représentée cette fois par Marco Rubio, a voulu montrer un visage rassurant à l’Europe, tout en gardant le même cap. Et le lancement du projet Freedom.gov aurait été repoussé sans qu’on en connaisse la raison, selon les sources de Reuters, mais des responsables du secrétariat d’État auraient exprimé des doutes sur le projet.

Du flou sur le service qui sera réellement proposé

Officiellement, le secrétariat d’État n’admet aucun retard ni aucun doute juridique sur le sujet. Il rejette tout projet de contournement de censure visant spécifiquement l’Europe tout en affirmant que « la liberté numérique est toutefois une priorité pour le Département d’État, ce qui inclut la prolifération des technologies de protection de la vie privée et de contournement de la censure, telles que les VPN ».

L’agence de presse ne détaille pas la façon dont Freedom.gov permettrait ce contournement. Si le terme VPN est utilisé, ce n’est pas un outil utilisable directement via un site web. On imagine plutôt un service comme les sites de « proxy » qui reroutent les requêtes via l’intégration des pages dans les pages principales du site.

Une confrontation d’approches ancienne, poussée sur le terrain par Donald Trump

Les approches étatsunienne et européenne sur la liberté d’expression divergent depuis des décennies. Ainsi, le linguiste américain Noam Chomsky et l’historien français Pierre Vidal-Naquet se sont affrontés au début des années 80 sur la question de la possibilité ou non de laisser diffuser la propagande négationniste en démocratie.

Mais l’administration Trump veut maintenant imposer sa propre définition au Vieux continent alors que la Commission européenne mais aussi des États comme la France, l’Espagne ou le Royaume-Uni ont lancé des enquêtes judiciaires notamment contre le réseau social X et son IA Grok. Rappelons que l’année dernière, le dirigeant états-unien a imposé aux agences de son pays la censure, sur leurs sites web, d’au moins 200 mots, dont injustice, femmes, victimes, noir ou encore pollution.

À l’occasion d’une visite de quatre jours en Inde et du sommet mondial de l’IA qui s’y déroule, Emmanuel Macron s’est emporté contre cette « soi-disant liberté d’expression », relate Ouest-France. « Nous sommes en faveur de l’algorithme libre mais totalement transparent », a-t-il affirmé. « La liberté d’expression c’est du pur bullshit si personne ne sait comment on est guidé à travers cette soi-disant liberté d’expression », a ajouté le président français, qui continue à n’utiliser essentiellement que X lorsqu’il s’agit de communiquer sur un réseau social.

Infox : la France veut faire de l’Europe un « exportateur de stabilité informationnelle »

19 février 2026 à 13:01
La pilule bleue, blanc, rouge
Infox : la France veut faire de l’Europe un « exportateur de stabilité informationnelle »

La « Stratégie nationale de lutte contre les manipulations de l’information 2026 - 2030 » comporte de nombreuses mesures opérationnelles nationales et internationales visant, non seulement à former l’ensemble des Français à la lutte contre les manipulations de l’information (LMI), mais également à structurer l’écosystème OSINT et à en exporter les méthodologies et moyens à l’international.

La première « Stratégie nationale de lutte contre les manipulations de l’information 2026 - 2030 » du Secrétariat de la défense et de la sécurité nationale (SGDSN), à laquelle nous avons déjà consacré deux articles, ne se contente pas de vouloir former l’ensemble des Français à la lutte contre les manipulations de l’information (LMI).

Elle compte également améliorer la détection précoce des manipulations et ingérences, ainsi que les réponses à vocation dissuasive, qu’elles relèvent de la communication (à l’image du compte @frenchresponse) ou se déclinent en modes diplomatiques, judiciaires, économiques, techniques voire militaires. Elle vise aussi à structurer une filière souveraine, innovante et résiliente de l’OSINT, objectif qualifié d’« enjeu stratégique majeur ».

La stratégie comporte enfin tout un volet international, afin de favoriser l’émergence d’une communauté européenne de la LMI, de permettre l’envoi de missions d’appui technique, sorte de « casques bleus » de la lutte contre la désinformation et, au-delà, de faire de l’Europe un « exportateur de stabilité informationnelle ».

Pour rappel, le premier pilier de la nouvelle stratégie vise à « mobiliser la Nation pour renforcer la résilience », et le second à « réguler les plateformes en ligne et les services d’intelligence artificielle ».

Le 3ᵉ des 4 piliers compte entend quant à lui « structurer une réponse opérationnelle » face aux manipulations de l’information, en « articulant les dimensions techniques, juridiques, diplomatiques et industrielles », « en consolidant les capacités opérationnelles de détection, de caractérisation, d’imputation et de réponse et en renforçant l’écosystème technologique national ».

« La première condition d’efficacité est la détection précoce partagée », poursuit le SGDSN. Or, « le tempo opérationnel de la LMI en fait un exercice de gestion de crise permanent exigeant des échanges techniques quasiment continus » pour traiter la menace, nécessitant « un système d’alerte et de réponse fiable et réactif ».

C’est l’objectif poursuivi par son 9ᵉ objectif stratégique (OS9), qui veut renforcer les capacités de veille, de détection et de caractérisation des ingérences numériques étrangères, « de façon continue, mutualisée et distribuée, pour détecter précocement les campagnes hostiles et en qualifier rigoureusement la portée, les mécanismes et les auteurs ».

Au niveau national, le « cœur opérationnel » de la caractérisation des ingérences numériques étrangères est incarné par le comité opérationnel de lutte contre les manipulations de l’information (COLMI), l’instance de coordination interministérielle animée par VIGINUM : « Pour répondre au rythme imposé par les adversaires, cette structure évoluera vers une configuration plus permanente, réunissant de manière périodique l’ensemble des parties prenantes techniques et stratégiques concernées ».

Des « partenariats structurés » avec le monde académique, les plateformes, les laboratoires publics et privés viendront également « enrichir une capacité d’anticipation stratégique et d’analyse distribuée qui reposera sur une diversité de méthodes croisées » allant de l’exploitation en sources ouvertes (OSINT) au « traitement algorithmique de données massives » en passant par de la « modélisation des dynamiques de propagation ».

Le réseau diplomatique, notamment grâce à ses postes à l’étranger, « apportera un appui décisif à cette stratégie, en assurant une veille contextuelle renforcée dans les zones les plus vulnérables ». La montée en puissance du dispositif de veille du ministère de l’Europe et des Affaires étrangères (MEAE) permettra en parallèle de « mieux détecter les campagnes d’influence et de communication stratégique d’acteurs étrangers ».

« Mais détecter ne suffit pas », poursuit le SGDSN, « encore faut-il pouvoir répondre ». L’OS10 devra ainsi structurer une doctrine interministérielle de réponse aux opérations d’ingérences numériques étrangères, « et plus largement des manipulations de l’information d’origine étrangère », « dans le respect du droit et des orientations politiques validées », « avec des effets dissuasifs ou correctifs clairement identifiés ».

Placée sous l’autorité du SGDSN et du MEAE, une instance de coordination interministérielle spécifique proposera, en fonction de chaque situation, des stratégies combinant différents leviers, « activés de manière graduée ou simultanée, selon différentes temporalités » :

  • « communicationnels : actions de rétablissement des faits, mobilisation des relais d’opinion et des partenaires de confiance, publication régulière de bulletins d’information sur les ingérences numériques étrangères ;
  • diplomatiques : condamnations publiques, actions de rétorsion, canaux de désescalade, mesures de confiance ;
  • judiciaires : ouverture de procédures contre les auteurs ou leurs relais ;
  • économiques : activation de régimes de sanctions nationaux ou européens ;
  • militaires : mobilisation en appui de l’action des autres administrations ou mise en œuvre des leviers d’actions militaires selon le cadre et la chaîne de commandement des opérations ;
  • techniques : entrave de capacités techniques adverses, diffusion ciblée d’éléments d’analyse ou d’alerte. »

« C’est dans ce cadre par exemple que s’inscrivent les formes nouvelles de ripostes immédiates sur les réseaux sociaux tel que le compte French Response mis en place et piloté par le MEAE », souligne le SGDSN.

Viser directement les acteurs humains ou techniques de campagnes hostiles

Pour garantir son efficacité, cette réponse interministérielle « suppose un continuum cohérent entre les actions administratives, diplomatiques, techniques et judiciaires », qui fera l’objet d’un « plan d’action pour les parquets et une meilleure coopération internationale » (OS11) « permettant de viser directement les acteurs humains ou techniques de campagnes hostiles ».

« Nonobstant la mise en œuvre rapide, dans un cadre administratif, de mesures de retrait, de blocage ou de déréférencement », la France poursuivra l’opérationnalisation du référé dit « anti-fake news » pour en élargir le champ d’application aux scrutins locaux, notamment municipaux. « Dans cette boite à outils, les circonstances aggravantes prévues pour les ingérences étrangères pourront être mobilisées », souligne le SGDSN, de sorte que la diffusion de fausses nouvelles ou de manœuvres frauduleuses altérant la sincérité d’un scrutin puisse être « sanctionnée de manière plus forte ».

Le SGDSN évoque également deux récentes circulaires du garde des Sceaux relatives à la mobilisation de l’autorité judiciaire dans la lutte contre les ingérences étrangères et les manipulations de l’information, que nous détaillerons dans un article dédié.

Structurer l’écosystème OSINT, un « enjeu stratégique majeur »

Enfin, pour consolider dans la durée les capacités d’analyse, l’OS12 entend soutenir l’émergence d’une filière souveraine française d’outils, de services et de compétences dédiés à l’investigation en sources ouvertes (OSINT), qualifiée de « levier essentiel, encore largement structuré par des communautés intéressées, militantes, journalistiques ou académiques agissant hors cadre institutionnel ».

Le SGDSN précise que la France dispose de capacités OSINT opérationnelles, « notamment dans des environnements spécialisés, qu’ils soient institutionnels, académiques ou privés » et que « plusieurs acteurs nationaux développent des outils et services prometteurs, illustrant le potentiel et la vitalité de l’écosystème national », mais que « toutefois, ces initiatives restent trop dispersées et insuffisamment coordonnées à l’échelle nationale » :

« Leur potentiel reste limité par un faible niveau de mutualisation et l’absence d’un cadre structurant, favorable à l’industrialisation, à la souveraineté technologique et à l’interopérabilité. Structurer cet écosystème constitue désormais un enjeu stratégique majeur. »

Si le tissu industriel français « compte d’ores et déjà plusieurs entreprises proposant des solutions OSINT de qualité, innovantes et compétitives », ce vivier d’acteurs, « encore en phase de consolidation, mérite d’être pleinement soutenu pour atteindre un niveau de maturité industrielle et répondre aux besoins croissants des institutions et de la société civile ».

L’État entend dès lors « structurer une filière souveraine, innovante et résiliente de l’OSINT, capable de répondre aux besoins croissants des institutions publiques, des chercheurs, des journalistes et de la société civile » :

« Un dialogue structuré entre l’État et l’écosystème permettra d’identifier les priorités, d’orienter les investissements stratégiques, et de favoriser la mutualisation des approches entre acteurs institutionnels et civils. Les dispositifs existants (France 2030, Bpifrance, commande publique) seront mobilisés pour accompagner durablement les entreprises du domaine. »

« Sans remettre en cause leur indépendance ni leur diversité d’organisation », la stratégie nationale vise aussi à « mieux identifier » la communauté d’analystes OSINT de la société civile et à « faciliter, lorsque cela est pertinent, leurs interactions avec les acteurs publics et académiques ».

À cette fin, pourront également être étudiés « différents leviers d’appui proportionnés et non contraignants, tels que des dispositifs légers de soutien à des travaux ou projets ciblés dans le cadre du plan France 2030 ».

Le « bouclier européen de la démocratie » et l’Agence suédoise de défense psychologique

Le 4e et dernier pilier vise quant à lui à « Assurer, avec nos alliés, l’existence d’un espace informationnel libre, ouvert et sécurisé ». Le SGDSN précise que « la France entend jouer un rôle moteur pour promouvoir le droit, la transparence et la souveraineté des sociétés ouvertes et démocratiques », et qu’elle s’appuiera pour cela « sur ses alliances, ses partenariats et son savoir-faire reconnu, pour structurer une diplomatie de la résilience informationnelle autour de quatre chantiers complémentaires ».

L’OS13 cherchera ainsi à structurer et « construire une approche fédérative des services de détection au sein de l’Union européenne afin de disposer d’un réseau fonctionnel », afin de « protéger la stabilité institutionnelle, l’intégrité des processus électoraux et la confiance dans le débat public ».

« Dans le cadre du bouclier démocratique européen porté par l’Union européenne, la France est en faveur de l’émergence d’une communauté européenne de la LMI », écrit le SGDSN. Objectifs : diffuser les bonnes pratiques opérationnelles de détection, accompagner les pays souhaitant monter en puissance ou mettre en œuvre des services gouvernementaux opérationnels dédiés, et développer l’interopérabilité entre les États membres, les institutions européennes et la société civile :

« Dans ce cadre, la France bénéficie d’une légitimité particulière. Son dispositif de lutte contre les manipulations de l’information dans l’espace numérique constitue une référence européenne. Ce modèle permet à la France de jouer un rôle moteur dans la construction d’une capacité partagée entre États membres. »

Présenté par la Commission européenne en novembre 2025, le « bouclier européen de la démocratie », qui « repose sur une double logique de résilience interne et d’influence externe », précise le SGDSN, et vise lui aussi à protéger l’UE des ingérences et manipulations étrangères en ligne.

Il prévoit le lancement d’un Centre européen pour la résilience démocratique, qui vise à réunir l’expertise et les capacités des États membres et des pays voisins, et qui s’appuiera sur les exemples de Viginum ou de l’Agence suédoise de défense psychologique, créée en 2022 pour contrecarrer « les influences inappropriées » et « informations erronées », et « sauvegarder une société ouverte et démocratique, la liberté d’opinion et l’indépendance et la liberté en Suède ».

Faire de l’Europe un « exportateur de stabilité informationnelle »

« Dans les régions où la démocratie est fragile, les campagnes de manipulation peuvent avoir un effet déstabilisateur majeur », avance par ailleurs le SGDSN. L’OS14 entend donc « définir une stratégie internationale de renforcement des capacités d’action de nos partenaires », cibler les efforts de renforcement sur les États et zones les plus vulnérables, en fonction des échéances démocratiques sensibles (élections, référendums, débats législatifs ou sociaux majeurs, etc.) et des contextes géopolitiques critiques :

« Ces séquences sensibles deviennent des cibles privilégiées pour des puissances étrangères hostiles, qui y voient des opportunités de polarisation, de déstabilisation, de renforcement de la confusion voire du chaos et in fine de perte de confiance dans les institutions. »

Le SGDSN évoque également la création de « missions d’appui technique », mobilisant des expertises françaises et européennes, pouvant être déployées rapidement à l’invitation d’un État, avant ou pendant une échéance électorale.

« En intégrant cette action dans le cadre européen, la France entend faire de l’Union un pôle de projection de stabilité démocratique » et de l’Europe un « exportateur de stabilité informationnelle », dans une logique de réponse conjointe aux menaces, résume le SGDSN :

« Cet effort s’inscrira dans la continuité des partenariats déjà engagés par la France dans des zones de tension informationnelle ou démocratique, notamment dans les Balkans ou en Europe de l’Est et plus largement le voisinage de l’Union européenne. »

Faire de la France une voix structurante dans les enceintes multilatérales

« Par définition, les campagnes d’ingérences numériques étrangères impliquent des dynamiques internationales, visent des opinions publiques fragmentées, et s’appuient sur des vecteurs transnationaux », relève le SGDSN. Dans ce contexte, les enceintes multilatérales « constituent un levier stratégique essentiel pour faire émerger des normes communes, favoriser la coordination des réponses et porter une vision démocratique de l’espace informationnel mondial ».

L’OS15 cherche dès lors à « prioriser l’engagement de la France » et « coordonner la réponse démocratique » afin de « faire de la France une voix structurante dans les enceintes multilatérales pour inscrire la LMI dans une vision partagée, fondée sur l’État de droit, la transparence et la résilience démocratique », et « mobiliser pleinement les cercles européens, transatlantiques et onusiens ».

Se disant « consciente des difficultés et divisions des enceintes multilatérales internationales », la France « s’opposera à toute tentative de captation du discours multilatéral par des États autoritaires visant à légitimer la censure ou le contrôle total de l’espace numérique » à l’ONU. Elle encouragera, a contrario, « une reconnaissance des normes démocratiques d’intervention : proportionnalité, redevabilité, droit à l’information, transparence ».

Elle y défendra une approche fondée sur la « souveraineté informationnelle », notamment dans le cadre du Global Digital Compact et dans les travaux conduits au sein de l’UNESCO. Ce « Pacte numérique mondial », négocié par 193 États membres depuis 2024, « engage les gouvernements […] à prendre des mesures concrètes pour rendre l’espace numérique sûr et sécurisé ».

Il entend notamment « promouvoir et faciliter l’accès à une information indépendante, factuelle et opportune afin de contrer la désinformation et la mésinformation », « renforcer la gouvernance internationale des données et assurer une gouvernance de l’IA au service de l’humanité ».

La France soutiendra également l’intégration des manipulations informationnelles au sein de la doctrine de l’OTAN, les efforts du Centre d’excellence StratCom basé à Riga, en Lettonie, « tout en promouvant une approche plus offensive dans l’attribution publique et la réponse coordonnée aux campagnes de manipulation menées contre les Alliés ».

« Par cette stratégie multilatérale, la France entend articuler ses intérêts nationaux et ses principes démocratiques fondamentaux, en contribuant à l’émergence d’un cadre international fondé sur l’intégrité du débat public, la transparence algorithmique, la souveraineté informationnelle des peuples, la transparence et la sécurité partagée », conclut le SGDSN.

Dans un quatrième article, nous reviendrons sur les deux récentes circulaires du garde des Sceaux relatives à la mobilisation de l’autorité judiciaire dans la lutte contre les ingérences étrangères et les manipulations de l’information, ainsi que les nombreuses initiatives initiées par ou avec VIGINUM ces derniers mois.

OTAN : les pays européens cherchent à limiter leur dépendance à l’égard des armes US

19 février 2026 à 10:55
Avion débloqué garanti sans spam
OTAN : les pays européens cherchent à limiter leur dépendance à l’égard des armes US

Les F-35 se débrident-ils comme un simple iPhone ? C’est ce qu’a suggéré le ministre néerlandais de la Défense, illustrant en creux les difficultés des pays de l’OTAN à s’autonomiser de leur allié historique que sont les États-Unis.

« Comme un iPhone, vous pouvez tout à fait jailbreaker un F-35 », a affirmé le ministre néerlandais de la Défense Gijs Tuinman à la radio locale BNR Nieuwsradio.

Hacker des avions, embaucher des forces supplémentaires : alors que les États-Unis se font toujours plus belliqueux, ses alliés historiques s’interrogent sur les meilleures manières de réduire leur dépendance au complexe militaro-industriel de l’Oncle Sam. Le Canada prévoit ainsi d’augmenter nettement ses dépenses militaires domestiques, tandis que le Royaume-Uni se cherche une voie du milieu.

Hacker des avions comme on hackerait des tracteurs ?

Aux Pays-Bas, donc, un ministre suggère que cela puisse passer par le hack des systèmes intégrés aux F-35, les avions militaires de Lockheed Martin créés grâce aux financements des États-Unis et d’une dizaine de pays de l’OTAN.

Aussi floue soit l’affirmation – Gijs Tuinman n’a fourni aucune indication concrète de la manière dont les armées pourraient s’y prendre –, l’affirmation illustre une problématique présente dans le domaine militaire comme dans le domaine civil : en se reposant pendant des décennies sur les équipements créés par les sociétés états-uniennes, ses alliés se sont laissés enfermer dans certains de leurs environnements technologiques.

L’impossibilité d’opérer des modifications logicielles sur l’appareil et au sol sans passer par l’armée américaine et Lockheed Martin rappelle les blocages subis par les agriculteurs dépendants du constructeur John Deere pour modifier ou réparer leurs tracteurs. Elle agite par ailleurs des inquiétudes au sujet d’un potentiel « kill switch » dans les avions américains : pour filer la métaphore agricole, des tracteurs ukrainiens construits par John Deere et volés par les Russes en 2022 ont pu être verrouillés, donc rendus inutilisables, à distance.

À l’heure actuelle, le Royaume-Uni, la Belgique, le Danemark, l’Italie, la Finlande, la Norvège, les Pays-Bas et la Pologne sont déjà équipés de F-35. Si quelques-uns ont isolé certaines de leurs activités derrière des pare-feu, les seuls à avoir accès au code source sont le Royaume-Uni et Israël. Ce dernier est par ailleurs le seul à pouvoir installer ses propres logiciels sur les F-35I (une version du F35 spécifiquement équipée d’armes israéliennes), selon Opex360. Pour les autres, un potentiel jailbreak risquerait surtout de tendre un peu plus les relations diplomatiques avec le pays fournisseur des avions, sans parler des risques de dysfonctionnements que cela pourrait entraîner.

Indépendantisation relative des équipements US

Pour éviter la reproduction de ce type de problématiques, nombreux sont les États qui travaillent à prendre une plus grande indépendance de leur allié traditionnel. Au plus près des États-Unis, le Canada prévoit ainsi d’augmenter ses dépenses militaires à 5 % de son PIB et de créer 125 000 nouveaux emplois au fil de la prochaine décennie pour se défaire de ses liens aux fabricants d’armes américains.

Le but : dépenser 70 % des dépenses de défense à des sociétés canadiennes, contre environ 50 % actuellement, et construire « un nouveau partenariat ambitieux et complet avec l’Union européenne et le Royaume-Uni », selon son document stratégique. Le Canada cherchera aussi des partenaires dans la zone indo-pacifique, dont l’Australie, la Nouvelle-Zélande, le Japon et la Corée du Sud.

Concrètement, l’État est en train d’examiner des contrats de 2023 pour lui fournir 88 F-35. Il cherche par ailleurs à faire l’acquisition de 12 sous-marins adaptés aux conditions arctiques, projet pour lequel des propositions allemandes et sud-coréennes doivent être soumises d’ici le mois prochain.

Auprès du Financial Times, le gérant du seul fonds canadien de capital-risque, ONE9, souligne qu’une logique « buy Canadian » fonctionnera mieux « lorsque nous aurons développé des sociétés mûres dans lesquelles investir », une perspective pour laquelle il faut « à la fois des capitaux patients et un premier client crédible ».

Au Royaume-Uni, allié traditionnel des États-Unis, la question de l’indépendance se pose depuis plusieurs mois. Société britannique, BAE Systems travaille depuis plusieurs mois à créer explosifs et combustibles de manière indépendante, notamment pour se conformer aux nouvelles obligations du ministère de la Défense.

Historiquement, le plus gros fournisseur militaire en Europe reposait en effet largement sur les États-Unis et la France. Fin 2025, les résultats de l’entreprise ont augmenté de 10 % par rapport à l’année précédente, portés par un record de 83,6 milliards de livres sterling (95,62 milliards d’euros) de commandes à honorer.

Malgré ces travaux, et des discussions autour d’une alliance canado-britannique pour financer des sociétés de défense, le Royaume-Uni acceptait en ce début février d’acheter pour 150 millions de livres d’armes américaines pour continuer de fournir l’Ukraine.

Le ministre de la Défense néerlandais a de son côté admis que les F-35, aussi dépendants des décisions américaines soient-ils, restaient « un meilleur avion que bien d’autres chasseurs ». Autant d’éléments qui soulignent les complexités de la création de stratégies financières et technologiques de défense plus autonomes vis-à-vis des États-Unis.

A. Hoskins : « L’IA ne se contente plus d’archiver le passé, elle en fabrique un nouveau »

19 février 2026 à 10:10
Radicalisation de la mémoire
A. Hoskins : « L’IA ne se contente plus d’archiver le passé, elle en fabrique un nouveau »

Plus de trente mémoriaux allemands ont alerté sur la prolifération d’« IA slop », ces fausses images générées par IA, représentant des victimes fictives de l’Holocauste. Next s’entretient avec Andrew Hoskins, spécialiste des liens entre mémoire, guerre et technologies.

Depuis l’été 2025, des fermes à contenu inondent les réseaux sociaux d’images générées par IA (ou slop) prétendant illustrer la Shoah. Le 13 janvier dernier, les sites mémoriaux de Bergen-Belsen, Buchenwald, Dachau et des dizaines d’autres institutions ont publié une lettre ouverte dénonçant un phénomène « en expansion » qui « déforme l’histoire par la trivialisation et la kitschification ». 

Titulaire de la chaire en IA, mémoire et guerre à l’université d’Édimbourg, Andrew Hoskins étudie l’irruption de l’IA générative dans notre rapport au passé. Son article « Intelligence artificielle, une nouvelle réalité pour la mémoire », vient de paraître en version française dans l’ouvrage collectif Technomémoires, mémoire, souvenirs et technologies émergentes (PUQ, 2026). Sa théorie : l’IA générative produit un passé hybride, au-delà du consentement et du contrôle de ceux qui l’ont vécu. Entretien. 

>> Plusieurs mémoriaux de l’Holocauste alertent contre la montée en puissance de contenus « entièrement fabriqués » ciblant la Shoah. Comment analysez-vous ce phénomène ?

Les fausses images de l’Holocauste représentent un cas particulièrement frappant. Le problème central est le suivant : comment pouvons-nous encore faire la différence entre ce qui est réel et ce qui ne l’est pas, entre ce qui est factuel et ce qui est inventé ?

Ces « fakes » sont une forme de mémoire hybride homme-machine, fondamentalement perturbatrice. Ici, nous perdons l’humain à deux niveaux. Premièrement, notre capacité à reconnaître quelque chose comme réel, authentique ou véritablement humain est diminuée. Ensuite, à travers nos interactions avec de fausses images, des avatars ou des deadbots produits par l’IA, nous générons un nouveau type de mémoire, qui n’est pas entièrement humaine.

À mesure que ces couches d’interaction homme-machine s’accumulent, il devient de plus en plus difficile de distinguer si un contenu est d’origine humaine et d’en identifier l’auteur.

« Les archives sont empoisonnées, car elles ne sont plus contenues »

>> Vous parlez d’un passé rendu toxique par l’IA…

Il s’agit d’une intoxication du passé, car nous ne comprenons pas l’IA. J’appelle cela une « mémoire boîte noire » [black box memory, ndlr] : on ne sait pas ce qui a été injecté dans les modèles de transformeurs qui nous permettent d’interroger et d’extraire de l’information sur le passé. Comme nous avons si peu de compréhension du fonctionnement de ce processus, il devient facile de le manipuler, de transformer certains aspects du passé en armes afin qu’ils soient intégrés dans ce qui est régulièrement suggéré dans les modèles d’IA actuels. Il s’agit d’une forme d’effondrement du modèle : les archives sont empoisonnées, car elles ne sont plus contenues.

>> Comment les institutions mémorielles peuvent-elles faire face ?

C’est une vraie lutte pour elles. Elles sont tiraillées et craignent de perdre le contrôle du récit. D’un côté, n’importe qui peut créer très rapidement une fausse image, un avatar très réaliste d’un survivant ou d’un défunt et lui faire dire toutes sortes de choses. De l’autre, ces institutions ne travaillent pas à ce rythme. Ce sont des bureaucraties, des gouvernements, des réglementations. Vous avez d’un côté l’accélération, de l’autre la stase, la peur, l’hésitation. Et elles sont poussées, lentement mais sûrement, à adopter la technologie, parce que si elles ne le font pas, quelqu’un d’autre le fera.

>> D’autant plus que l’IA générative arrive à un « moment » particulièrement complexe pour la transmission des grands conflits du XXe siècle. La génération des enfants et préadolescents qui ont survécu à l’Holocauste est en train de disparaître. Idem pour les Hibakusha, victimes des bombardements atomiques d’Hiroshima et de Nagasaki…

Absolument. Les institutions mémorielles explorent de nombreuses pistes. L’exemple japonais est particulièrement éclairant : les Hibakusha forment des témoins pendant deux ans pour qu’ils incarnent leur témoignage. Ces « témoins relais » sont très rigoureusement formés par les musées. Ils passent un test : l’Hibakusha original doit confirmer que le conteur peut parler avec des détails précis, fidèles à son expérience.

« Radicalisation de la mémoire »

L’objectif est de sécuriser le récit de paix, de transmettre l’horreur pour que les gens réfléchissent à deux fois aux risques nucléaires. Mais certains de ces conteurs deviennent incontrôlables. Ils prennent un statut de célébrité et commencent à dire des choses fausses. Si, malgré un dispositif très élaboré, ces institutions perdent le contrôle du récit, quel espoir reste-t-il face à l’arrivée de l’IA générative, non régulée et illimitée dans sa capacité à produire des bots hyperréalistes de survivants ?  

>> Jusqu’à présent, il y avait consensus sur le fait que « faire mémoire » consistait à lutter contre l’oubli. Avec l’arrivée de l’IA générative, vous affirmez que nous avons besoin d’une « nouvelle forme d’oubli » pour garder le contrôle. C’est assez contre-intuitif…

Oui… Mais d’une certaine manière, l’oubli humain est devenu impossible. Nous sommes constamment enregistrés, dupliqués. Il y a toutes sortes de nouvelles formes hybrides de mémoire, entre machine et humain. Prenez les compagnons IA : vous discutez et devenez intimes avec eux. Ce faisant, vous répliquez des versions de vous-même dans le monde. Et nous perdons le contrôle de l’oubli, parce que ces versions pourraient devenir incontrôlables, dire des choses qu’on ne voulait pas qu’elles disent, que nous soyons vivants ou morts. Cette prolifération stupéfiante de versions de nous-mêmes, ce nouvel ensemble de relations avec la technologie qui produit des mémoires hybrides homme-machine, c’est une perte de contrôle sur notre moi autobiographique.

>> Cette perte de contrôle a-t-elle des conséquences au-delà de l’individu ? Sur notre relation collective au passé ?

C’est ce que j’appelle la radicalisation de la mémoire. Le passé nous offrait autrefois certitude et stabilité comme guide dans le présent. On pouvait ne pas l’aimer, mais il était terminé. On pouvait tenter d’en tirer des leçons, avancer, construire un consensus. Or l’IA déconnecte le passé humain du présent. Et ce n’est pas seulement géopolitique, culturel, politique : c’est aussi très personnel. Pensez aux deadbots, au deuil, à cette tentation constante de recréer et de parler aux gens que nous avons perdus… Que se passe-t-il si vous pouvez vivre constamment dans un état qui révise mais aussi recrée le passé ? Car c’est ce que fait cette technologie. L’IA ne se contente pas d’archiver le passé. Elle en fabrique un nouveau. Un passé qui n’a jamais existé.

>> Malgré tout cela, pensez-vous qu’on puisse encore fabriquer de la mémoire collective ? Ou est-ce devenu obsolète ?

Ce qu’est la mémoire et ce qu’elle produit est complètement transformé. Pensez à ce sur quoi reposera son avenir : tout ce qui a été enregistré, collecté, documenté au cours des quinze dernières années. Beaucoup de tout cela se trouve dans des archives de réseaux sociaux, dans d’immenses réseaux numériques.

Pour être plus positif : il y a une opportunité stupéfiante de comprendre le passé. Un potentiel fantastique pour comprendre l’histoire de la guerre, de la géopolitique, des décisions politiques ou militaires. Mais ce potentiel est en partie perdu. Parce que tout cela est manipulé, instrumentalisé, radicalisé, plutôt que mis au service de la connaissance. On assiste donc une nouvelle bataille autour de la nature et des usages du passé. C’est à la fois une bataille sur nos traces numériques, mais aussi sur la génération par l’IA d’un passé qui n’a jamais existé.

☕️ Un bug dans Microsoft 365 Copilot lui permettait de résumer des emails confidentiels

19 février 2026 à 09:24

L’assistant IA inclus dans Microsoft 365 Copilot avait la possibilité de passer outre les mesures de sécurités censées être mises en place pour qu’il n’accède pas à tous les contenus des utilisateurs de la suite.

BleepingComputer a relevé que Microsoft avait signalé depuis le 21 janvier ce bug dans son outil réservé aux administrateurs Microsoft 365 sous le numéro CW1226324.

Copilot Chat pouvait accéder aux emails envoyés ou en brouillon des utilisateurs même s’ils étaient étiquetés par l’utilisateur comme confidentiels (étiquette pourtant explicitement mise en place pour éviter cela). Ainsi ses résumés pouvaient intégrer des informations issues de ces emails confidentiels.

Selon Microsoft elle-même, ce bug entraine le fait que « les emails des utilisateurs auxquels une étiquette confidentielle a été appliquée sont traités de manière incorrecte par le chat Microsoft 365 Copilot » et que « l’ « onglet travail » du Chat de Copilot Microsoft 365 résume les emails même si ceux-ci sont assortis d’une étiquette de confidentialité et qu’une politique DLP [data loss prevention, ndlr] est configurée ».

L’entreprise affirme avoir commencé à déployer le correctif début février et indique qu’elle a contacté une partie des utilisateurs concernés pour vérifier qu’il fonctionnait. Mais elle ne s’est encore engagée sur aucune date de correction complète du bug et n’a donné aucune information sur le nombre d’organisations touchées.

Plus tôt, la direction des services informatiques du Parlement européen avait décidé de bloquer l’accès à tous les outils d’IA générative sur ses appareils pour s’assurer que des informations ne fuitent pas via ces outils.

Stockage S3 : MinIO archive (et condamne) sa Community Edition

19 février 2026 à 08:03
Tressaillez d'allégresse
Stockage S3 : MinIO archive (et condamne) sa Community Edition

Considérée comme une solution de choix pour déployer un serveur de stockage objet compatible S3, la Community Edition de MinIO vient d’être enterrée sans tambour ni trompette par la société du même nom, qui se contente simplement de renvoyer vers sa solution commerciale à sources fermées.

Plusieurs signaux faibles, observés tout au long de l’année 2025, laissaient augurer de cette décision, mais la découverte du bandeau annonçant l’archivage du dépôt dédié à MinIO risque tout de même de faire grincer quelques dents dans la communauté open source. « Ce dépôt a été archivé par son propriétaire le 13 février 2026. Il est désormais en lecture seule », indiquent en effet les pages du projet sur GitHub.

La dernière mise à jour opérée sur le dépôt en scelle le destin : opérée au niveau du Readme du projet, elle signale simplement que ce dernier n’est plus maintenu et renvoie vers AIStor, la déclinaison commerciale de MinIO, qui dispose bien d’une licence gratuite pour un usage « communautaire », mais s’appuie sur du code propriétaire, et présente certaines restrictions par rapport à la Community Edition.

Ultime commit de MinIO CE – capture d’écran Next

Un outil populaire, apprécié pour sa simplicité

En 2020, Next avait consacré une série d’articles à MinIO, et pour cause : la solution présentait sur le papier toutes les cartes pour intéresser les internautes à la recherche d’un stockage objet open source, simple à mettre en œuvre, mais offrant néanmoins tous les raffinements nécessaires à des usages avancés, de la redondance à la protection contre la dégradation des données en passant par des fonctions d’administration poussées, soit à la main, soit par l’intermédiaire de Docker ou Kubernetes.

La version serveur de MinIO Community Edition avait par ailleurs le bon goût d’être accompagnée d’un client multiplateformes lui aussi facile à prendre en main. Bref, tous les ingrédients d’un bon outil, et les amateurs ne s’y sont d’ailleurs pas trompés, comme en témoignent les 60 000 étoiles qui ornent le dépôt GitHub du projet.

La société éditrice a quant à elle connu une trajectoire commerciale de premier plan, auréolée par une levée de fonds en série B de 103 millions de dollars bouclée début 2022 sur la base d’une valorisation fixée à un milliard de dollars. MinIO ne communique pas son chiffre d’affaires, mais s’enorgueillit sur son site de compter quelques sociétés parmi les plus gourmandes en données de la planète au rang de ses clients. Dans le lot figurent des grands comptes tels que Salesforce, BNP Paribas, Palantir, Disney ou AMD.

Des signes avant-coureurs au gré des mises à jour

MinIO n’a pas exprimé publiquement sa position au sujet de la Community Edition ces derniers temps, mais l’entreprise a procédé, sur les douze derniers mois, à plusieurs petites modifications qui visaient à restreindre le périmètre fonctionnel offert par cette dernière.

Harshavardhana, l’un des cofondateurs de MinIO, a par exemple introduit le 26 février dernier une modification du code privant les utilisateurs de l’interface graphique d’administration, et limitant de fait ces derniers à la ligne de commande.

Harshavardhana s’en est expliqué quelques semaines plus tard, en réponse à un utilisateur qui se plaignait de cette disparition : « La création et la maintenance de consoles graphiques distinctes pour les branches communautaire et commerciale représentent un travail considérable. Honnêtement, il est difficile de reproduire ce travail pour la branche communautaire. »

L’argument s’entend : après tout, MinIO est une entreprise commerciale, mais il a tout de même suscité analyses et commentaires réprobateurs, évoquant par exemple l’épisode du changement de licence de Redis. L’annonce a également entraîné la création d’un fork du navigateur en question, même si ce dernier ne semble pas avoir dépassé le stade du démarrage, peut-être faute de gouvernance adaptée.

La suite allait donner du grain à moudre aux déçus : le 15 octobre, Harshavardhana a mis à jour le Readme pour signaler cette fois la fin des exécutables qui simplifiaient l’installation. « Nous n’acceptons plus de demandes de fonctionnalités pour l’édition communautaire. », précise-t-il à cette occasion. Dans le même temps, les liens qui pointaient vers la documentation renvoient vers le support payant de MinIO.

Le 3 décembre, le projet passe officiellement en maintenance. « Aucune nouvelle fonctionnalité, amélioration ou demande de fusion ne sera acceptée. Les correctifs de sécurité critiques pourront être évalués au cas par cas ». Jusqu’au 13 février, qui signe donc le gel (définitif ?) de la version communautaire de MinIO.

Fort heureusement pour les déçus, la scène du stockage objet est dynamique, et même si MinIO était salué pour ses qualités, il existe des alternatives de Garage à RustFS en passant par Ceph ou SeaweedFS.

☕️ Le Parlement européen bloque l’accès aux outils d’IA générative sur ses appareils

19 février 2026 à 07:28

Pour des raisons de cybersécurité et de protection des données, le Parlement européen a bloqué les fonctionnalités d’IA génératives des appareils qu’il fournit aux députés européens et à leurs équipes.

Dans un email obtenu par Politico, l’institution a informé ses membres lundi qu’elle avait désactivé les « fonctionnalités d’intelligence artificielle intégrées » sur les tablettes qu’elle leur fournit.

Drapeaux de l’Union européenne

« Certaines de ces fonctionnalités utilisent des services cloud pour effectuer des tâches qui pourraient être traitées localement, envoyant ainsi des données hors de l’appareil », explique la direction des services informatiques du Parlement :

« Alors que ces fonctionnalités continuent d’évoluer et deviennent disponibles sur un plus grand nombre d’appareils, l’étendue totale des données partagées avec les fournisseurs de services est encore en cours d’évaluation. Tant que cela n’aura pas été entièrement clarifié, il est considéré comme plus sûr de garder ces fonctionnalités désactivées. »

Les fonctionnalités visées seraient celles d’aide à l’écriture et au résumé de textes. La DSI du parlement pousse aussi les députés et leurs équipes à éviter ce genre d’outils sur leurs autres appareils.

☕️ Google annonce son Pixel 10a à 549 euros

19 février 2026 à 07:04

Après les modèles haut de gamme de la série Pixel 10, présentés en août dernier, Google complète sa gamme avec l’annonce du Pixel 10a, son smartphone d’entrée de gamme, affiché au prix public de 549 euros. L’appareil se présente comme une évolution mineure du Pixel 9a auquel il succède, et dont il reprend les principaux composants.

La particularité la plus notable du Pixel 10a tient à l’intégration de ses deux capteurs photo dorsaux : alors que depuis des années, la mode est aux protubérances assumées, Google propose ainsi un appareil au dos parfaitement plat. Sa coque arrière abandonne le verre des séries 10 et 10 Pro au profit d’un revêtement plastique décliné en bleu, rouge, noir et gris (ou Lavande, Rouge Framboise, Brume et Noir Volcanique si vous préférez les termes du marketing de Google).

Quatre coloris pour le Pixel 10a

Au sein de ce châssis « incluant pour la première fois du cobalt, du cuivre, de l’or et du tungstène recyclés », Google conserve un écran 6,3 pouces pOLED (1 080 x 2 424 pixels) avec fréquence variable entre 60 et 120 Hz, doublé d’un verre Gorilla Glass 7i.

Côté composants, Google rejoue la partition du 9a : on retrouve un processeur maison Tensor G4 (le reste de la gamme Pixel 10 adopte la génération suivante, le Tensor G5) accompagné de 8 Go de mémoire vive et 128 ou 256 Go de stockage, ainsi que de la puce maison Titan M2 dédiée aux fonctions de sécurité.

Le volet photo reste lui aussi similaire, sur le papier, à celui du modèle 2025, avec un capteur principal grand angle 48 mégapixels ouvrant à f/1,7, doublé d’un ultra grand angle à 13 Mpx, et d’un autre capteur 13 Mpx en face avant.

Livré sous Android 16, le Pixel 10a embarque toute la panoplie des fonctions et services IA de Google, à l’exception du « zoom amélioré », et promet une autonomie de 30 heures en conditions normales, ou 120 heures avec les fonctions maximales d’économie d’énergie, grâce à une batterie 5100 mAh. L’appareil est affiché à 183 grammes sur la balance, contre 204 grammes pour le Pixel 10 standard.

Le Pixel 10a intègre par ailleurs la fonction SOS par satellite, dont était privé le 9a. On pourra consulter sur cette page les caractéristiques complètes du téléphone comparées à celles des Pixel 10 et Pixel 10 Pro.

Le nouveau venu est affiché à 549 euros, avec des précommandes ouvertes dès à présent et des livraisons programmées au 5 mars prochain. Le Pixel 9a voit quant à lui son prix baisser à 449 euros.

Bercy informe d’une intrusion dans le Ficoba : 1,2 million de comptes exposés

18 février 2026 à 19:09
Ginkgo Ficoba
Bercy informe d’une intrusion dans le Ficoba : 1,2 million de comptes exposés

Bercy a informé mercredi soir, par voie de communiqué, d’une intrusion dans le fichier national des comptes bancaires et assimilés (Ficoba), qui liste tous les comptes bancaires ouverts en France. Les services de la DGFiP assurent que les accès illégitimes ont été restreints, mais préviennent que les données de 1,2 million de comptes ont pu être exposées.

Dans une actualité marquée à la fois par la récurrence des fuites de données et par les velléités grandissantes de constitution de fichiers centralisés, l’incident revêt une portée symbolique particulière. Cette fois, ce sont en effet les services de Bercy qui informent, mercredi en fin d’après-midi, d’une intrusion dans un fichier particulièrement sensible : le Ficoba, ou fichier national des comptes bancaires et assimilés, qui liste tous les comptes bancaires ouverts, mais aussi les coffres-forts loués en France.

1,2 million de comptes exposés

L’intrusion a pris la forme d’un accès non autorisé, que le service de presse de Bercy décrit de la façon suivante :

« A compter de la fin janvier 2026, un acteur malveillant, qui a usurpé les identifiants d’un fonctionnaire disposant d’accès dans le cadre de l’échange d’information entre ministères, a pu consulter une partie de ce fichier qui recense l’ensemble des comptes bancaires ouverts dans les établissements bancaires français et contient des données à caractère personnel : coordonnées bancaires (RIB / IBAN), identité du titulaire, adresse et, dans certains cas, l’identifiant fiscal de l’usager. »

Les finances publiques assurent que dès détection de l’incident, « des mesures immédiates de restriction d’accès ont été mises en œuvre afin de stopper l’attaque, de limiter l’ampleur des données consultées et extraites de cette base ».

Le périmètre exposé concernerait tout de même 1,2 million de comptes, qui devraient faire l’objet d’une prise de contact : « Les usagers concernés recevront dans les prochains jours une information individuelle les alertant qu’un accès à leurs données a pu être constaté. »

Outre le dépôt de plainte et la notification à la CNIL exigés en de telles circonstances, Bercy indique s’être rapproché des établissements bancaires afin que ces derniers participent à la sensibilisation des contribuables concernés.

Le ministère précise enfin que les services et agences de l’État, parmi lesquels son service du haut fonctionnaire de défense et de sécurité (HFDS) et l’Agence nationale de la sécurité des systèmes d’information (ANSSI) sont mobilisés autour de la sécurisation du système d’information concerné.

Le Ficoba enregistre, d’après la CNIL, les informations de plus de 80 millions de personnes physiques, françaises ou non, qui ont un compte bancaire en France. Il répertorie les données d’identification du titulaire, les éléments d’identification du compte et ses dates d’ouverture ou de modification. Il ne liste en revanche « aucun élément concernant l’historique des opérations effectuées sur le compte concerné ou sur son solde ».

La combinaison des informations exposées se prête néanmoins à des scénarios d’ingénierie sociale poussés, à l’instar des données volées récemment sur la plateforme Choisir le service public.

Bercy recommande par ailleurs un « rappel de vigilance à destination des usagers », en trois points :

  • alors que de nombreuses tentatives d’escroqueries circulent par courriel ou SMS dans le but d’obtenir des informations ou des paiements de la part des usagers, « au moindre doute, il est préférable de ne pas répondre directement » ;
  • l’administration fiscale « ne vous demande jamais vos identifiants ou votre numéro de carte bancaire par message », et « même si l’expéditeur semble être un interlocuteur de la DGFiP, contactez directement votre service des impôts via la messagerie sécurisée de votre espace ou par téléphone afin de vérifier l’authenticité du message reçu » ;
  • en cas de suspicion de l’utilisation frauduleuse de vos données personnelles, « nous vous recommandons de conserver toutes les preuves (messages, adresse du site web, captures d’écran…) », mais également de s’appuyer sur les ressources du site cybermalveillance.gouv.fr.

Sur le sujet, consultez également notre guide :

Comment la France entend concrètement lutter contre les manipulations de l’information

18 février 2026 à 15:53
« Faites vos propres recherches » reloaded
Comment la France entend concrètement lutter contre les manipulations de l’information

La Stratégie nationale de lutte contre les manipulations de l’information dresse un très ambitieux plan de bataille visant à sensibiliser voire former l’ensemble des Français à la lutte contre les manipulations de l’information, qui s’inspire en bonne partie des méthodes en vigueur en matière de renseignement d’origine sources ouvertes (OSINT).

La première « Stratégie nationale de lutte contre les manipulations de l’information 2026 - 2030 » du Secrétariat de la défense et de la sécurité nationale (SGDSN, cf notre premier article de présentation) « repose sur trois principes fondamentaux : l’ouverture, l’action en réseau et l’intégration », largement inspirés des méthodes en vigueur en matière de renseignement d’origine sources ouvertes (OSINT).

Contrairement à d’autres champs de la sécurité nationale fondés sur la confidentialité, la lutte contre les manipulations de l’information « s’appuie, dans une large mesure, sur des méthodes et des ressources publiquement accessibles », privilégiant « la transparence, la vérifiabilité, et la mobilisation de l’ensemble des parties prenantes », résume le SGDSN.

Ce « choix stratégique », qualifié de « changement important de paradigme » en matière de sécurité nationale, « sera renforcé et rendu régulier », à mesure qu’il « vise à permettre la reproduction, la vérification, la contestation et la contribution par des acteurs tiers », ainsi que la validation par les pairs :

« Cette logique d’ouverture et de transparence est un levier de renforcement démocratique : en donnant au public les moyens de comprendre les mécanismes de manipulation, elle réduit leur efficacité. Une campagne de manipulation informationnelle ne peut opérer durablement sans opacité. La transparence devient ainsi un outil préventif autant que curatif, contribuant à une meilleure appropriation citoyenne des enjeux liés à l’ingérence numérique étrangère. »

L’action en réseau repose de son côté sur une « mobilisation distribuée », s’appuyant sur une logique de coopération entre les administrations, institutions, acteurs techniques, régulateurs, chercheurs, médias, plateformes, ainsi que la société civile et les citoyens, « chacun à son niveau de responsabilité ».

L’intégration renvoie de son côté à « une exigence de partage de l’information, dans le respect des impératifs de sécurité ». Le renforcement de la confiance mutuelle entre acteurs publics et privés « repose sur la circulation maîtrisée de ce qui est su, de ce qui est en cours d’évaluation, et de ce qui demeure encore incertain », précise le SGDSN.

Faire collectif à l’échelle du pays, et au-delà

La stratégie en elle-même s’articule autour de quatre priorités et piliers structurants, eux-mêmes déclinés en quinze objectifs stratégiques (OS) afin de « consolider l’avance de la France dans la préservation de l’intégrité du débat public et de prolonger ses efforts de résilience démocratique face aux manipulations de l’information ».

« Face à l’ampleur de la menace, l’enjeu central identifié de la stratégie est la constitution et l’animation d’un collectif à l’échelle du pays, et au-delà, dans une logique de réponse concertée à l’échelle internationale », ce qui induit :

  • « d’impliquer l’ensemble de la population dans la compréhension des phénomènes de manipulation ;
  • de partager largement l’information utile à la prévention et à la détection de ces phénomènes ;
  • de renforcer la capacité d’action des entités publiques et des acteurs de terrain ;
  • de mutualiser les ressources opérationnelles disponibles afin d’assurer une réponse coordonnée et efficace. »

Une nouvelle génération de professionnels hautement qualifiés

Le premier pilier vise à « renforcer la résilience de la société dans son ensemble, en agissant sur les facteurs cognitifs, sociaux, éducatifs et culturels que ces manipulations exploitent ». Intitulé « Mobiliser la Nation pour renforcer sa résilience », il entend « mobiliser les leviers éducatifs, associatifs, scientifiques et citoyens sur l’ensemble du territoire » afin de faire de chaque citoyen un acteur éclairé contre la manipulation de l’information.

« La première condition de cette résilience est la constitution d’une capacité nationale d’expertise, apte à détecter, caractériser et comprendre les opérations de manipulation de l’information (OS1) », précise le SGDSN, afin « d’assurer la fiabilité de l’environnement informationnel national au sens large, qu’il soit numérique ou non ».

Les connaissances, savoir-faire et réflexes associés « doivent pouvoir être intégrés dans l’ensemble des structures déterminantes pour le fonctionnement du pays ». Ce qui « requiert des adaptations organisationnelles mais aussi l’existence d’une nouvelle génération de professionnels hautement qualifiés » dans des domaines aussi variés que la veille stratégique, l’analyse des réseaux sociaux, l’évaluation des manipulations algorithmiques, l’utilisation malveillante des systèmes d’IA, l’investigation numérique ou encore la compréhension technique des dynamiques informationnelles.

Or, ce champ « souffre dès lors d’une pénurie de compétences, accentuée par une sous-représentation sociale et de genres, caractéristique plus large du secteur numérique », et par un « manque d’alignement entre les profils formés et les besoins réels du terrain ».

« À court terme, il importe de fournir à l’ensemble des décideurs locaux et nationaux, aux cadres de l’administration ainsi qu’aux directeurs des médias et journalistes », via leurs organes de formation professionnels respectifs, une information claire sur les mécanismes techniques et technologiques utilisés dans les opérations de manipulation de l’information.

Sur le long terme, « il importe d’investir massivement dans le développement de ces expertises », en les intégrant notamment aux cursus de formation existants dans les domaines régaliens, les médias, les sciences sociales et le numérique. Pour cela, « l’État développera une politique nationale de formation structurée, à destination d’un public d’acteurs clefs ».

À l’horizon 2027, la France structurera et déploiera une Académie de la lutte contre les manipulations de l’information (LMI), au sein de VIGINUM. Elle sera chargée de concevoir et partager des ressources pédagogiques adaptées à chaque public cible, former le plus grand nombre, et développer une « offre de renforcement capacitaire à l’échelle internationale », destinée aux partenaires étrangers souhaitant se doter de structures similaires à VIGINUM.

Une mobilisation de l’ensemble des acteurs de l’éducation

En parallèle, la stratégie nationale vise aussi à déployer une filière complète de long terme, allant de la sensibilisation citoyenne « transgénérationnelle » à la recherche académique « de haut niveau », en mobilisant l’ensemble des acteurs concernés : l’École, l’université, la recherche, les médias, la sphère culturelle et la société civile (OS2).

Au niveau scolaire, cela passera notamment par l’éducation aux médias et à l’information (EMI), l’enseignement moral et civique (EMC), un renforcement de la diffusion des ressources existantes, en particulier produites par le CLEMI et valorisées sur le site éduscol, et la « production de nouvelles ressources pour LUMNI ENSEIGNEMENT en collaboration avec l’INA et FRANCE TV, ainsi que des outils comme l’évolution du projet THE OSINT PROJECT ou la plateforme PIX, dont les usages pédagogiques seront valorisés et démultipliés ».

L’offre académique et les acteurs de l’enseignement supérieur, ainsi que leurs ministères compétents, « seront pleinement mobilisés » pour rappeler à leurs opérateurs l’importance de prendre en considération la LMI et l’éducation critique aux médias et à l’information dans la construction de leurs stratégies de formation.

Des actions de sensibilisation pourront être proposées aux doctorants dans le cadre de l’enseignement obligatoire à l’intégrité scientifique et aux enseignants-chercheurs nouvellement recrutés. Le sujet sera également pris en compte dans le cadre des enseignements de méthodologie dispensés aux étudiants de licence et master.

En parallèle, un réseau des communicants au sein des établissements d’enseignement supérieur et de recherche, des bibliothèques universitaires et des acteurs de formation à l’information scientifique sera mis en place et « facilitera l’accessibilité et la visibilité des travaux et contenus qui éclairent l’actualité, et participent à l’enrichissement du débat public ainsi qu’à la diffusion d’une culture scientifique, à l’attrait et à la démocratisation de la science ».

L’objectif est également de soutenir la recherche interdisciplinaire via des études approfondies sur la reconfiguration de l’économie de l’information en ligne et, plus largement, le paysage informationnel (« modèles d’affaires, architectures techniques, technologies émergentes, chaînes de valeur »), « en intégrant le potentiel de transformation majeur de l’IA générative ».

Favoriser le développement de l’esprit critique, soutenir Wikipedia

Au-delà du système éducatif, l’État mobilisera également les dispositifs d’engagement civique pour « former une jeunesse active dans la défense du débat public, […] structurer un vivier de citoyens actifs face aux manipulations de l’information », et « irriguer l’ensemble du tissu social de formats accessibles à tous » (OS3).

La stratégie s’appuiera aussi sur la diffusion à large échelle de « formats de sensibilisation participatifs » portés par un réseau de référents locaux de personnes formées, issues de l’éducation aux médias et à l’information, de l’éducation populaire, du monde associatif ou de l’Académie de la lutte contre la manipulation de l’information par un réseau de référents locaux (OS4) :

« L’objectif est de favoriser le développement de l’esprit critique, dans une logique d’autonomisation et de sensibilisation à même de remplir les fonctions de défense collective. Cette ambition suppose de multiplier les formats d’intervention adaptés (ateliers, débats, conférences, expériences immersives, etc.), en s’appuyant sur des dynamiques locales, participatives et décentralisées, à destination de tous les publics et sur l’ensemble du territoire. »

Cet OS4 entend « capitaliser » sur les « nombreuses initiatives, allant de l’éducation populaire aux espaces de débat citoyen, [qui] œuvrent déjà à outiller et sensibiliser l’ensemble de la population », tels que l’initiative Café IA, ou des structures comme le CLEMI, ainsi que l’encyclopédie participative Wikipédia :

« Il convient également d’apporter un soutien particulier à la contribution et à la valorisation de ressources telles que Wikipédia, qui bénéficient d’un important capital de confiance et jouent un rôle central dans les usages de vérification de l’information par les Français, sur quelque forme de savoir que ce soit, leur fiabilité et leur qualité reposant directement sur l’engagement et l’étendue de leurs communautés. »

S’inspirer de la loi Avia pour réguler les plateformes et services d’IA

Le second pilier, « Réguler les plateformes en ligne et les services d’intelligence artificielle générative », vise de son côté à « faire évoluer la gouvernance du numérique en responsabilisant les acteurs structurants de l’environnement informationnel – plateformes, moteurs de recherche, fournisseurs de services d’IA – face aux risques systémiques liés aux manipulations de l’information ».

Le SGDSN souligne que « cette architecture algorithmique, sans équivalent dans les médias traditionnels régis par une responsabilité éditoriale claire, soulève des enjeux inédits en matière d’intégrité, de responsabilité, de pluralisme et de transparence ».

Dans ce cadre, l’OS5 « exige de mobiliser tous les leviers possibles offerts par le cadre européen et national » pour pouvoir agir efficacement sur les plateformes numériques et les services d’IA générative, « en particulier pendant les périodes électorales ».

Le règlement européen sur les services numériques (DSA) confie la supervision principale des très grandes plateformes et très grands moteurs de recherche à la Commission européenne. Dans ce contexte, il s’agira notamment de « définir au niveau européen des règles techniques communes et précises permettant aux autorités nationales d’imposer, en période électorale, des mesures concrètes aux plateformes et aux services d’IA – adaptation des systèmes de recommandation, obligations renforcées de modération, exigences de transparence – afin de protéger le débat public ».

L’OS6 vise quant à lui à « établir un cadre de relations et de régulation rigoureux, sous peine de sanctions, entre les plateformes, les fournisseurs d’IA générative, les autorités, les chercheurs et la société civile ».

Le SGDSN avance en effet que les informations utiles à la compréhension des mécanismes de manipulation, des usages des plateformes et des effets des systèmes de recommandation « demeurent aujourd’hui dispersées et inégalement accessibles », ce qui limite la capacité d’analyse partagée et l’expression structurée des besoins des acteurs spécialisés.

Il propose de s’inspirer de l’expérience de l’Observatoire de la haine en ligne mis en place par la loi Avia au CSA en 2020, relancé par l’ARCOM en 2025 et composés de 28 représentants d’associations, de plateformes et d’administrations (contre une cinquantaine auparavant) pour créer un « cadre permanent de dialogue structuré », et doter l’écosystème d’un espace stable de partage d’analyses et de connaissances sur les phénomènes de manipulation de l’information.

Un centre d’excellence et un registre public des supports d’ingérences

L’OS7 poursuivra pour sa part la consolidation des moyens d’analyse des risques informationnels liés à l’IA afin de « créer une capacité d’expertise de référence, capable de qualifier, quantifier et anticiper les effets systémiques de l’IA sur la fiabilité de l’environnement informationnel ».

« Hypertrucages, génération de textes persuasifs, synthèse vocale, clonage d’identités, microciblage algorithmique : l’IA permet aujourd’hui de manipuler l’information à une échelle inédite, de manière difficilement détectable, et à un coût marginal », constate en effet le SGDSN.

L’équipe DATALAB de VIGINUM se transformera dès lors en « centre d’excellence IAxLMI » afin de « fournir des outils et services clés en main aux communautés de vérification de faits, aux médias, aux ONG et chercheurs », mais également « renforcer l’appui à l’ARCOM », au titre des missions découlant du DSA sur la modération et la vérification des algorithmes, « et appuyer les autorités publiques dans l’élaboration de réponses réglementaires ou techniques ».

« De manière complémentaire », souligne le SGDSN, la France doit aussi apporter son soutien aux acteurs de l’écosystème mobilisés dans la LMI, via des appels à coopération ou financements, ainsi que « différents modes de mise en visibilité ».

Enfin, la stratégie nationale s’attaquera aux mécanismes de financement de la manipulation de
l’information par la publicité programmatique et la monétisation des plateformes (OS8), afin de réduire la rentabilité des sites, comptes et chaînes impliqués dans des opérations de manipulation ou des pratiques frauduleuses.

Les algorithmes de recommandation des réseaux sociaux amplifient en effet les contenus « générant le plus d’activité (clics, commentaires, partages, temps de lecture) », et « donnant un avantage indirect aux contenus polarisants voire polémiques » :

« L’intérêt financier que représente la viralité de certaines thématiques peut ainsi motiver des acteurs opportunistes. L’institutionnalisation des programmes de redistribution crée ainsi une « économie » de la manipulation, pouvant favoriser des acteurs produisant massivement des contenus manifestement inexacts ou trompeurs. »

Ce risque, « identifié depuis plusieurs années », connaît une intensification avec l’essor des IA génératives, qui abaissent les coûts de production et de diffusion de contenus à grande échelle, ce qui renforce l’enjeu de régulation des dispositifs de monétisation.

La stratégie prévoit d’abord de définir « à l’échelle nationale » un référentiel cartographiant les dispositifs de monétisation des plateformes, et de « renforcer l’application des obligations de transparence » pour les créateurs et éditeurs établis hors de France diffusant des contenus politiques visant des audiences françaises.

Il est également question d’ « obliger les plateformes à mettre en place un guide de bonne conduite pour les contenus monétisables et prévoir des sanctions en cas de non-respect », d’ « encourager la vérification de l’identité des administrateurs et de la fiabilité des contenus pour l’éligibilité aux programmes de monétisation », et d’ « exiger la suspension du financement de comptes diffusant de manière répétée ou coordonnée des informations trompeuses à des fins lucratives, avec transparence sur les comptes concernés ».

Un registre public, librement accessible sous formats interopérables (fichiers téléchargeables, API), pour intégration dans les outils des agences médias, plateformes publicitaires et acteurs publics, recensera en outre les « sites ou chaînes identifiés comme supports manifestes d’ingérences numériques étrangères ».

« Il reposera sur des évaluations indépendantes associant journalistes, chercheurs, experts OSINT, organisations indépendantes, et entités étatiques compétentes telles que VIGINUM », précise le SGDSN :

« Les critères d’inclusion seront transparents : caractère manipulatoire des contenus, absence de transparence éditoriale, participation à des campagnes coordonnées. Il sera mis à jour régulièrement, horodaté, avec un dispositif contradictoire permettant aux éditeurs de contester leur inclusion. »

Un troisième article reviendra plus en détail sur les mesures opérationnelles de détection et de réponse aux ingérences numériques, la stratégie industrielle destinée à structurer l’écosystème OSINT, le volet international de la stratégie, et les nombreuses initiatives lancées par et avec VIGINUM.

☕️ La Russie veut autoriser le FSB à couper l’accès à Internet et la téléphonie mobile

18 février 2026 à 15:17

La Russie veut obliger les fournisseurs d’accès à Internet et de téléphonie mobile à se conformer aux ordres du service de sécurité intérieure russe FSB, successeur du KGB, visant à interrompre les services de télécommunications, rapporte The Moscow Times.

Le projet de loi, adopté mardi par la Douma d’État, chambre basse du Parlement russe, est censé contribuer à protéger les Russes et les institutions publiques contre les menaces pour la sécurité tout en préservant les entreprises de télécommunications de poursuites judiciaires. Et ce, alors que les régions du pays sont de plus en plus confrontées à des perturbations généralisées de l’internet et des réseaux mobiles en raison des attaques de drones ukrainiens, souligne le Moscow Times.

Le projet de loi, qui a été approuvé par 393 législateurs (sur 450, avec 13 voix contre), a depuis subi plusieurs modifications, notamment la suppression des références aux « menaces pour la sécurité » comme justification des fermetures et la modification des pouvoirs accordés au FSB, qui passent de la délivrance de « demandes » à celle d’« exigences » contraignantes.

Outre les services Internet et mobiles, le projet de loi permettrait également aux responsables de la sécurité de bloquer les appels téléphoniques, les SMS et même les services postaux, a déclaré Igor Lebedev, vice-ministre russe des Communications.

Pour entrer en vigueur, les modifications apportées à la loi russe sur les communications doivent encore être approuvées par le Conseil de la Fédération, la chambre haute du Parlement, et signées par Vladimir Poutine.

The Moscow Times, dont la rédaction s’est relocalisée à Amsterdam suite à l’invasion de l’Ukraine par la Russie, a depuis été classé « organisation indésirable » et l’accès à son site web est bloqué par le Roskomnadzor dans le pays.

Aux Pays-Bas, nouveau scandale autour d’un algorithme de prédiction de la récidive

18 février 2026 à 14:55
ML récidiviste
Aux Pays-Bas, nouveau scandale autour d’un algorithme de prédiction de la récidive

Aux Pays-Bas, le ministère de la Justice vient de mettre au jour les dysfonctionnements d’un système algorithmique déployé pour tenter de prévoir la récidive d’individus suspects ou condamnés. Alors que l’administration cherche à le réparer, des défenseurs des droits humains soulignent que ce type d’usage du machine learning est critiqué depuis une décennie.

Un nouveau système algorithmique prompt aux erreurs a été épinglé aux Pays-Bas. Ce 12 février, le ministère de la Justice néerlandais a publié un rapport relatif au système utilisé par les services de probation Reclassering Nederland pour évaluer le risque de récidive chez les détenus déjà condamnés comme chez les personnes en détention provisoire.

L’audit fait partie intégrante d’un travail plus large sur les systèmes algorithmiques utilisés à travers l’administration, lui-même initié à la suite de deux scandales relatifs à des outils biaisés.

Pendant près d’une dizaine d’années, l’administration fiscale néerlandaise a en effet recouru à un système qui a demandé des sommes faramineuses et indues à des familles généralement ciblées pour leurs origines étrangères. De même, des systèmes de détection de fraude aux prêts étudiants accusaient beaucoup plus fréquemment les étudiants issus de minorités ethniques, donc à leur faire subir plus fréquemment des contrôles.

Consommation de drogues et problématiques psychologiques non pris en compte

Dans le cas présent, le système algorithmique incriminé a été utilisé pour traiter de l’ordre de 44 000 cas par an, et aider à évaluer si ces personnes risquaient plus ou moins de récidiver.

Un tel cas d’usage rappelle les premiers grands travaux sur les travers que ce type d’outils créent sur le terrain en termes d’égalité devant la loi. En 2016, le journal ProPublica publiait ainsi une enquête au long cours démontrant qu’aux États-Unis le système COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) qualifiait beaucoup plus fréquemment les suspects noirs de risque de récidives que les suspects blancs, à tort.

Dans le cas néerlandais, le système, nommé OxRec, fournit de mauvais résultats dans 20 % des cas et ne correspond pas aux standards gouvernementaux d’utilisation. Depuis 2018, les formules normalement utilisées pour évaluer les personnes déjà condamnées et suspectes ont été inversées, la consommation de drogues n’est pas correctement prise en compte, et les problématiques psychologiques graves ne sont pas prises en considération, relève l’enquête administrative. Le système a par ailleurs été entraîné sur d’anciennes données issues de prisons suédoises, et non sur la population des prisons néerlandaises.

Pause avant remise en service

Suite à ce rapport, Reclassering Nederlands a stoppé l’utilisation d’OxRec. Le ministère de la Justice néerlandais a en revanche expliqué « chercher à le remettre en service dès que toutes les améliorations auront été déployées, car une utilisation responsable de cet algorithme contribue à l’efficacité et à la cohérence des conseils en termes de probation », souligne sur LinkedIn Alexander Laufer, chercheur auprès d’Amnesty International.

Pour les enquêteurs du ministère de la Justice, le plus gros risque que posent les dysfonctionnements du système est en effet que des probabilités de récidive aient été sous-évaluées.

En 2020, des scientifiques avaient quant à eux émis une alerte sur l’usage des codes postaux dans OxRec, expliquant que cela pouvait mener de manière indirecte à des logiques de profilage ethnique. D’après la directrice du service de probation Jessica Westerik, ces alertes avaient été prises « très au sérieux », mais les services avaient conclu qu’il existait suffisamment de preuves scientifiques pour considérer que l’adresse et les revenus étaient des paramètres.

Alexander Laufer, lui, rappelle que la prédiction de la récidive est « une des applications les plus controversées » du machine learning, et que le consensus scientifique estime désormais « (1) que ça ne fonctionne pas et (2) que ç’a des conséquences discriminatoires sévères et imprévisibles », y compris en termes d’accès à un procès équitable.

☕️ Pédopornographie genAI: le gouvernement espagnol à l’offensive contre X, Meta et TikTok

18 février 2026 à 14:21

« L’impunité des géants doit cesser », affirmait le Premier ministre espagnol, Pedro Sánchez, dans un message diffusé sur le réseau social X ce mardi 17 février. Il y annonçait ainsi que le gouvernement espagnol allait demander à la justice « d’enquêter sur les délits que X, Meta et TikTok pourraient commettre en créant et en diffusant de la pornographie infantile par le biais de leurs IA ».

« Ces plateformes portent atteinte à la santé mentale, à la dignité et aux droits de nos enfants », a-t-il ajouté, « l’État ne peut pas l’admettre ».

L’agence Reuters rapporte qu’un jeune Espagnol sur cinq, principalement des filles, affirme que des deepnudes d’elles et eux ont été créées par l’IA et partagées en ligne alors qu’ils et elles étaient mineurs, a déclaré le bureau de Sanchez, citant l’organisation de défense des droits Save the Children.

Jusque-là, c’est X et les deepfakes de Grok qui étaient surtout visés par des menaces judiciaires, mais le gouvernement espagnol semble élargir sa cible à Meta et TikTok sans pour autant détailler les reproches qu’il leur fait.

« TikTok dispose de systèmes robustes pour contrecarrer les tentatives d’exploitation ou de préjudice envers les jeunes, et nous continuons à donner la priorité et à investir dans des technologies de pointe afin de garder une longueur d’avance sur les acteurs malveillants », affirme le réseau social de partage de vidéos dans un communiqué envoyé à Reuters, tandis que X et Meta n’ont pas répondu à nos confrères sur le sujet.

Addiction aux réseaux sociaux : Meta a enterré une recherche qui ne lui convenait pas

18 février 2026 à 13:01
Sous le tapis
Addiction aux réseaux sociaux : Meta a enterré une recherche qui ne lui convenait pas

L’affaire qui oppose, aux États-Unis, une jeune femme aux plateformes de réseaux sociaux documente la façon dont Meta gère les recherches internes que l’entreprise lance sur les conséquences de ses produits. Des emails montrent ainsi que des travaux sont enterrés quand ils ne vont pas dans le sens de l’entreprise.

La semaine dernière s’est ouvert aux États-Unis le procès opposant Meta et Google à une plaignante âgée de 20 ans, Kaley G. M., et sa mère, qui les accusent de provoquer et entretenir l’addiction chez les jeunes. Comme nous l’expliquions, Snap et TikTok ont aussi été mis en cause mais ces deux entreprises ont préféré négocier un accord avec les plaignantes.

Les techniques pour attirer et garder l’auditoire de YouTube mais aussi des plateformes de réseaux sociaux Facebook et Instagram de Meta vont donc être particulièrement scrutées pendant ce procès.

Mais l’avocat de Kaley G. M, Mark Lanier, profite de l’accès aux documents internes de Meta que lui offre ce procès pour pointer la façon dont Meta choisit de rendre publiques ou pas, voire d’abandonner totalement les recherches que l’entreprise fait sur l’utilisation de ses produits.

Une étude interne de Meta qui remonte via le procès

En effet, comme nous en faisions part récemment, de plus en plus de recherches sur le numérique sont menées en lien avec les entreprises du secteur. Souvent, les auteurs n’informent pas correctement sur les liens qui les relient à Meta, X, Google ou Microsoft, par exemple. Ainsi, 29 % des articles scientifiques à propos des réseaux sociaux oublient de mentionner leurs liens d’intérêt.

Dans ce procès, Mark Lanier a mis en avant une étude menée par Meta en collaboration avec des chercheurs de l’Université de Chicago qui, selon lui, montre que le fait que les parents surveillent de près l’utilisation par leurs ados des réseaux sociaux n’a que très peu d’effet sur une utilisation compulsive ou non. Cette étude, nommée « Project Myst » pour Meta and Youth Social Emotional Trends, sondait 1 000 adolescents et leurs parents à propos de leurs usages des réseaux sociaux, explique Associated Press.

L’avocat n’a pas diffusé l’entièreté de l’étude, mais cite trois extraits repris par l’association The Tech Oversight Project. L’un affirme que « les facteurs parentaux et familiaux ont peu d’influence sur le niveau d’attention que les adolescents déclarent accorder à leur utilisation des réseaux sociaux ». Le deuxième conclut qu’ « il n’y a aucun lien entre ce que rapportent les parents et les adolescents concernant la surveillance/l’accompagnement numérique des parents et les mesures de l’attention ou des capacités des adolescents telles qu’elles ressortent de l’enquête ». Et le troisième que « les adolescents qui ont déclaré avoir vécu un plus grand nombre d’expériences négatives dans leur enfance, telles qu’une relation étroite avec une personne ayant des problèmes d’alcoolisme ou souffrant d’alcoolisme, ou avoir été victimes d’intimidation ou de harcèlement à l’école, ont déclaré être moins attentifs à leur utilisation des réseaux sociaux ».

Sans publication, des interprétations divergentes

Selon TechCrunch, Mark Lanier a interprété devant la Cour ces conclusions de l’étude comme le fait que les outils de contrôle parental d’Instagram ou ceux de limitation du temps d’utilisation sur les smartphones n’auraient pas vraiment d’effet sur l’utilisation excessive des réseaux sociaux sur les ados. Pour autant, il est difficile d’aller dans son sens ou de conclure autre chose sans avoir accès à l’étude en question.

Nos confrères soulignent que, bien qu’un document semble montrer qu’il a donné son accord pour la mise en place de MYST, le patron d’Instagram, Adam Mosseri, a affirmé dans son témoignage ne pas se rappeler du projet : « Nous menons de nombreux projets de recherche », a-t-il affirmé devant la Cour.

Les avocats de Meta ont plus insisté sur le fait que l’étude cherchait à déterminer non pas si les adolescents étaient réellement dépendants, mais s’ils avaient le sentiment d’utiliser trop les réseaux sociaux. Concernant l’utilisation excessive des réseaux sociaux par les adolescents, ils ont mis l’accent sur la responsabilité des parents et les problèmes rencontrés dans la vie plutôt que sur les produits de leur client, pointant le divorce des parents de Kaley, son père violent et le harcèlement qu’elle a subi à l’école.

☕️ Pollution de l’air : les data centers de xAI continuent d’outrepasser la réglementation

18 février 2026 à 11:04

Après Memphis, Southaven, de l’autre côté de la frontière entre le Tennessee et le Mississippi. Aux États-Unis, la société d’Elon Musk xAI continue de défier les réglementations environnementales en recourant à des générateurs illégaux au gaz pour alimenter ses centres de données.

Depuis 2025, le supercalculateur Colossus que xAI a construit à Memphis est critiqué par la population locale et des associations de défense de l’environnement pour la pollution à l’oxyde d’azote que ses générateurs rejettent dans l’air.

Sollicitée, l’agence états-unienne de la protection de l’environnement (EPA) a rappelé qu’en vertu du Clean Air Act (loi sur la qualité de l’air), l’usage de ce type de générateur était soumis à autorisation. Le comté dans lequel se trouve Colossus a finalement autorisé 15 turbines, alors que le data center en utilisait initialement plus d’une trentaine.

Depuis ces premiers aléas, cela dit, xAI a créé Colossus 2, un deuxième data center situé juste à côté du premier. Pour l’alimenter en énergie, l’entreprise recourt de nouveau à des turbines à gaz, stockées de l’autre côté de la frontière.

Hanna Barakat & Archival Images of AI + AIxDESIGN / Better Images of AI / Weaving Wires 2 / CC-BY 4.0

Auprès du Guardian, les habitants témoignent de leurs inquiétudes, que ce soit vis-à-vis de la pollution sonore ou de l’air – d’après l’une des résidentes, Shannon Samsa, la ville compte « au moins 10 écoles dans un rayon de trois kilomètres autour du bâtiment ». Les pollutions émises au fil de leur fonctionnement ont été liées à diverses problématiques de santé comme l’asthme, le cancer du poumon ou des attaques cardiaques.

D’après les images thermiques récupérées par le média Floodlight, néanmoins, le centre de données de Southaven continue d’être alimenté grâce à ses générateurs. Depuis novembre, 18 des 27 turbines présentes, dont au moins 15 n’ont aucun permis, ont été utilisées.

Saisis, les régulateurs du Mississippi ont estimé que les turbines incriminées n’avaient pas besoin d’autorisation dans la mesure où elles sont stockées sur des remorques. Entité d’autorité nationale, l’EPA, elle, a statué en janvier : remorques ou non, ce type de dispositif ne peut être utilisé qu’après demande d’autorisation. À défaut, la moindre exception pourrait « permettre que ces engins fonctionnent en dehors de toute limitation d’émission », indique-t-elle dans sa décision (.pdf).

[Test] VPS pas cher (5 euros) : OVHcloud, la force tranquille, équilibrée et très stable

18 février 2026 à 10:19
Force tranquille force tranquille, on est revenus en 1981 ?
[Test] VPS pas cher (5 euros) : OVHcloud, la force tranquille, équilibrée et très stable

Dans le monde des VPS, OVHcloud est une valeur sûre avec une stabilité sans pareil d’après nos mesures. L‘hébergeur est par contre éternel second sur nos catégories de benchmarks, sauf sur le stockage où il arrive en tête.

OVHcloud est le géant français de l’Internet, que ce soit sur les noms de domaine, l’hébergement ou les serveurs. La gamme VPS a été renouvelée l’année dernière, avec un positionnement agressif. La gamme est facile à suivre avec des offres qui s’échelonnent de VPS-1 à VPS-6.

4 vCores (Haswell), mais seulement 400 Mb/s de bande passante

Elle propose de 4 à 24 vCores avec 8 à 96 Go de mémoire et 75 à 400 Go de stockage. Ce n’est pas la seule différence. Si le trafic est illimité sur l’ensemble de la gamme, la bande-passante est plus ou moins bridée. Sur l’entrée de gamme, il faut se contenter de 400 Mb/s (c’est peu comparé à la concurrence), alors que le VPS-2 est à 1 Gb/s et le plus haut de gamme à 3 Gb/s.

Nos tests sur VPS-1 confirment la limitation avec 380 Mb/s de moyenne environ. Dommage car sinon OVHcloud avait de bons résultats sur la partie réseau. Pour rappel, le roubaisien développe son propre réseau avec 44 points de présence et une capacité de 100 Tb/s au niveau mondial.

Plusieurs choix de localisation en France, en Europe et dans le monde

OVHcloud propose une large gamme de localisations pour ses VPS, en France, en Europe et ailleurs dans le monde. La disponibilité est fluctuante : si une localisation n’est pas disponible un jour, elle peut rapidement revenir le lendemain, et vice-versa.

Côté système d’exploitation, le choix est varié : Ubuntu 25.04, Debian 13, Fedora 41, AlmaLinux 10, Rocky Linux 10, CloudLinux 9, FreeBSD 14.3 et Windows Server 2025 (ajoutez 9 euros par mois). « La sauvegarde automatique » est incluse, mais la sauvegarde Premium est à 2,2 euros par mois avec « avec restauration sur 7 jours glissants ».

Vous pouvez aussi demander l’option Snapshot Backup à 0,60 euro par mois pour créer « une image de votre serveur quand vous le souhaitez ». Lors de la prise d’un snapshot, l’interface précise : « attention votre VPS sera inaccessible pendant cette opération et tout snapshot antérieur sera perdu ».

Avec les VPS, OVHcloud permet d’ajouter du stockage, de 50 à 500 Go, pour respectivement 2,58 à 25,85 euros dans notre cas. L’hébergeur propose aussi des « bases de données fiables, performantes et 100% managées par OVH », à partir de 7,91 euros par mois pour 512 Mo.

Notre VPS-1 est à 5,39 euros par mois sans engagement, mais OVHcloud pratique des remises si vous vous engagez sur six mois ou un an, avec un prix mensuel qui passe à respectivement 5,14 et et 4,58 euros (mais vous devez payer directement six ou douze mois).

OVHcloud au-dessus de la moyenne partout

Les informations retournées par notre VPS sur le processeur étaient simplement « Intel Core Processor (Haswell, no TSX) ». Haswell est une génération de processeurs lancée à partir de 2013 par Intel. L’année dernière, OVHcloud nous indiquait que tous les VPS avaient des cœurs x86, mais sans plus d’engagement sur la gamme ni le fabricant (Intel ou AMD).

C’est pour rappel le souci de tous les VPS (et pas que chez OVHcloud) : l’hébergeur alloue des cœurs, mais il peut mettre un peu ce qu’il veut derrière, avec de grandes conséquences sur les performances comme nous l’avons vu avec Ionos en EPYC d’AMD.

Voici un diagramme de Kiviat (radar ou étoile, au choix) avec, en pointillé, la moyenne de tous les VPS et en violet/rose notre VPS OVHcloud. Plus la zone colorée est importante, plus les performances sont élevées.

Comme avec nos précédents tests (et les futurs à venir), vous pouvez également retrouver l’ensemble de nos mesures sur le VPS OVHcloud dans cette feuille de calcul ODS. Vous pouvez aussi consulter le rapport Geekbench à cette adresse.

Premier sur les performances du stockage, deuxième sur le reste

Sur les performances pures du CPU, OVHcloud est en dessous de Ionos (pas de surprise, le CPU est bien plus ancien). Sur quatre cœurs Sysbench CPU, notre VPS obtient un score de 3 020 environ, contre 3 450 pour celui de Ionos… mais sur un seul cœur. Sur Sysbench mémoire par contre OVHcloud arrive largement en tête.

Le Roubaisien est en première position sur le stockage avec des débits largement au-dessus de la concurrence en écriture séquentielle (680 Mo/s), en écriture aléatoire sur des fichiers de 4 ko (1 420 Mo/s) et enfin sur un mélange de lecture et écriture.

OVHcloud se place en seconde position sur Geekbench, loin derrière Ionos. Il est aussi deuxième sur l’Index Score d’Unixbench, mais cette fois-ci juste derrière Ionos. OVHcloud obtient 756 points avec un cœur et 2 292 points avec tous les cœurs, contre respectivement 1 288 et 3 892 points pour Ionos.

Sur le réseau, les latences vers Londres, Amsterdam et New York sont excellentes, mais OVHcloud est pénalisé dans nos tests par sa limite à 400 Mb/s en bande passante, là où les autres dépassent parfois 1 et même 2 Gb/s. À cause de cette limite, OVHcloud est à la troisième place sur notre catégorie des tests réseau, il aurait été deuxième avec une limite à 1 Gb/s. C’est un choix de segmentation d’OVHcloud car, pour rappel, à partir de VPS-2 la bande passante est de 1 Gb/s.

Du choix sur les OS et la localisation, attention à la dispo

OVHcloud est d’une certaine manière la force tranquille : la société dispose de son propre réseau, gère son infrastructure de serveurs et ses propres datacenters. Là où OVHcloud se démarque vraiment, c’est sur la stabilité des performances : sur l’ensemble des cinq séries de mesures sur l’ensemble des benchmarks, l’écart moyen est sous les 2 %,.

OVHcloud a aussi l’avantage de proposer plusieurs localisations pour les serveurs, avec du choix précis en France (Gravelines ou Strasbourg) comme en Europe ou ailleurs dans le monde, avec un large choix de systèmes d’exploitation. La disponibilité est par contre un vrai sujet, il n’est pas rare ces derniers temps de voir les sites français indisponibles pour de nouveaux VPS, mais aussi pour augmenter la capacité des existants.

Un exemple sur notre VPS, à Gravelines, nous avons voulu passer à la gamme du dessus : « Une erreur est survenue lors de la récupération des informations pour passer à la nouvelle gamme. Sorry we are out of stock in region GRA6 ».

Pour aller plus loin, consultez les autres articles de notre série :

☕️ Google programme sa conférence I/O aux 19 et 20 mai

18 février 2026 à 09:42

Google n’a pas dérogé à son calendrier. Sa conférence annuelle dédiée aux développeurs, la Google I/O, se tiendra comme tous les ans fin mai, dans ses locaux de Mountain View, avec une diffusion en ligne des principales sessions.

L’entreprise a confirmé mardi les dates définitives de l’événement, les 19 et 20 mai prochains. « Connectez-vous pour découvrir nos dernières avancées en matière d’IA et les mises à jour de nos produits dans toute l’entreprise, de Gemini à Android et bien plus encore », promet Google.

Annonce des dates de la conférence Google I/O 2026

En 2025, l’événement annuel de Google avait, sans trop de surprise, accordé une place prépondérante à l’IA, avec une foule d’annonces relatives aux modèles Gemini, ainsi qu’à l’intégration progressive de fonctions d’IA générative au sein du moteur de recherche emblématique du groupe.

Google ne communique à ce stade aucun élément du programme de la conférence I/O 2026, mais il ne fait guère de doute que ses annonces suivront la même tendance, dans un contexte de concurrence accrue entre les poids lourds de l’IA générative.

Sur le volet mobile, Google vient tout juste de mettre en ligne la première bêta d’Android 17 destinée aux développeurs.

L’enregistrement à la Google I/O 2026 est ouvert sur le site dédié.

❌