Vue normale

Bercy informe d’une intrusion dans le Ficoba : 1,2 million de comptes exposés

18 février 2026 à 19:09
Ginkgo Ficoba
Bercy informe d’une intrusion dans le Ficoba : 1,2 million de comptes exposés

Bercy a informé mercredi soir, par voie de communiqué, d’une intrusion dans le fichier national des comptes bancaires et assimilés (Ficoba), qui liste tous les comptes bancaires ouverts en France. Les services de la DGFiP assurent que les accès illégitimes ont été restreints, mais préviennent que les données de 1,2 million de comptes ont pu être exposées.

Dans une actualité marquée à la fois par la récurrence des fuites de données et par les velléités grandissantes de constitution de fichiers centralisés, l’incident revêt une portée symbolique particulière. Cette fois, ce sont en effet les services de Bercy qui informent, mercredi en fin d’après-midi, d’une intrusion dans un fichier particulièrement sensible : le Ficoba, ou fichier national des comptes bancaires et assimilés, qui liste tous les comptes bancaires ouverts, mais aussi les coffres-forts loués en France.

1,2 million de comptes exposés

L’intrusion a pris la forme d’un accès non autorisé, que le service de presse de Bercy décrit de la façon suivante :

« A compter de la fin janvier 2026, un acteur malveillant, qui a usurpé les identifiants d’un fonctionnaire disposant d’accès dans le cadre de l’échange d’information entre ministères, a pu consulter une partie de ce fichier qui recense l’ensemble des comptes bancaires ouverts dans les établissements bancaires français et contient des données à caractère personnel : coordonnées bancaires (RIB / IBAN), identité du titulaire, adresse et, dans certains cas, l’identifiant fiscal de l’usager. »

Les finances publiques assurent que dès détection de l’incident, « des mesures immédiates de restriction d’accès ont été mises en œuvre afin de stopper l’attaque, de limiter l’ampleur des données consultées et extraites de cette base ».

Le périmètre exposé concernerait tout de même 1,2 million de comptes, qui devraient faire l’objet d’une prise de contact : « Les usagers concernés recevront dans les prochains jours une information individuelle les alertant qu’un accès à leurs données a pu être constaté. »

Outre le dépôt de plainte et la notification à la CNIL exigés en de telles circonstances, Bercy indique s’être rapproché des établissements bancaires afin que ces derniers participent à la sensibilisation des contribuables concernés.

Le ministère précise enfin que les services et agences de l’État, parmi lesquels son service du haut fonctionnaire de défense et de sécurité (HFDS) et l’Agence nationale de la sécurité des systèmes d’information (ANSSI) sont mobilisés autour de la sécurisation du système d’information concerné.

Le Ficoba enregistre, d’après la CNIL, les informations de plus de 80 millions de personnes physiques, françaises ou non, qui ont un compte bancaire en France. Il répertorie les données d’identification du titulaire, les éléments d’identification du compte et ses dates d’ouverture ou de modification. Il ne liste en revanche « aucun élément concernant l’historique des opérations effectuées sur le compte concerné ou sur son solde ».

La combinaison des informations exposées se prête néanmoins à des scénarios d’ingénierie sociale poussés, à l’instar des données volées récemment sur la plateforme Choisir le service public.

Bercy recommande par ailleurs un « rappel de vigilance à destination des usagers », en trois points :

  • alors que de nombreuses tentatives d’escroqueries circulent par courriel ou SMS dans le but d’obtenir des informations ou des paiements de la part des usagers, « au moindre doute, il est préférable de ne pas répondre directement » ;
  • l’administration fiscale « ne vous demande jamais vos identifiants ou votre numéro de carte bancaire par message », et « même si l’expéditeur semble être un interlocuteur de la DGFiP, contactez directement votre service des impôts via la messagerie sécurisée de votre espace ou par téléphone afin de vérifier l’authenticité du message reçu » ;
  • en cas de suspicion de l’utilisation frauduleuse de vos données personnelles, « nous vous recommandons de conserver toutes les preuves (messages, adresse du site web, captures d’écran…) », mais également de s’appuyer sur les ressources du site cybermalveillance.gouv.fr.

Sur le sujet, consultez également notre guide :

Comment la France entend concrètement lutter contre les manipulations de l’information

18 février 2026 à 15:53
« Faites vos propres recherches » reloaded
Comment la France entend concrètement lutter contre les manipulations de l’information

La Stratégie nationale de lutte contre les manipulations de l’information dresse un très ambitieux plan de bataille visant à sensibiliser voire former l’ensemble des Français à la lutte contre les manipulations de l’information, qui s’inspire en bonne partie des méthodes en vigueur en matière de renseignement d’origine sources ouvertes (OSINT).

La première « Stratégie nationale de lutte contre les manipulations de l’information 2026 - 2030 » du Secrétariat de la défense et de la sécurité nationale (SGDSN, cf notre premier article de présentation) « repose sur trois principes fondamentaux : l’ouverture, l’action en réseau et l’intégration », largement inspirés des méthodes en vigueur en matière de renseignement d’origine sources ouvertes (OSINT).

Contrairement à d’autres champs de la sécurité nationale fondés sur la confidentialité, la lutte contre les manipulations de l’information « s’appuie, dans une large mesure, sur des méthodes et des ressources publiquement accessibles », privilégiant « la transparence, la vérifiabilité, et la mobilisation de l’ensemble des parties prenantes », résume le SGDSN.

Ce « choix stratégique », qualifié de « changement important de paradigme » en matière de sécurité nationale, « sera renforcé et rendu régulier », à mesure qu’il « vise à permettre la reproduction, la vérification, la contestation et la contribution par des acteurs tiers », ainsi que la validation par les pairs :

« Cette logique d’ouverture et de transparence est un levier de renforcement démocratique : en donnant au public les moyens de comprendre les mécanismes de manipulation, elle réduit leur efficacité. Une campagne de manipulation informationnelle ne peut opérer durablement sans opacité. La transparence devient ainsi un outil préventif autant que curatif, contribuant à une meilleure appropriation citoyenne des enjeux liés à l’ingérence numérique étrangère. »

L’action en réseau repose de son côté sur une « mobilisation distribuée », s’appuyant sur une logique de coopération entre les administrations, institutions, acteurs techniques, régulateurs, chercheurs, médias, plateformes, ainsi que la société civile et les citoyens, « chacun à son niveau de responsabilité ».

L’intégration renvoie de son côté à « une exigence de partage de l’information, dans le respect des impératifs de sécurité ». Le renforcement de la confiance mutuelle entre acteurs publics et privés « repose sur la circulation maîtrisée de ce qui est su, de ce qui est en cours d’évaluation, et de ce qui demeure encore incertain », précise le SGDSN.

Faire collectif à l’échelle du pays, et au-delà

La stratégie en elle-même s’articule autour de quatre priorités et piliers structurants, eux-mêmes déclinés en quinze objectifs stratégiques (OS) afin de « consolider l’avance de la France dans la préservation de l’intégrité du débat public et de prolonger ses efforts de résilience démocratique face aux manipulations de l’information ».

« Face à l’ampleur de la menace, l’enjeu central identifié de la stratégie est la constitution et l’animation d’un collectif à l’échelle du pays, et au-delà, dans une logique de réponse concertée à l’échelle internationale », ce qui induit :

  • « d’impliquer l’ensemble de la population dans la compréhension des phénomènes de manipulation ;
  • de partager largement l’information utile à la prévention et à la détection de ces phénomènes ;
  • de renforcer la capacité d’action des entités publiques et des acteurs de terrain ;
  • de mutualiser les ressources opérationnelles disponibles afin d’assurer une réponse coordonnée et efficace. »

Une nouvelle génération de professionnels hautement qualifiés

Le premier pilier vise à « renforcer la résilience de la société dans son ensemble, en agissant sur les facteurs cognitifs, sociaux, éducatifs et culturels que ces manipulations exploitent ». Intitulé « Mobiliser la Nation pour renforcer sa résilience », il entend « mobiliser les leviers éducatifs, associatifs, scientifiques et citoyens sur l’ensemble du territoire » afin de faire de chaque citoyen un acteur éclairé contre la manipulation de l’information.

« La première condition de cette résilience est la constitution d’une capacité nationale d’expertise, apte à détecter, caractériser et comprendre les opérations de manipulation de l’information (OS1) », précise le SGDSN, afin « d’assurer la fiabilité de l’environnement informationnel national au sens large, qu’il soit numérique ou non ».

Les connaissances, savoir-faire et réflexes associés « doivent pouvoir être intégrés dans l’ensemble des structures déterminantes pour le fonctionnement du pays ». Ce qui « requiert des adaptations organisationnelles mais aussi l’existence d’une nouvelle génération de professionnels hautement qualifiés » dans des domaines aussi variés que la veille stratégique, l’analyse des réseaux sociaux, l’évaluation des manipulations algorithmiques, l’utilisation malveillante des systèmes d’IA, l’investigation numérique ou encore la compréhension technique des dynamiques informationnelles.

Or, ce champ « souffre dès lors d’une pénurie de compétences, accentuée par une sous-représentation sociale et de genres, caractéristique plus large du secteur numérique », et par un « manque d’alignement entre les profils formés et les besoins réels du terrain ».

« À court terme, il importe de fournir à l’ensemble des décideurs locaux et nationaux, aux cadres de l’administration ainsi qu’aux directeurs des médias et journalistes », via leurs organes de formation professionnels respectifs, une information claire sur les mécanismes techniques et technologiques utilisés dans les opérations de manipulation de l’information.

Sur le long terme, « il importe d’investir massivement dans le développement de ces expertises », en les intégrant notamment aux cursus de formation existants dans les domaines régaliens, les médias, les sciences sociales et le numérique. Pour cela, « l’État développera une politique nationale de formation structurée, à destination d’un public d’acteurs clefs ».

À l’horizon 2027, la France structurera et déploiera une Académie de la lutte contre les manipulations de l’information (LMI), au sein de VIGINUM. Elle sera chargée de concevoir et partager des ressources pédagogiques adaptées à chaque public cible, former le plus grand nombre, et développer une « offre de renforcement capacitaire à l’échelle internationale », destinée aux partenaires étrangers souhaitant se doter de structures similaires à VIGINUM.

Une mobilisation de l’ensemble des acteurs de l’éducation

En parallèle, la stratégie nationale vise aussi à déployer une filière complète de long terme, allant de la sensibilisation citoyenne « transgénérationnelle » à la recherche académique « de haut niveau », en mobilisant l’ensemble des acteurs concernés : l’École, l’université, la recherche, les médias, la sphère culturelle et la société civile (OS2).

Au niveau scolaire, cela passera notamment par l’éducation aux médias et à l’information (EMI), l’enseignement moral et civique (EMC), un renforcement de la diffusion des ressources existantes, en particulier produites par le CLEMI et valorisées sur le site éduscol, et la « production de nouvelles ressources pour LUMNI ENSEIGNEMENT en collaboration avec l’INA et FRANCE TV, ainsi que des outils comme l’évolution du projet THE OSINT PROJECT ou la plateforme PIX, dont les usages pédagogiques seront valorisés et démultipliés ».

L’offre académique et les acteurs de l’enseignement supérieur, ainsi que leurs ministères compétents, « seront pleinement mobilisés » pour rappeler à leurs opérateurs l’importance de prendre en considération la LMI et l’éducation critique aux médias et à l’information dans la construction de leurs stratégies de formation.

Des actions de sensibilisation pourront être proposées aux doctorants dans le cadre de l’enseignement obligatoire à l’intégrité scientifique et aux enseignants-chercheurs nouvellement recrutés. Le sujet sera également pris en compte dans le cadre des enseignements de méthodologie dispensés aux étudiants de licence et master.

En parallèle, un réseau des communicants au sein des établissements d’enseignement supérieur et de recherche, des bibliothèques universitaires et des acteurs de formation à l’information scientifique sera mis en place et « facilitera l’accessibilité et la visibilité des travaux et contenus qui éclairent l’actualité, et participent à l’enrichissement du débat public ainsi qu’à la diffusion d’une culture scientifique, à l’attrait et à la démocratisation de la science ».

L’objectif est également de soutenir la recherche interdisciplinaire via des études approfondies sur la reconfiguration de l’économie de l’information en ligne et, plus largement, le paysage informationnel (« modèles d’affaires, architectures techniques, technologies émergentes, chaînes de valeur »), « en intégrant le potentiel de transformation majeur de l’IA générative ».

Favoriser le développement de l’esprit critique, soutenir Wikipedia

Au-delà du système éducatif, l’État mobilisera également les dispositifs d’engagement civique pour « former une jeunesse active dans la défense du débat public, […] structurer un vivier de citoyens actifs face aux manipulations de l’information », et « irriguer l’ensemble du tissu social de formats accessibles à tous » (OS3).

La stratégie s’appuiera aussi sur la diffusion à large échelle de « formats de sensibilisation participatifs » portés par un réseau de référents locaux de personnes formées, issues de l’éducation aux médias et à l’information, de l’éducation populaire, du monde associatif ou de l’Académie de la lutte contre la manipulation de l’information par un réseau de référents locaux (OS4) :

« L’objectif est de favoriser le développement de l’esprit critique, dans une logique d’autonomisation et de sensibilisation à même de remplir les fonctions de défense collective. Cette ambition suppose de multiplier les formats d’intervention adaptés (ateliers, débats, conférences, expériences immersives, etc.), en s’appuyant sur des dynamiques locales, participatives et décentralisées, à destination de tous les publics et sur l’ensemble du territoire. »

Cet OS4 entend « capitaliser » sur les « nombreuses initiatives, allant de l’éducation populaire aux espaces de débat citoyen, [qui] œuvrent déjà à outiller et sensibiliser l’ensemble de la population », tels que l’initiative Café IA, ou des structures comme le CLEMI, ainsi que l’encyclopédie participative Wikipédia :

« Il convient également d’apporter un soutien particulier à la contribution et à la valorisation de ressources telles que Wikipédia, qui bénéficient d’un important capital de confiance et jouent un rôle central dans les usages de vérification de l’information par les Français, sur quelque forme de savoir que ce soit, leur fiabilité et leur qualité reposant directement sur l’engagement et l’étendue de leurs communautés. »

S’inspirer de la loi Avia pour réguler les plateformes et services d’IA

Le second pilier, « Réguler les plateformes en ligne et les services d’intelligence artificielle générative », vise de son côté à « faire évoluer la gouvernance du numérique en responsabilisant les acteurs structurants de l’environnement informationnel – plateformes, moteurs de recherche, fournisseurs de services d’IA – face aux risques systémiques liés aux manipulations de l’information ».

Le SGDSN souligne que « cette architecture algorithmique, sans équivalent dans les médias traditionnels régis par une responsabilité éditoriale claire, soulève des enjeux inédits en matière d’intégrité, de responsabilité, de pluralisme et de transparence ».

Dans ce cadre, l’OS5 « exige de mobiliser tous les leviers possibles offerts par le cadre européen et national » pour pouvoir agir efficacement sur les plateformes numériques et les services d’IA générative, « en particulier pendant les périodes électorales ».

Le règlement européen sur les services numériques (DSA) confie la supervision principale des très grandes plateformes et très grands moteurs de recherche à la Commission européenne. Dans ce contexte, il s’agira notamment de « définir au niveau européen des règles techniques communes et précises permettant aux autorités nationales d’imposer, en période électorale, des mesures concrètes aux plateformes et aux services d’IA – adaptation des systèmes de recommandation, obligations renforcées de modération, exigences de transparence – afin de protéger le débat public ».

L’OS6 vise quant à lui à « établir un cadre de relations et de régulation rigoureux, sous peine de sanctions, entre les plateformes, les fournisseurs d’IA générative, les autorités, les chercheurs et la société civile ».

Le SGDSN avance en effet que les informations utiles à la compréhension des mécanismes de manipulation, des usages des plateformes et des effets des systèmes de recommandation « demeurent aujourd’hui dispersées et inégalement accessibles », ce qui limite la capacité d’analyse partagée et l’expression structurée des besoins des acteurs spécialisés.

Il propose de s’inspirer de l’expérience de l’Observatoire de la haine en ligne mis en place par la loi Avia au CSA en 2020, relancé par l’ARCOM en 2025 et composés de 28 représentants d’associations, de plateformes et d’administrations (contre une cinquantaine auparavant) pour créer un « cadre permanent de dialogue structuré », et doter l’écosystème d’un espace stable de partage d’analyses et de connaissances sur les phénomènes de manipulation de l’information.

Un centre d’excellence et un registre public des supports d’ingérences

L’OS7 poursuivra pour sa part la consolidation des moyens d’analyse des risques informationnels liés à l’IA afin de « créer une capacité d’expertise de référence, capable de qualifier, quantifier et anticiper les effets systémiques de l’IA sur la fiabilité de l’environnement informationnel ».

« Hypertrucages, génération de textes persuasifs, synthèse vocale, clonage d’identités, microciblage algorithmique : l’IA permet aujourd’hui de manipuler l’information à une échelle inédite, de manière difficilement détectable, et à un coût marginal », constate en effet le SGDSN.

L’équipe DATALAB de VIGINUM se transformera dès lors en « centre d’excellence IAxLMI » afin de « fournir des outils et services clés en main aux communautés de vérification de faits, aux médias, aux ONG et chercheurs », mais également « renforcer l’appui à l’ARCOM », au titre des missions découlant du DSA sur la modération et la vérification des algorithmes, « et appuyer les autorités publiques dans l’élaboration de réponses réglementaires ou techniques ».

« De manière complémentaire », souligne le SGDSN, la France doit aussi apporter son soutien aux acteurs de l’écosystème mobilisés dans la LMI, via des appels à coopération ou financements, ainsi que « différents modes de mise en visibilité ».

Enfin, la stratégie nationale s’attaquera aux mécanismes de financement de la manipulation de
l’information par la publicité programmatique et la monétisation des plateformes (OS8), afin de réduire la rentabilité des sites, comptes et chaînes impliqués dans des opérations de manipulation ou des pratiques frauduleuses.

Les algorithmes de recommandation des réseaux sociaux amplifient en effet les contenus « générant le plus d’activité (clics, commentaires, partages, temps de lecture) », et « donnant un avantage indirect aux contenus polarisants voire polémiques » :

« L’intérêt financier que représente la viralité de certaines thématiques peut ainsi motiver des acteurs opportunistes. L’institutionnalisation des programmes de redistribution crée ainsi une « économie » de la manipulation, pouvant favoriser des acteurs produisant massivement des contenus manifestement inexacts ou trompeurs. »

Ce risque, « identifié depuis plusieurs années », connaît une intensification avec l’essor des IA génératives, qui abaissent les coûts de production et de diffusion de contenus à grande échelle, ce qui renforce l’enjeu de régulation des dispositifs de monétisation.

La stratégie prévoit d’abord de définir « à l’échelle nationale » un référentiel cartographiant les dispositifs de monétisation des plateformes, et de « renforcer l’application des obligations de transparence » pour les créateurs et éditeurs établis hors de France diffusant des contenus politiques visant des audiences françaises.

Il est également question d’ « obliger les plateformes à mettre en place un guide de bonne conduite pour les contenus monétisables et prévoir des sanctions en cas de non-respect », d’ « encourager la vérification de l’identité des administrateurs et de la fiabilité des contenus pour l’éligibilité aux programmes de monétisation », et d’ « exiger la suspension du financement de comptes diffusant de manière répétée ou coordonnée des informations trompeuses à des fins lucratives, avec transparence sur les comptes concernés ».

Un registre public, librement accessible sous formats interopérables (fichiers téléchargeables, API), pour intégration dans les outils des agences médias, plateformes publicitaires et acteurs publics, recensera en outre les « sites ou chaînes identifiés comme supports manifestes d’ingérences numériques étrangères ».

« Il reposera sur des évaluations indépendantes associant journalistes, chercheurs, experts OSINT, organisations indépendantes, et entités étatiques compétentes telles que VIGINUM », précise le SGDSN :

« Les critères d’inclusion seront transparents : caractère manipulatoire des contenus, absence de transparence éditoriale, participation à des campagnes coordonnées. Il sera mis à jour régulièrement, horodaté, avec un dispositif contradictoire permettant aux éditeurs de contester leur inclusion. »

Un troisième article reviendra plus en détail sur les mesures opérationnelles de détection et de réponse aux ingérences numériques, la stratégie industrielle destinée à structurer l’écosystème OSINT, le volet international de la stratégie, et les nombreuses initiatives lancées par et avec VIGINUM.

☕️ La Russie veut autoriser le FSB à couper l’accès à Internet et la téléphonie mobile

18 février 2026 à 15:17

La Russie veut obliger les fournisseurs d’accès à Internet et de téléphonie mobile à se conformer aux ordres du service de sécurité intérieure russe FSB, successeur du KGB, visant à interrompre les services de télécommunications, rapporte The Moscow Times.

Le projet de loi, adopté mardi par la Douma d’État, chambre basse du Parlement russe, est censé contribuer à protéger les Russes et les institutions publiques contre les menaces pour la sécurité tout en préservant les entreprises de télécommunications de poursuites judiciaires. Et ce, alors que les régions du pays sont de plus en plus confrontées à des perturbations généralisées de l’internet et des réseaux mobiles en raison des attaques de drones ukrainiens, souligne le Moscow Times.

Le projet de loi, qui a été approuvé par 393 législateurs (sur 450, avec 13 voix contre), a depuis subi plusieurs modifications, notamment la suppression des références aux « menaces pour la sécurité » comme justification des fermetures et la modification des pouvoirs accordés au FSB, qui passent de la délivrance de « demandes » à celle d’« exigences » contraignantes.

Outre les services Internet et mobiles, le projet de loi permettrait également aux responsables de la sécurité de bloquer les appels téléphoniques, les SMS et même les services postaux, a déclaré Igor Lebedev, vice-ministre russe des Communications.

Pour entrer en vigueur, les modifications apportées à la loi russe sur les communications doivent encore être approuvées par le Conseil de la Fédération, la chambre haute du Parlement, et signées par Vladimir Poutine.

The Moscow Times, dont la rédaction s’est relocalisée à Amsterdam suite à l’invasion de l’Ukraine par la Russie, a depuis été classé « organisation indésirable » et l’accès à son site web est bloqué par le Roskomnadzor dans le pays.

Aux Pays-Bas, nouveau scandale autour d’un algorithme de prédiction de la récidive

18 février 2026 à 14:55
ML récidiviste
Aux Pays-Bas, nouveau scandale autour d’un algorithme de prédiction de la récidive

Aux Pays-Bas, le ministère de la Justice vient de mettre au jour les dysfonctionnements d’un système algorithmique déployé pour tenter de prévoir la récidive d’individus suspects ou condamnés. Alors que l’administration cherche à le réparer, des défenseurs des droits humains soulignent que ce type d’usage du machine learning est critiqué depuis une décennie.

Un nouveau système algorithmique prompt aux erreurs a été épinglé aux Pays-Bas. Ce 12 février, le ministère de la Justice néerlandais a publié un rapport relatif au système utilisé par les services de probation Reclassering Nederland pour évaluer le risque de récidive chez les détenus déjà condamnés comme chez les personnes en détention provisoire.

L’audit fait partie intégrante d’un travail plus large sur les systèmes algorithmiques utilisés à travers l’administration, lui-même initié à la suite de deux scandales relatifs à des outils biaisés.

Pendant près d’une dizaine d’années, l’administration fiscale néerlandaise a en effet recouru à un système qui a demandé des sommes faramineuses et indues à des familles généralement ciblées pour leurs origines étrangères. De même, des systèmes de détection de fraude aux prêts étudiants accusaient beaucoup plus fréquemment les étudiants issus de minorités ethniques, donc à leur faire subir plus fréquemment des contrôles.

Consommation de drogues et problématiques psychologiques non pris en compte

Dans le cas présent, le système algorithmique incriminé a été utilisé pour traiter de l’ordre de 44 000 cas par an, et aider à évaluer si ces personnes risquaient plus ou moins de récidiver.

Un tel cas d’usage rappelle les premiers grands travaux sur les travers que ce type d’outils créent sur le terrain en termes d’égalité devant la loi. En 2016, le journal ProPublica publiait ainsi une enquête au long cours démontrant qu’aux États-Unis le système COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) qualifiait beaucoup plus fréquemment les suspects noirs de risque de récidives que les suspects blancs, à tort.

Dans le cas néerlandais, le système, nommé OxRec, fournit de mauvais résultats dans 20 % des cas et ne correspond pas aux standards gouvernementaux d’utilisation. Depuis 2018, les formules normalement utilisées pour évaluer les personnes déjà condamnées et suspectes ont été inversées, la consommation de drogues n’est pas correctement prise en compte, et les problématiques psychologiques graves ne sont pas prises en considération, relève l’enquête administrative. Le système a par ailleurs été entraîné sur d’anciennes données issues de prisons suédoises, et non sur la population des prisons néerlandaises.

Pause avant remise en service

Suite à ce rapport, Reclassering Nederlands a stoppé l’utilisation d’OxRec. Le ministère de la Justice néerlandais a en revanche expliqué « chercher à le remettre en service dès que toutes les améliorations auront été déployées, car une utilisation responsable de cet algorithme contribue à l’efficacité et à la cohérence des conseils en termes de probation », souligne sur LinkedIn Alexander Laufer, chercheur auprès d’Amnesty International.

Pour les enquêteurs du ministère de la Justice, le plus gros risque que posent les dysfonctionnements du système est en effet que des probabilités de récidive aient été sous-évaluées.

En 2020, des scientifiques avaient quant à eux émis une alerte sur l’usage des codes postaux dans OxRec, expliquant que cela pouvait mener de manière indirecte à des logiques de profilage ethnique. D’après la directrice du service de probation Jessica Westerik, ces alertes avaient été prises « très au sérieux », mais les services avaient conclu qu’il existait suffisamment de preuves scientifiques pour considérer que l’adresse et les revenus étaient des paramètres.

Alexander Laufer, lui, rappelle que la prédiction de la récidive est « une des applications les plus controversées » du machine learning, et que le consensus scientifique estime désormais « (1) que ça ne fonctionne pas et (2) que ç’a des conséquences discriminatoires sévères et imprévisibles », y compris en termes d’accès à un procès équitable.

☕️ Pédopornographie genAI: le gouvernement espagnol à l’offensive contre X, Meta et TikTok

18 février 2026 à 14:21

« L’impunité des géants doit cesser », affirmait le Premier ministre espagnol, Pedro Sánchez, dans un message diffusé sur le réseau social X ce mardi 17 février. Il y annonçait ainsi que le gouvernement espagnol allait demander à la justice « d’enquêter sur les délits que X, Meta et TikTok pourraient commettre en créant et en diffusant de la pornographie infantile par le biais de leurs IA ».

« Ces plateformes portent atteinte à la santé mentale, à la dignité et aux droits de nos enfants », a-t-il ajouté, « l’État ne peut pas l’admettre ».

L’agence Reuters rapporte qu’un jeune Espagnol sur cinq, principalement des filles, affirme que des deepnudes d’elles et eux ont été créées par l’IA et partagées en ligne alors qu’ils et elles étaient mineurs, a déclaré le bureau de Sanchez, citant l’organisation de défense des droits Save the Children.

Jusque-là, c’est X et les deepfakes de Grok qui étaient surtout visés par des menaces judiciaires, mais le gouvernement espagnol semble élargir sa cible à Meta et TikTok sans pour autant détailler les reproches qu’il leur fait.

« TikTok dispose de systèmes robustes pour contrecarrer les tentatives d’exploitation ou de préjudice envers les jeunes, et nous continuons à donner la priorité et à investir dans des technologies de pointe afin de garder une longueur d’avance sur les acteurs malveillants », affirme le réseau social de partage de vidéos dans un communiqué envoyé à Reuters, tandis que X et Meta n’ont pas répondu à nos confrères sur le sujet.

Addiction aux réseaux sociaux : Meta a enterré une recherche qui ne lui convenait pas

18 février 2026 à 13:01
Sous le tapis
Addiction aux réseaux sociaux : Meta a enterré une recherche qui ne lui convenait pas

L’affaire qui oppose, aux États-Unis, une jeune femme aux plateformes de réseaux sociaux documente la façon dont Meta gère les recherches internes que l’entreprise lance sur les conséquences de ses produits. Des emails montrent ainsi que des travaux sont enterrés quand ils ne vont pas dans le sens de l’entreprise.

La semaine dernière s’est ouvert aux États-Unis le procès opposant Meta et Google à une plaignante âgée de 20 ans, Kaley G. M., et sa mère, qui les accusent de provoquer et entretenir l’addiction chez les jeunes. Comme nous l’expliquions, Snap et TikTok ont aussi été mis en cause mais ces deux entreprises ont préféré négocier un accord avec les plaignantes.

Les techniques pour attirer et garder l’auditoire de YouTube mais aussi des plateformes de réseaux sociaux Facebook et Instagram de Meta vont donc être particulièrement scrutées pendant ce procès.

Mais l’avocat de Kaley G. M, Mark Lanier, profite de l’accès aux documents internes de Meta que lui offre ce procès pour pointer la façon dont Meta choisit de rendre publiques ou pas, voire d’abandonner totalement les recherches que l’entreprise fait sur l’utilisation de ses produits.

Une étude interne de Meta qui remonte via le procès

En effet, comme nous en faisions part récemment, de plus en plus de recherches sur le numérique sont menées en lien avec les entreprises du secteur. Souvent, les auteurs n’informent pas correctement sur les liens qui les relient à Meta, X, Google ou Microsoft, par exemple. Ainsi, 29 % des articles scientifiques à propos des réseaux sociaux oublient de mentionner leurs liens d’intérêt.

Dans ce procès, Mark Lanier a mis en avant une étude menée par Meta en collaboration avec des chercheurs de l’Université de Chicago qui, selon lui, montre que le fait que les parents surveillent de près l’utilisation par leurs ados des réseaux sociaux n’a que très peu d’effet sur une utilisation compulsive ou non. Cette étude, nommée « Project Myst » pour Meta and Youth Social Emotional Trends, sondait 1 000 adolescents et leurs parents à propos de leurs usages des réseaux sociaux, explique Associated Press.

L’avocat n’a pas diffusé l’entièreté de l’étude, mais cite trois extraits repris par l’association The Tech Oversight Project. L’un affirme que « les facteurs parentaux et familiaux ont peu d’influence sur le niveau d’attention que les adolescents déclarent accorder à leur utilisation des réseaux sociaux ». Le deuxième conclut qu’ « il n’y a aucun lien entre ce que rapportent les parents et les adolescents concernant la surveillance/l’accompagnement numérique des parents et les mesures de l’attention ou des capacités des adolescents telles qu’elles ressortent de l’enquête ». Et le troisième que « les adolescents qui ont déclaré avoir vécu un plus grand nombre d’expériences négatives dans leur enfance, telles qu’une relation étroite avec une personne ayant des problèmes d’alcoolisme ou souffrant d’alcoolisme, ou avoir été victimes d’intimidation ou de harcèlement à l’école, ont déclaré être moins attentifs à leur utilisation des réseaux sociaux ».

Sans publication, des interprétations divergentes

Selon TechCrunch, Mark Lanier a interprété devant la Cour ces conclusions de l’étude comme le fait que les outils de contrôle parental d’Instagram ou ceux de limitation du temps d’utilisation sur les smartphones n’auraient pas vraiment d’effet sur l’utilisation excessive des réseaux sociaux sur les ados. Pour autant, il est difficile d’aller dans son sens ou de conclure autre chose sans avoir accès à l’étude en question.

Nos confrères soulignent que, bien qu’un document semble montrer qu’il a donné son accord pour la mise en place de MYST, le patron d’Instagram, Adam Mosseri, a affirmé dans son témoignage ne pas se rappeler du projet : « Nous menons de nombreux projets de recherche », a-t-il affirmé devant la Cour.

Les avocats de Meta ont plus insisté sur le fait que l’étude cherchait à déterminer non pas si les adolescents étaient réellement dépendants, mais s’ils avaient le sentiment d’utiliser trop les réseaux sociaux. Concernant l’utilisation excessive des réseaux sociaux par les adolescents, ils ont mis l’accent sur la responsabilité des parents et les problèmes rencontrés dans la vie plutôt que sur les produits de leur client, pointant le divorce des parents de Kaley, son père violent et le harcèlement qu’elle a subi à l’école.

☕️ Pollution de l’air : les data centers de xAI continuent d’outrepasser la réglementation

18 février 2026 à 11:04

Après Memphis, Southaven, de l’autre côté de la frontière entre le Tennessee et le Mississippi. Aux États-Unis, la société d’Elon Musk xAI continue de défier les réglementations environnementales en recourant à des générateurs illégaux au gaz pour alimenter ses centres de données.

Depuis 2025, le supercalculateur Colossus que xAI a construit à Memphis est critiqué par la population locale et des associations de défense de l’environnement pour la pollution à l’oxyde d’azote que ses générateurs rejettent dans l’air.

Sollicitée, l’agence états-unienne de la protection de l’environnement (EPA) a rappelé qu’en vertu du Clean Air Act (loi sur la qualité de l’air), l’usage de ce type de générateur était soumis à autorisation. Le comté dans lequel se trouve Colossus a finalement autorisé 15 turbines, alors que le data center en utilisait initialement plus d’une trentaine.

Depuis ces premiers aléas, cela dit, xAI a créé Colossus 2, un deuxième data center situé juste à côté du premier. Pour l’alimenter en énergie, l’entreprise recourt de nouveau à des turbines à gaz, stockées de l’autre côté de la frontière.

Hanna Barakat & Archival Images of AI + AIxDESIGN / Better Images of AI / Weaving Wires 2 / CC-BY 4.0

Auprès du Guardian, les habitants témoignent de leurs inquiétudes, que ce soit vis-à-vis de la pollution sonore ou de l’air – d’après l’une des résidentes, Shannon Samsa, la ville compte « au moins 10 écoles dans un rayon de trois kilomètres autour du bâtiment ». Les pollutions émises au fil de leur fonctionnement ont été liées à diverses problématiques de santé comme l’asthme, le cancer du poumon ou des attaques cardiaques.

D’après les images thermiques récupérées par le média Floodlight, néanmoins, le centre de données de Southaven continue d’être alimenté grâce à ses générateurs. Depuis novembre, 18 des 27 turbines présentes, dont au moins 15 n’ont aucun permis, ont été utilisées.

Saisis, les régulateurs du Mississippi ont estimé que les turbines incriminées n’avaient pas besoin d’autorisation dans la mesure où elles sont stockées sur des remorques. Entité d’autorité nationale, l’EPA, elle, a statué en janvier : remorques ou non, ce type de dispositif ne peut être utilisé qu’après demande d’autorisation. À défaut, la moindre exception pourrait « permettre que ces engins fonctionnent en dehors de toute limitation d’émission », indique-t-elle dans sa décision (.pdf).

[Test] VPS pas cher (5 euros) : OVHcloud, la force tranquille, équilibrée et très stable

18 février 2026 à 10:19
Force tranquille force tranquille, on est revenus en 1981 ?
[Test] VPS pas cher (5 euros) : OVHcloud, la force tranquille, équilibrée et très stable

Dans le monde des VPS, OVHcloud est une valeur sûre avec une stabilité sans pareil d’après nos mesures. L‘hébergeur est par contre éternel second sur nos catégories de benchmarks, sauf sur le stockage où il arrive en tête.

OVHcloud est le géant français de l’Internet, que ce soit sur les noms de domaine, l’hébergement ou les serveurs. La gamme VPS a été renouvelée l’année dernière, avec un positionnement agressif. La gamme est facile à suivre avec des offres qui s’échelonnent de VPS-1 à VPS-6.

4 vCores (Haswell), mais seulement 400 Mb/s de bande passante

Elle propose de 4 à 24 vCores avec 8 à 96 Go de mémoire et 75 à 400 Go de stockage. Ce n’est pas la seule différence. Si le trafic est illimité sur l’ensemble de la gamme, la bande-passante est plus ou moins bridée. Sur l’entrée de gamme, il faut se contenter de 400 Mb/s (c’est peu comparé à la concurrence), alors que le VPS-2 est à 1 Gb/s et le plus haut de gamme à 3 Gb/s.

Nos tests sur VPS-1 confirment la limitation avec 380 Mb/s de moyenne environ. Dommage car sinon OVHcloud avait de bons résultats sur la partie réseau. Pour rappel, le roubaisien développe son propre réseau avec 44 points de présence et une capacité de 100 Tb/s au niveau mondial.

Plusieurs choix de localisation en France, en Europe et dans le monde

OVHcloud propose une large gamme de localisations pour ses VPS, en France, en Europe et ailleurs dans le monde. La disponibilité est fluctuante : si une localisation n’est pas disponible un jour, elle peut rapidement revenir le lendemain, et vice-versa.

Côté système d’exploitation, le choix est varié : Ubuntu 25.04, Debian 13, Fedora 41, AlmaLinux 10, Rocky Linux 10, CloudLinux 9, FreeBSD 14.3 et Windows Server 2025 (ajoutez 9 euros par mois). « La sauvegarde automatique » est incluse, mais la sauvegarde Premium est à 2,2 euros par mois avec « avec restauration sur 7 jours glissants ».

Vous pouvez aussi demander l’option Snapshot Backup à 0,60 euro par mois pour créer « une image de votre serveur quand vous le souhaitez ». Lors de la prise d’un snapshot, l’interface précise : « attention votre VPS sera inaccessible pendant cette opération et tout snapshot antérieur sera perdu ».

Avec les VPS, OVHcloud permet d’ajouter du stockage, de 50 à 500 Go, pour respectivement 2,58 à 25,85 euros dans notre cas. L’hébergeur propose aussi des « bases de données fiables, performantes et 100% managées par OVH », à partir de 7,91 euros par mois pour 512 Mo.

Notre VPS-1 est à 5,39 euros par mois sans engagement, mais OVHcloud pratique des remises si vous vous engagez sur six mois ou un an, avec un prix mensuel qui passe à respectivement 5,14 et et 4,58 euros (mais vous devez payer directement six ou douze mois).

OVHcloud au-dessus de la moyenne partout

Les informations retournées par notre VPS sur le processeur étaient simplement « Intel Core Processor (Haswell, no TSX) ». Haswell est une génération de processeurs lancée à partir de 2013 par Intel. L’année dernière, OVHcloud nous indiquait que tous les VPS avaient des cœurs x86, mais sans plus d’engagement sur la gamme ni le fabricant (Intel ou AMD).

C’est pour rappel le souci de tous les VPS (et pas que chez OVHcloud) : l’hébergeur alloue des cœurs, mais il peut mettre un peu ce qu’il veut derrière, avec de grandes conséquences sur les performances comme nous l’avons vu avec Ionos en EPYC d’AMD.

Voici un diagramme de Kiviat (radar ou étoile, au choix) avec, en pointillé, la moyenne de tous les VPS et en violet/rose notre VPS OVHcloud. Plus la zone colorée est importante, plus les performances sont élevées.

Comme avec nos précédents tests (et les futurs à venir), vous pouvez également retrouver l’ensemble de nos mesures sur le VPS OVHcloud dans cette feuille de calcul ODS. Vous pouvez aussi consulter le rapport Geekbench à cette adresse.

Premier sur les performances du stockage, deuxième sur le reste

Sur les performances pures du CPU, OVHcloud est en dessous de Ionos (pas de surprise, le CPU est bien plus ancien). Sur quatre cœurs Sysbench CPU, notre VPS obtient un score de 3 020 environ, contre 3 450 pour celui de Ionos… mais sur un seul cœur. Sur Sysbench mémoire par contre OVHcloud arrive largement en tête.

Le Roubaisien est en première position sur le stockage avec des débits largement au-dessus de la concurrence en écriture séquentielle (680 Mo/s), en écriture aléatoire sur des fichiers de 4 ko (1 420 Mo/s) et enfin sur un mélange de lecture et écriture.

OVHcloud se place en seconde position sur Geekbench, loin derrière Ionos. Il est aussi deuxième sur l’Index Score d’Unixbench, mais cette fois-ci juste derrière Ionos. OVHcloud obtient 756 points avec un cœur et 2 292 points avec tous les cœurs, contre respectivement 1 288 et 3 892 points pour Ionos.

Sur le réseau, les latences vers Londres, Amsterdam et New York sont excellentes, mais OVHcloud est pénalisé dans nos tests par sa limite à 400 Mb/s en bande passante, là où les autres dépassent parfois 1 et même 2 Gb/s. À cause de cette limite, OVHcloud est à la troisième place sur notre catégorie des tests réseau, il aurait été deuxième avec une limite à 1 Gb/s. C’est un choix de segmentation d’OVHcloud car, pour rappel, à partir de VPS-2 la bande passante est de 1 Gb/s.

Du choix sur les OS et la localisation, attention à la dispo

OVHcloud est d’une certaine manière la force tranquille : la société dispose de son propre réseau, gère son infrastructure de serveurs et ses propres datacenters. Là où OVHcloud se démarque vraiment, c’est sur la stabilité des performances : sur l’ensemble des cinq séries de mesures sur l’ensemble des benchmarks, l’écart moyen est sous les 2 %,.

OVHcloud a aussi l’avantage de proposer plusieurs localisations pour les serveurs, avec du choix précis en France (Gravelines ou Strasbourg) comme en Europe ou ailleurs dans le monde, avec un large choix de systèmes d’exploitation. La disponibilité est par contre un vrai sujet, il n’est pas rare ces derniers temps de voir les sites français indisponibles pour de nouveaux VPS, mais aussi pour augmenter la capacité des existants.

Un exemple sur notre VPS, à Gravelines, nous avons voulu passer à la gamme du dessus : « Une erreur est survenue lors de la récupération des informations pour passer à la nouvelle gamme. Sorry we are out of stock in region GRA6 ».

Pour aller plus loin, consultez les autres articles de notre série :

☕️ Google programme sa conférence I/O aux 19 et 20 mai

18 février 2026 à 09:42

Google n’a pas dérogé à son calendrier. Sa conférence annuelle dédiée aux développeurs, la Google I/O, se tiendra comme tous les ans fin mai, dans ses locaux de Mountain View, avec une diffusion en ligne des principales sessions.

L’entreprise a confirmé mardi les dates définitives de l’événement, les 19 et 20 mai prochains. « Connectez-vous pour découvrir nos dernières avancées en matière d’IA et les mises à jour de nos produits dans toute l’entreprise, de Gemini à Android et bien plus encore », promet Google.

Annonce des dates de la conférence Google I/O 2026

En 2025, l’événement annuel de Google avait, sans trop de surprise, accordé une place prépondérante à l’IA, avec une foule d’annonces relatives aux modèles Gemini, ainsi qu’à l’intégration progressive de fonctions d’IA générative au sein du moteur de recherche emblématique du groupe.

Google ne communique à ce stade aucun élément du programme de la conférence I/O 2026, mais il ne fait guère de doute que ses annonces suivront la même tendance, dans un contexte de concurrence accrue entre les poids lourds de l’IA générative.

Sur le volet mobile, Google vient tout juste de mettre en ligne la première bêta d’Android 17 destinée aux développeurs.

L’enregistrement à la Google I/O 2026 est ouvert sur le site dédié.

Règlement sur l’IA et lutte contre les risques systémiques au menu de l’INESIA

18 février 2026 à 09:02
Alignez-vous qu'ils disaient
Règlement sur l’IA et lutte contre les risques systémiques au menu de l’INESIA

Le récent Institut national pour l’évaluation et la sécurité de l’IA (INESIA) a dévoilé sa feuille de route pour 2026 et 2027. Au menu : accompagnement des évolutions réglementaires, équipements face aux risques systémiques et coopération internationale.

Comment évaluer l’intelligence artificielle ? Comment détecter à temps ses comportements imprévus ? Limiter les risques que créent d’éventuels mésusages ? Telles sont certaines des questions auxquelles l’Institut national pour l’évaluation et la sécurité de l’IA (INESIA) inauguré le 31 janvier 2025 devra répondre au fil des deux prochaines années.

Dévoilé juste avant le Sommet de Paris sur l’action pour l’IA de février 2025, l’INESIA réunit l’Agence nationale de la sécurité des systèmes d’information (ANSSI), l’Inria, le laboratoire national de métrologie et d’essais (LNE) et le pôle d’expertise de la régulation numérique (PEReN) pour « soutenir le développement de l’intelligence artificielle et accompagner la transformation de l’économie qu’elle induit ». Cette mission s’effectue tout en « étudiant scientifiquement les effets de ces technologies », en particulier « en termes de sécurité ».

Pour 2026 et 2027, elle s’effectuera selon trois axes, détaille sa feuille de route publiée mi-février. Pilotée par la Direction générale des Entreprises (DGE) et le Secrétariat général de la défense et de la sécurité nationale (SGDSN), l’entité travaillera en effet au soutien à la régulation, notamment en matière de mise en œuvre du règlement européen sur l’intelligence artificielle (RIA, ou AI Act), à la maîtrise des « risques systémiques » de ce type de technologies et à l’évaluation de la « performance et de la fiabilité des modèles et systèmes ». Certaines de ses actions prendront aussi un angle transverse, notamment pour tout ce qui touche à la veille académique et méthodologique, ou encore à l’animation scientifique autour de ses activités.

Performance, interprétabilité, « alignement aux valeurs et intentions humaines »

Le constat que dresse l’INESIA est aussi clair que succinct : « le rythme des progrès de l’IA ne faiblit pas », et à ce titre, les évolutions du secteur posent des questions de performance, d’interprétabilité, de robustesse face à l’imprévu, mais aussi « d’alignement aux valeurs et intentions humaines ».

L’institut ne définit pas ces différents termes, quand bien même les « valeurs et intentions humaines » varient certainement d’un individu à l’autre. La notion même d’alignement reste sujette à des débats scientifiques : certains, dont le Future of Life Institute, estiment nécessaire d’œuvrer à l’émergence d’IA « alignées » à des valeurs prédéfinies, faute de quoi ces systèmes créeraient de potentiels « risques existentiels » (un champ qui a notamment émergé des travaux du philosophe Nick Bostrom). D’autres, dont les chercheurs Timnit Gebru et Emile Torres, considèrent de leur côté que le champ de la « sécurité de l’IA » (AI safety) n’œuvre qu’à renforcer la course de l’industrie de l’IA.

Quoiqu’il en soit, dans l’environnement actuel, et notamment face au déploiement large de systèmes génératifs, « les méthodes d’évaluation conçues pour des systèmes fermés, monofonctionnels ou statiques, montrent leurs limites », indique l’INESIA. Pour faire face, et pouvoir notamment « mesurer et contenir les risques à fort potentiel systémiques, y compris ceux liés à la manipulation de l’information, à la cybersécurité ou à la déstabilisation de processus collectifs », l’entité compte participer au champ scientifique en devenir qu’est l’évaluation de l’IA.

Accompagner l’évolution réglementaire

Dans ses travaux, l’entité œuvrera à « construire une démarche scientifique et stratégique, structurer une capacité souveraine d’évaluation, coordonner les expertises publiques et mutualiser les moyens », et à agir dans les réseaux internationaux. En pratique, l’INESIA rejoindra notamment le réseau grandissant d’AI Safety Institutes, des instituts créés dans une dizaine de pays, et dont le réseau international a organisé sa première rencontre en novembre 2024.

Sur les enjeux d’appui à la régulation, elle accompagnera notamment la mise en œuvre du RIA, en fournissant des outils d’évaluation aux diverses autorités concernées. Elle poursuivra les travaux de détection des contenus synthétiques déjà en cours du côté de VIGINUm et du PEReN. Il s’agira enfin de créer des méthodes d’évaluation adaptées à la cybersécurité des systèmes d’IA comme aux produits de cybersécurité intégrant des technologies d’IA, dans le prolongement du projet Sécurité des Produits d’IA (SEPIA) que l’ANSSI mène depuis un an.

S’équiper face aux risques systémiques

Côté risques systémiques, il s’agira d’abord de développer les recherches permettant de mieux les caractériser, ce qui doit ensuite permettre à la puissance publique d’agir plus précisément. En la matière, l’INESIA vise notamment les usages d’IA à des fins de désinformation, d’attaque contre la cybersécurité, de déstabilisation d’un système économique, etc.

Elle prévoit d’identifier des projets de recherche ciblés, puis publiera des méthodes d’atténuation en source ouverte, « si opportun ». Les performances et les risques des systèmes d’IA agentiques seront plus particulièrement étudiés, notamment pour comprendre « leurs capacités en matière de cybersécurité et estimer la mesure des possibilités d’usages à des fins criminelles ».

Pour « stimuler la créativité de l’écosystème », enfin, l’INESIA prévoit de conduire des « challenges » pour « clarifier et faire progresser l’état de l’art ». Évoquant une émulation internationale de nature à faire progresser rapidement certaines technologies, elle cherchera à « susciter une « coopétition » » entre participants.

☕️ Facebook fermera en avril la web app dédiée à Messenger

18 février 2026 à 08:33

Meta indique aux utilisateurs de Messenger.com, la web app dédiée à la messagerie associée à Facebook, que cette dernière ne disposera plus d’un accès indépendant à compter du 15 avril prochain. En pratique, il faudra donc impérativement se connecter via l’interface « complète » de Facebook pour accéder à ses conversations dans un navigateur Web.

La date est annoncée directement sur l’interface de Messenger.com

En décembre dernier, Meta avait déjà averti de la disparition progressive du client Messenger pour Windows. « Vous pouvez continuer toutes vos conversations directement depuis l’application de bureau Facebook, avec toutes les fonctionnalités dont vous disposiez sur l’application Messenger, comme les appels sur ordinateur », fait valoir le groupe dans sa note d’information.

La disparition de Messenger.com parait à première vue anecdotique puisque l’interface de Facebook propose un accès direct à la messagerie. Elle constitue cependant une forme de recul de la part de Meta vis-à-vis des engagements pris face à la Commission européenne début 2024 dans le cadre de l’application du DMA, le règlement sur les marchés numériques.

C’est en effet à cette occasion que Meta avait introduit la possibilité, pour les internautes européens, de se connecter de façon séparée à Facebook et à Messenger. « Les personnes qui choisissent de créer un nouveau compte Messenger sans leurs informations Facebook pourront utiliser l’offre de services de base de Messenger, tels que la messagerie privée et le chat, les appels vocaux et vidéo », promettait alors Meta.

☕️ Mistral AI rachète Koyeb, spécialiste du serverless

18 février 2026 à 08:05

Quelques jours après l’annonce d’un investissement significatif dans l’infrastructure en Suède, Mistral AI confirme que le sujet figure au cœur de ses préoccupations : l’entreprise a en effet formalisé mardi l’acquisition de la startup française Koyeb, spécialisée dans le déploiement serverless d’outils d’intelligence artificielle.

En pratique, elle fournit à ses clients un environnement d’exécution qui permet à ces derniers de ne pas avoir à se soucier de l’infrastructure physique précise qui sous-tend le fonctionnement de leurs applications ou modèles.

« La technologie Koyeb est indépendante du matériel et de l’environnement : elle fonctionne et s’adapte aux clouds, aux périphéries et aux infrastructures sur site. Que ce soit sur des CPU, des GPU ou des accélérateurs, Koyeb garantit des performances optimales, une évolutivité dynamique et un contrôle total de votre infrastructure », résume la startup sur son site.

Sa plateforme ira enrichir l’offre Mistral Compute, qui englobe tous les services d’infrastructure commercialisés par Mistral AI à partir de ses propres déploiements de serveurs et surtout de GPU, avec au dernier décompte 40 MW de puissance électrique programmés en France (pour alimenter 18 000 puces Blackwell), et bientôt 23 MW supplémentaires en Suède, en attendant la mise en service des premières tranches du fameux Campus IA de Fouju.

« Dans les prochains mois, nous prévoyons de devenir un composant essentiel de Mistral Compute et de renforcer nos capacités d’inférence, de sandbox et de serverless pour les serveurs MCP », affirment les trois cofondateurs de Koyeb, Yann Léger, Edouard Bonlieu, Bastien Chatelard, par ailleurs anciens de Scaleway.

Le montant de l’acquisition n’a pas été communiqué. Koyeb avait levé 1,6 million de dollars fin 2020, puis 7 millions de dollars fin 2023.

L’Europe ouvre une enquête formelle sur Shein en vertu du DSA

18 février 2026 à 07:20
Tout ce qui brille n'est pas d'or
L’Europe ouvre une enquête formelle sur Shein en vertu du DSA

La Commission européenne a annoncé mardi l’ouverture formelle d’une enquête relative à Shein et ses pratiques commerciales, en vertu du DSA. Bruxelles cible notamment les systèmes censés prémunir la vente d’objets illicites comme les poupées pédopornographiques qui avaient défrayé la chronique fin 2025, mais aussi les risques liés à la conception addictive du service et la transparence toute relative des outils de recommandation de Shein.

Après les rappels à l’ordre et les demandes d’information, place à l’enquête formelle : la Commission européenne a annoncé mardi 17 février l’ouverture d’une procédure à l’encontre de la plateforme e-commerce chinoise Shein en vertu de la législation sur les services numériques (DSA, ou Digital Services Act).

L’exécutif européen indique que l’enquête visera à établir les éventuels manquements de Shein à la réglementation européenne « pour sa conception addictive, le manque de transparence des systèmes de recommandation, ainsi que la vente de produits illégaux, y compris de matériel pédopornographique ».

Première enquête formelle sur Shein dans le cadre du DSA

« Dans l’UE, les produits illégaux sont interdits, qu’ils se trouvent sur une étagère d’un magasin ou sur une place de marché en ligne. Le règlement sur les services numériques assure la sécurité des acheteurs, protège leur bien-être et leur fournit des informations sur les algorithmes avec lesquels ils interagissent. Nous évaluerons si Shein respecte ces règles et leur responsabilité », résume Henna Virkkunen, vice-présidente exécutive chargée de la souveraineté technologique, de la sécurité et de la démocratie.

Portée par sa promesse d’articles à très bas coût, avec des collections sans cesse renouvelées, la popularité de Shein a explosé au début des années 2020, jusqu’à s’imposer comme l’une des plateformes e-commerce les plus fréquentées par les internautes français. Au troisième trimestre 2025, Shein fédérait ainsi 19,5 millions de visiteurs uniques par mois, et 5 millions de visiteurs uniques quotidiens d’après le dernier baromètre établi par la Fédération e-commerce et vente à distance (Fevad) sur la base des chiffres de Médiamétrie.

À l’échelle européenne, Shein a de ce fait été qualifiée de très grande plateforme en ligne (ou VLOP, pour Very Large Online Platform) quelques semaines après l’entrée en vigueur du DSA, qui fixe pour mémoire des obligations spécifiques aux acteurs numériques dont l’audience dépasse 45 millions d’utilisateurs mensuels dans l’Union européenne.

Trois manquements au DSA à l’étude

Après trois « demandes de renseignements » (la façon polie de faire savoir à un acteur qu’il enfreint peut-être les règles) en juin 2024, février 2025 et novembre 2025, Bruxelles ouvre donc formellement la possibilité d’actionner le volet répressif du DSA.

Interpellé par la France suite au scandale des poupées sexuelles à caractère pédopornographique vendues sur la marketplace de Shein, l’exécutif européen confirme son intention d’investiguer les « systèmes mis en place par Shein visent à limiter la vente de produits illicites dans l’Union européenne,y compris les contenus susceptibles de constituer du matériel pédopornographique ».

L’enquête portera également sur deux aspects déjà largement reprochés à Shein (comme à son compatriote Temu) : « les risques liés à la conception addictive du service, y compris le fait de donner aux consommateurs des points ou des récompenses pour leur engagement », et « la transparence des systèmes de recommandation que Shein utilise pour proposer du contenu et des produits aux utilisateurs. »

Sur ce dernier point, l’Europe rappelle que « Shein doit divulguer les principaux paramètres utilisés dans ses systèmes de recommandation et fournir aux utilisateurs au moins une option facilement accessible qui ne repose pas sur le profilage pour chaque système de recommandation ».

Rappelons que Bruxelles a déjà ouvert une enquête similaire sur Temu. Les deux géants chinois s’exposent, s’ils finissaient par être condamnés sans avoir apporté à Bruxelles des gages de bonne foi, un amende pouvant aller jusqu’à 6 % de leur chiffre d’affaires annuel mondial.

En France, Shein a déjà accepté en juillet dernier de payer 40 millions d’euros d’amende suite à une enquête de la Répression des fraudes qui avait conclu que l’entreprise avait mis en place des pratiques commerciales trompeuses. Une amende de 1,1 million d’euros était tombée dans la foulée pour « information défaillante sur la qualité environnementale des produits ».

Shein assure de sa volonté de coopération

Shein a réagi mardi par l’intermédiaire d’un porte-parole, en assurant que le groupe prenait « très au sérieux » ses obligations relatives au DSA :

« Ces derniers mois, nous avons considérablement renforcé notre dispositif de conformité au DSA. Cela comprend la réalisation d’évaluations approfondies des risques systémiques, la mise en place de mesures de réduction et de gestion de ces risques, le renforcement des protections destinées aux jeunes utilisateurs, ainsi qu’un travail continu sur la conception de nos services afin de garantir une expérience en ligne sûre et fiable. »

Ce même porte-parole indique par ailleurs que Shein a déjà échangé avec la Commission européenne au sujet de la mise en place d’une solution tierce partie de vérification de l’âge des internautes.

Lecornu en équilibre entre soutien aux solutions de la DINUM et recours à la French tech

17 février 2026 à 16:27
Je choisis la french tech après la DINUM
Lecornu en équilibre entre soutien aux solutions de la DINUM et recours à la French tech

Le Premier ministre a publié une circulaire « relative à la commande publique numérique » couchant noir sur blanc la doctrine de l’État concernant les choix et achats de logiciels par ses services. Elle priorise l’utilisation de solutions internes existantes avant l’achat de produits « sur étagère ». Le développement de solutions en interne n’arrive qu’après.

Depuis la mise en avant de la Suite numérique de l’État et notamment sa solution de visioconférence Visio, une partie du milieu de l’industrie numérique français criait à la concurrence déloyale. Une circulaire relative à la commande publique numérique signée par Sébastien Lecornu essaye de jouer l’équilibre entre la mise en avant des solutions mutualisées développées en interne et le soutien aux startups françaises.

Publiée le vendredi 13 février au Journal officiel, cette circulaire relative à la commande publique numérique avait été évoquée par le gouvernement Lecornu lors de l’annonce, au début du mois, d’une nouvelle phase de déploiement pour le programme « Je Choisis La French Tech ».

À cette occasion, David Amiel, le ministre délégué chargé de la Fonction publique et de la Réforme de l’État, affirmait que « l’État n’a pas pour mission de concevoir des produits » et qu’il fallait se tourner vers le secteur privé. Mais c’est, en même temps, ce même ministre qui a récemment annoncé la généralisation de Visio, développé par la Dinum au sein de sa plateforme La Suite numérique.

Priorité aux solutions mutualisées existantes…

Avant la publication de la circulaire, Bercy affichait que son but était de clarifier la doctrine d’achat de solutions numériques de l’État. Tout en essayant de ménager les startups françaises, ce texte donne priorité aux « solutions mutualisées déjà développées […] disponibles au sein de l’administration, en particulier via les services offerts par les opérateurs mutualisés ».

La circulaire donne une liste non exhaustive de ces opérateurs : DINUM, IGN, Opérateur des systèmes d’information interministériels classifiés (OSIIC), Centre interministériel de services informatiques relatifs aux ressources humaines (CISIRH), Agence pour l’Informatique financière de l’État (AIFE). « Leur recours doit être étudié en premier lieu en prenant en compte, le cas échéant, les besoins de développements complémentaires qui pourraient être nécessaires », explique encore le texte. C’est la DINUM elle-même qui tient le catalogue des solutions disponibles.

… puis aux solutions privées « sur étagère »

Ce n’est qu’après avoir vérifié qu’aucune solution mutualisée n’existe qu’un service de l’État peut s’équiper via des solutions « sur étagère » du privé. Le texte affirme que « l’État accorde une priorité forte à l’achat auprès de PME innovantes pour soutenir la recherche et développement au sein de l’écosystème européen » et ajoute que « chaque secrétariat général se fixe pour objectif d’augmenter sa part d’achats auprès de PME innovantes ».

Le développement d’un logiciel en interne ne peut intervenir que s’il n’existe pas de solutions « sur étagère » ou si celles-ci existent mais ne sont pas satisfaisantes. La circulaire évoque quand même de nombreux motifs d’insatisfactions autres que le coût, ainsi sont énumérées « les conditions de sécurité, de durabilité, de besoin ou de délais précitées ».

La souveraineté numérique en critère essentiel

Lorsqu’il y a achats numériques, la circulaire pose des objectifs prioritaires à prendre en compte. Le premier est « la performance métier ». La « souveraineté numérique » arrive en deuxième, puis la sécurité, le coût, la disponibilité, l’adaptabilité et la réversibilité, l’interopérabilité et enfin la durabilité.

Si la souveraineté numérique est bien placée, il restait à la définir. Le texte affirme qu’en pratique, elle s’appuie « en particulier » sur trois points : l’immunité au droit extra-européen à portée extraterritoriale, la capacité de l’État à substituer une composante de ses systèmes numériques par une solution alternative, la maîtrise des technologies clefs.

« La qualification SecNumCloud permet notamment d’attester qu’une offre de service d’informatique en nuage bénéficie d’une protection adéquate à l’égard des réglementations extra-européennes à portée extraterritoriale. Cette immunité est en particulier requise lorsque la sensibilité des données le justifie », affirme le texte, toujours sur le volet souveraineté.

Côté sécurité, le besoin doit être « défini dès le lancement du projet en prenant en compte les exigences réglementaires spécifiques à certains types de données ou d’activité ». La qualification SecNumCloud y est aussi évoqué pour l’hébergement de « données d’une sensibilité particulière telles que définies par la loi ».

Le texte fait enfin un « zoom sur l’open source », affirmant : « que les solutions soient directement disponibles auprès d’un opérateur ou résultent d’un achat « sur étagère », il est recommandé de privilégier, lorsque c’est pertinent, le recours à des produits open source ». L’utilisation des logiciels open source permet « d’investir dans les mêmes technologies et de bénéficier des avancées de chacun ». « Une attention particulière doit être portée sur les contributions au code ouvert, tant sur la qualité que sur la quantité, afin de garantir sa pérennité et sa sécurité », précise le texte.

Zero Knowledge : une étude pointe les carences de Bitwarden, LastPass et Dashlane

17 février 2026 à 16:13
Zero virgule cinq Knowledge
Zero Knowledge : une étude pointe les carences de Bitwarden, LastPass et Dashlane

Une étude réalisée par des chercheurs de l’École polytechnique fédérale de Zurich révèle que Bitwarden, LastPass et Dashlane pourraient, dans des conditions exceptionnelles, permettre la divulgation du mot de passe principal de leurs utilisateurs, en dépit de leur promesse relative au chiffrement « Zero Knowledge ». Les trois services indiquent avoir déjà implémenté les corrections nécessaires.

Devenus incontournables dans le quotidien de millions d’internautes, les gestionnaires de mot de passe opérés dans le cloud offrent-ils les garanties de sécurité nécessaires et suffisantes ? Une étude menée sous l’égide de l’École polytechnique fédérale de Zurich (ETH Zurich) conclut que trois services parmi les plus populaires du secteur présentaient des vulnérabilités susceptibles de conduire à la divulgation ou à la modification du mot de passe principal du compte de l’utilisateur.

Au cours de leurs travaux, les chercheurs ont exploité un scénario possible, mais très hypothétique : celui d’une prise de contrôle du serveur chargé des interactions avec l’utilisateur final. Dans ce contexte exceptionnel, ils indiquent avoir réussi à mener douze attaques différentes conduisant à une compromission du mot de passe chez Bitwarden, contre sept pour LastPass et six chez Dashlane. Les chercheurs ne remettent pas en cause la sécurité des chiffrements mis en œuvre : d’après leurs observations, c’est principalement au niveau des mécanismes chargés de faciliter la vie des utilisateurs que se situent les vulnérabilités.

La promesse du Zero Knowledge

Les gestionnaires de mot de passe en ligne invoquent en général le concept de Zero Knowledge (littéralement, « aucune connaissance ») pour rassurer leurs utilisateurs quant à la sécurité de leurs données. Bien qu’il n’obéisse pas à une définition ou à des conditions techniques de mise en œuvre strictes, il suppose que le serveur qui stocke les mots de passe est littéralement incapable d’en connaître le contenu, parce que ce contenu est chiffré et que seul l’utilisateur final dispose de la clé privée indispensable à son déchiffrement.

« Techniquement, Dashlane ne possède pas d’autre clé, mais nous avons bâti un mécanisme de chiffrement qui garantit que votre coffre-fort est sécurisé avec votre clé et que les données du coffre-fort ne sont accessibles que par vous, le propriétaire. C’est pourquoi toutes les opérations sensibles de Dashlane, le chiffrement et le déchiffrement de votre coffre-fort en l’occurrence, sont effectuées localement sur votre appareil. Cela garantit que nous ne les voyons pas sur nos serveurs. », illustre par exemple Dashlane.

Cette promesse tient-elle toujours si le serveur qui héberge les mots de passe est compromis ? L’étude complète, annoncée et publiée par l’ETH Zurich (PDF), répond par la négative. Au cours de leurs travaux, les chercheurs indiquent en effet avoir mené avec succès quatre types d’attaques, exploitant respectivement les fonctionnalités de séquestre utilisées pour la récupération de compte et la connexion unifiée (SSO), les manquements du coffre-fort en matière d’intégrité, les fonctionnalités de partage et les outils dédiés à la rétrocompatibilité.

Une surface d’attaque augmentée par la complexité du code

Les auteurs précisent avoir sélectionné Bitwarden, LastPass et Dashlane à la fois parce que ces derniers peuvent être considérés comme représentatifs du secteur (par leur ancienneté et leur parc de clients, estimé à 60 millions d’utilisateurs cumulés, ou 23 % de parts de marché) et parce que le code de leurs clients logiciels est ouvert (totalement pour Bitwarden, partiellement pour les deux autres), contrairement à celui des solutions d’Apple ou de Google, très populaires puisque intégrées à leurs environnements mobiles.

Au total, 25 attaques ont donc ont été menées avec succès sur l’ensemble des services examinés. « Nous avons été surpris par la gravité des failles de sécurité », commente Kenneth Paterson, l’un des auteurs de l’étude, selon qui la découverte est d’autant plus criante que les gestionnaires de mots de passe constituent, par essence, une cible à très forte valeur perçue pour des attaquants. Les auteurs remarquent par ailleurs que si les conditions de test sont particulières (serveur malveillant), leurs attaques sont réalisées par le truchement d’interactions « normales » de l’utilisateur final avec le service.

Dans la discussion qui suit l’exposé de leurs attaques, ils remarquent que les gestionnaires de mot de passe sont tiraillés entre deux exigences contradictoires que sont la sécurité et le niveau de service fonctionnel rendu à l’utilisateur, qui s’attend à pouvoir récupérer son mot de passe en cas de perte, consulter son gestionnaire sur tous les écrans, ou disposer de fioritures telles que la création d’accès partagés.

« Après un examen plus approfondi, nous avons constaté que les gestionnaires de mots de passe sont loin d’être simples : ils ont évolué pour inclure des protocoles complexes pour la synchronisation, la récupération et la rotation des clés, le partage d’éléments chiffrés et la migration entre différentes primitives cryptographiques [les briques qui fournissent les fonctions de base du chiffrement, ndlr] », remarquent les auteurs. C’est, selon eux, cette complexité accrue qui augmenterait la surface d’attaque potentielle.

Les gestionnaires de mots de passe accusent réception

Avertis en amont de la publication de l’étude, les trois éditeurs de services concernés ont accusé réception de ces découvertes. « Tous les problèmes identifiés dans le rapport ont été traités », promet Bitwarden qui détaille les réponses apportées dans un rapport de transparence dédié (PDF). Trois ne seront cependant pas corrigés, parce que le remède compromettrait certaines fonctionnalités du service, indique tout de même l’éditeur. Qui profite de l’occasion pour « réaffirmer que Bitwarden n’a jamais subi de violation de données ».

Dashlane salue également ce travail de recherche, qualifié d’exercice utile, et précise avoir apporté tous les correctifs jugés nécessaires dans sa version 6.2544.1 publiée le 5 novembre dernier. Le service en profite pour souligner que les fonctionnalités de partage (basées sur une clé publique) et les mécaniques de synchronisation basées sur l’échange de transactions chiffrées sont des difficultés intrinsèques au service rendu.

« Cette recherche met en lumière plusieurs enseignements :
– Maintenir les méthodes cryptographiques à jour est essentiel pour la sécurité, mais cela introduit une complexité qui doit être gérée avec soin.
– L’authentification de clé publique à grande échelle est un défi connu que notre secteur doit relever.
 »

Même son de cloche du côté de LastPass, qui indique avoir déjà corrigé l’une des vulnérabilités mises au jour par l’ETH, et ajoute plancher sur la sécurisation des parcours de réinitialisation et de partage, ainsi que sur l’amélioration des mécanismes dédiés au contrôle d’intégrité.

Une démarche à laquelle adhèrent tacitement les chercheurs :

« Les vulnérabilités que nous décrivons sont nombreuses, mais pour la plupart mineures sur le plan technique. Pourtant, elles n’avaient apparemment pas été découvertes auparavant, malgré plus d’une décennie de recherche universitaire sur les gestionnaires de mots de passe et l’existence de multiples audits des trois produits que nous avons étudiés. Ceci motive la poursuite des travaux, tant sur le plan théorique que pratique. »

☕️ Deux anciens de Palantir créent Onodrim, une start-up européenne de défense

17 février 2026 à 14:27

L’Europe accueille une nouvelle start-up de défense, et pas des moindres : installée à Amsterdam, Onodrim Industries veut « jeter les bases d’un nouveau noyau européen de défense », selon son communiqué.


La société indique travailler à une plateforme industrielle dédiée à la gestion de sujets de sécurité nationale. Pour se lancer, elle vient de lever 40 millions d’euros auprès de Founders Fund, l’un des fonds du financier américain Peter Thiel, Lakestar, General Catalyst et plusieurs fonds et business angels européens.

La société a été cofondée par l’ancien conseiller du gouvernement lituanien et responsable technologique de Palantir, Aistis Šimaitis, qui en sera le PDG ; l’ancien responsable ingénierie de Palantir, Alexander Blessing, qui en sera directeur technique ; et le financier Christian Garett. Avec son fonds 137 Ventures, ce dernier possède aussi des parts d’Anduril, société de défense fondée en 2017 par Palmer Luckey, de SpaceX, et de diverses sociétés de technologies militaires.

Dans un contexte de guerre en Ukraine et de grands changements géopolitiques, Onodrim déclare construire les outils qui permettront au Vieux continent de se défendre tout en restant compétitif. Italo-américain, Christian Garett précise avoir une « opportunité unique sur une génération » d’influer sur la manière dont les investissements renforcent « notre sécurité et notre base industrielle » dans la mesure où l’Europe se prépare à investir près de « 800 milliards d’euros pour ses dépenses de défense d’ici 2030 ». Le financement doit permettre de recruter des ingénieurs et créer des usines et des espaces de recherche et développement en Europe.

Onodrim est nommée d’après l’œuvre de Tolkien, dans laquelle il est utilisé pour nommer parfois les Ents, les esprits des forêts qui prennent l’apparence d’arbres. Ce faisant, elle s’inscrit directement dans le sillage de la multitude d’entités créées ou financées par Peter Thiel, à commencer par Palantir, Anduril, la banque Erebor, et diverses sociétés de capital-risque.

Sur X, Christian Garett précise que le projet ne consiste pas à concurrencer Palantir et Anduril. Il évoque plutôt la possibilité de « s’appuyer » sur les « épaules » de ces « entreprises générationnelles ».

Infox, ingérences & cie : la France veut « garantir que chacun puisse penser librement »

17 février 2026 à 13:10
Les complotistes vont adorer le détester
Infox, ingérences & cie : la France veut « garantir que chacun puisse penser librement »

La Stratégie nationale de lutte contre les manipulations de l’information 2026 - 2030 relève que la menace, en matière d’ingérences étrangères, n’a jamais été aussi élevée, mais également que la France a été l’une des pionnières dans la lutte dirigée contre cette dernière.

« Chaque citoyen, acteur public ou privé, doit disposer des moyens de s’informer de manière éclairée, de comprendre les mécanismes d’ingérence et de contribuer activement au débat démocratique », résume la Stratégie nationale de lutte contre les manipulations de l’information 2026 - 2030. Son introduction souligne qu’ « au cœur de cette stratégie se trouve l’ambition de dépasser la simple lutte contre les manipulations de l’information pour construire une société capable de maintenir la confiance et des repères communs ».

Un objectif urgent mais probablement hors d’atteinte, d’autant plus louable que le Parlement et donc l’opinion publique n’ont jamais été aussi divisés, que les médias et réseaux sociaux n’ont jamais été autant instrumentalisés et pollués par des manipulations de l’information (franco-françaises comme pouvant relever d’ingérences étrangères).

Cette première Stratégie nationale de lutte contre les manipulations de l’information, que vient de publier le Secrétariat de la défense et de la sécurité nationale (SGDSN), a pour objectif de doter la France de « moyens renforcés pour protéger son débat public, garantir la capacité de chacun à se forger un jugement éclairé et défendre, avec ses partenaires, un espace informationnel fondé sur la liberté d’expression et la pluralité des opinions » :

« Elle s’articule autour de quatre priorités : renforcer la résilience de la Nation ; encadrer et responsabiliser les plateformes en ligne et les services d’intelligence artificielle générative ; consolider les capacités nationales de détection, d’attribution et de réponse ; agir avec les partenaires européens et internationaux pour préserver un espace informationnel libre, ouvert et sécurisé. »

Dans sa préface, le président de la République souligne que les manipulations de l’information « ne sont plus des accidents marginaux du débat public » et qu’elles sont « devenues des instruments à part entière de confrontation stratégique » :

« Elles visent moins à convaincre qu’à désorienter, moins à imposer une vérité qu’à dissoudre les repères communs, moins à gagner un débat qu’à affaiblir la possibilité même du débat. En brouillant les frontières entre le vrai et le faux et en exploitant les fractures sociales et émotionnelles, elles cherchent à miner de l’intérieur ce que les démocraties ont de plus robuste : la confiance. »

« Face à ces pratiques, la tentation pourrait être grande d’ériger des murs, de restreindre la parole, de surveiller les idées. Ce serait une erreur », poursuit Emmanuel Macron : « La force des régimes autoritaires est de pouvoir contrôler l’information ; la force des démocraties est de pouvoir la confronter ».

« Il ne s’agit pas de dire ce qu’il faut penser, mais de garantir que chacun puisse penser librement », tout en identifiant les auteurs et vecteurs de manœuvres hostiles, « sans jamais soupçonner les citoyens » :

« Cette stratégie repose sur une conviction simple : le premier rempart contre la manipulation est la société elle-même. Une société instruite, capable de discernement, confiante dans ses institutions et dans ses médias, est une société moins vulnérable aux récits de division. »

« Ce n’est pas un hasard si les manipulations de l’information prospèrent d’abord là où existent l’ouverture, le débat et la pluralité », et donc dans nos démocraties, qui « sont aujourd’hui observées, testées, parfois attaquées par des régimes qui redoutent leur exemple » :

« C’est le paradoxe de la liberté : elle attire ceux qui veulent l’affaiblir. Mais c’est aussi sa force : elle permet de leur résister sans leur ressembler. […] Il ne s’agit pas seulement de protéger nos institutions. Il s’agit de défendre la capacité de chacun à se forger un jugement éclairé. »

Des MacronLeaks à l’assassinat de Samuel Paty

Élaborée sous l’égide du SGDSN, la stratégie nationale 2026 - 2030 s’appuie sur des contributions d’experts, de chercheurs, de parlementaires et d’acteurs de terrain engagés dans la lutte contre les manipulations de l’information, mais sans que le SGDSN n’en indique la liste. Elle revient par contre largement sur les différentes étapes ayant conduit à sa rédaction, et souligne que la France a été un « pays précurseur » en matière de lutte contre les manipulations de l’information.

Les MacronLeaks, publiés à la veille du premier tour de la présidentielle 2017, et depuis attribués à Fancy Bear (ou APT28, une unité du GRU, le service de renseignement militaire russe, également à l’origine du piratage de TV5Monde) avaient ainsi conduit à la mise en place, en 2018, d’un réseau de coordination interministérielle placé sous l’égide du SGDSN.

En décembre 2018, la loi relative à la lutte contre la manipulation de l’information avait doté, en parallèle, le CSA (devenu Autorité de régulation de la communication audiovisuelle et numérique, ARCOM) et le juge des référés de nouvelles prérogatives en la matière.

Fin 2020, l’assassinat de Samuel Paty « a marqué un tournant dans la perception de la menace, révélant la dangerosité des dynamiques de haine amplifiées numériquement ». La création de la « Task force Honfleur » interministérielle dédiée, décidée dans la foulée, jeta les bases d’un dispositif de réponse pérenne.

La création du service de vigilance et de protection contre les ingérences numériques étrangères (VIGINUM) en 2021 a depuis permis de sortir d’une « logique de gestion de crise », souligne le SGDSN, de structurer la doctrine et de lui dédier des « capacités opérationnelles », d’inscrire la « protection du débat public francophone au cœur de la défense et de la sécurité nationale », mais également de « renforcer la crédibilité de la France dans les coopérations internationales ».

Un « périmètre d’action publique ciblé »

Le décret du 13 juillet 2021 portant création de VIGINUM a défini la notion d’ingérence numérique étrangère (INE) comme étant une « opération impliquant, de manière directe ou indirecte, un acteur étranger (étatique ou non), et visant la diffusion artificielle ou automatisée, massive et délibérée d’allégations ou imputations de faits manifestement inexactes ou trompeuses, de nature à porter atteinte aux intérêts fondamentaux de la Nation ».

VIGINUM ne vise donc pas à lutter contre toute forme de désinformation, mais uniquement celles relevant d’une « typologie rigoureuse de la menace, qui repose sur quatre critères cumulatifs : une atteinte potentielle aux intérêts fondamentaux de la Nation ; une allégation ou imputation de fait manifestement inexacte ou trompeuse ; une diffusion, ou une volonté de diffusion, artificielle ou automatisée, massive et délibérée ; l’implication, directe ou indirecte d’un acteur étranger (étatique, paraétatique ou non-étatique) ».

Dès lors, VIGINUM reste circonscrit à un « périmètre d’action publique ciblé » et concentre ses moyens « sur l’amplification artificielle, l’automatisation et la coordination inauthentique », de sorte qu’il « protège le pluralisme interne en dissociant l’analyse des procédés de manipulation de toute appréciation des opinions, des acteurs ou des mouvements » :

« Le dispositif national de lutte contre les manipulations de l’information repose sur un principe démocratique clair : il n’a ni vocation ni mandat pour qualifier les dynamiques nationales. Son champ d’intervention porte sur la détection de manœuvres techniques de manipulation et d’opérations coordonnées impliquant une origine étrangère, dans une logique de sécurité nationale. »

« L’administration US mène une croisade pour sauver l’Europe »

Si le périmètre est délimité, la menace s’accroît. Aux traditionnels acteurs russes, chinois ou azerbaïdjanais, le SGDSN note en effet qu’ « une vision absolutiste de la liberté d’expression telle que conçue par certains courants conservateurs aux États-Unis est délibérément introduite dans le débat public européen ».

Instrumentalisée de manière « désinhibée » et « reprise opportunément par les plateformes en ligne », elle permet d’ « entretenir une conception trompeuse, voire erronée, des objectifs de la réglementation numérique européenne (DSA) », croisade récemment documentée par L’observatoire des multinationales.

Alors que l’administration Trump a pris soin de démanteler ses services et unités en charge (directement, ou via les fonds qu’ils accordaient à la société civile et aux ONG) de la lutte contre la désinformation et les ingérences étrangères, une note de bas de page souligne que l’U.S. National Security Strategy, publiée le 5 décembre 2025, souligne des velléités d’influence politique partisane en faveur des partis politiques européens d’extrême-droite, présentés comme « patriotiques » :

« La diplomatie américaine doit continuer à défendre la démocratie authentique, la liberté d’expression et la célébration sans complexe du caractère et de l’histoire propres à chaque nation européenne. Les États-Unis encouragent leurs alliés politiques en Europe à promouvoir ce renouveau spirituel, et l’influence croissante des partis patriotiques européens est en effet source d’un grand optimisme. »

Évoquant un risque d’ « effacement civilisationnel » de l’Europe, la nouvelle stratégie US dénonce pêle-mêle les décisions européennes qui « sapent la liberté politique et la souveraineté ; les politiques migratoires, qui transforment le continent et créent des tensions ; la censure de la liberté d’expression et la répression de l’opposition politique ; la chute des taux de natalité, ainsi que la perte des identités nationales (…) ». Elle souhaite dans le même temps que « l’Europe reste européenne, retrouve sa confiance en elle-même sur le plan civilisationnel et abandonne son obsession infructueuse pour l’asphyxie réglementaire », résume l’AFP :

« Nous rejetons les idéologies désastreuses “changement climatique” et “zéro émission nette” qui ont tant nui à l’Europe, menacé les États-Unis et subventionné nos adversaires. »

Le Financial Times révélait en outre le 6 février que « l’administration américaine mène une croisade pour sauver l’Europe », et que le département d’État états-unien s’apprêtait aussi à financer des groupes de réflexion et des organisations caritatives alignés sur le mouvement Maga à travers l’Europe, afin de diffuser les positions politiques de Washington et de lutter contre ce qu’il qualifie de menaces envers la liberté d’expression.

Les IA nous conduisent « vers une réalité de plus en plus fragmentée »

Cherchant à se projeter à l’horizon 2030, le SGDSN anticipe une banalisation des contenus générés par IA, au fur et à mesure que cette dernière est « intégrée aux outils du quotidien et aux gestes ordinaires de communication et de recherche d’information ». Or, « lorsque des traces numériques peuvent être produites instantanément et en nombre, leur valeur probante tend à s’affaiblir », au point que « ce qui faisait auparavant preuve comme élément visuel ou sonore isolé devient plus fragile et plus facilement contestable » :

« Dans ce contexte, la frontière entre information, commentaire, interprétation et manipulation devient moins lisible […] réduisant la capacité des publics à discriminer une production authentique d’une fabrication artificielle. »

« Cette banalisation s’accompagne d’une personnalisation accrue de l’information », poursuit le SGDSN, pour qui cette « hyper-personnalisation algorithmique » nous conduit « vers une réalité de plus en plus fragmentée ». Or, cette fragmentation crée aussi un terrain favorable aux stratégies d’ingérence, qui peuvent cibler des publics segmentés, adapter les messages et exploiter des clivages existants : « la polarisation ne résulterait alors plus seulement des désaccords d’opinion, mais du fait que les individus n’accèdent plus aux mêmes sujets ou aux mêmes récits, avec des mises en perspective différentes ».

Le SGDSN relève que des dispositifs, « notamment des agents IA ou des modèles agentiques, capables de produire, relayer et amplifier des prises de parole », commencent d’ores et déjà à participer aux échanges en ligne dans certains environnements, sans être toujours identifiables comme tels :

« L’enjeu ne consiste alors plus seulement à convaincre, mais à imposer une dynamique d’attention : capter l’attention, maintenir un sujet au premier plan et, in fine, saturer les capacités d’échange. Le débat public peut ainsi être moins structuré par la qualité des arguments que par la capacité à orienter ou disperser l’attention collective. Ces logiques s’accordent avec des modes opératoires d’ingérence fondés sur la diffusion artificielle et coordonnée de contenus, visant moins la persuasion directe que la perturbation durable du débat public. »

« À mesure que l’intelligence artificielle devient une interface d’accès à l’information (moteurs génératifs, assistants conversationnels, outils de synthèse) », les stratégies d’ingérence informationnelle « pourraient viser non plus seulement les publics, mais les systèmes chargés de produire, d’organiser et de reformuler l’information », souligne le SGDSN, évoquant les risques d’empoisonnement des IA :

« Dans un environnement où la valeur informationnelle repose de plus en plus sur les données – corpus d’entraînement, contenus indexés, signaux d’ajustement des modèles – l’action d’ingérence peut s’exercer en amont, par une intervention directe ou indirecte sur ces ensembles de données, plus facilement sur les couches d’indexation et de recherche dans des environnements ouverts, que sur les modèles fondamentaux eux-mêmes dont les corpus d’entraînement devraient, en théorie, être plus filtrés et préparés. »

Dans un second article, nous reviendrons sur les nombreuses mesures concrètes énumérées dans cette stratégie nationale de lutte contre les manipulations de l’information 2026 - 2030.

La vidéosurveillance algorithmique dans les magasins adoptée à l’Assemblée nationale

17 février 2026 à 11:01
Algorithmiquement surveillés
La vidéosurveillance algorithmique dans les magasins adoptée à l’Assemblée nationale

Le député Paul Midy a réussi à faire voter à l’Assemblée nationale son texte légalisant l’utilisation de la vidéosurveillance algorithmique dans les magasins. Celui-ci, présenté comme une expérimentation, doit néanmoins continuer son parcours législatif. La gauche met en cause sa constitutionnalité.

La proposition de loi présentée par le député Paul Midy (Ensemble) sur la vidéosurveillance algorithmique dans les magasins a finalement été adoptée à l’Assemblée nationale ce lundi 16 février (60 voix contre 13, détail des votes). Il n’a néanmoins pas fini son parcours législatif.

Comme nous l’évoquions début février, le texte de Paul Midy vise le « vol à l’étalage » qui est, selon celui-ci, un « véritable fléau économique ». De fait, l’élu le dit lui-même, sa proposition vise à légaliser une pratique déjà mise en place dans certains commerces illégalement : « 3 000 commerces utilisent déjà cette technologie », a-t-il affirmé lors des débats.

Il a d’ailleurs, via un amendement, fait changer le titre de sa proposition de loi pour qu’il reflète le contenu du texte « visant à encadrer l’utilisation par les commerçants d’outils d’analyse vidéo automatique pour lutter contre le vol ».

Le député a, par ailleurs, précisé via un amendement les lieux dans lesquels son texte prévoyait d’autoriser la vidéosurveillance algorithmique : des « lieux et les établissements ouverts au public » le texte vise désormais les « commerces de détail, les grandes surfaces et les centres commerciaux ».

Une légalisation anticonstitutionnelle selon la gauche

La députée Élisa Martin (LFI) a pointé lors des débats le flou entretenu par les éditeurs de logiciels embarqués sur les caméras sur ce qu’ils font vraiment dès à présent :

« Des logiciels, qui ont besoin de données pour s’entraîner, pourraient détecter automatiquement, par exemple, un mouvement de foule ou en l’occurrence un vol ou une tentative de vol. Comment les entreprises privées les programment-elles et comment sont-ils précisément entraînés ? À vrai dire, on n’en sait rien. Il est en tout cas certain que ces entreprises sont en avance sur les députés et sur la loi. Ainsi, chacun sait qu’il suffit de cocher une case dans le logiciel pour activer la reconnaissance faciale… »

Lors des débats, la gauche a par ailleurs soulevé sa possible inconstitutionnalité. Ce texte « ne correspond pas aux décisions du Conseil constitutionnel », a affirmé la députée Cyrielle Chatelain (Les Écologistes) : « en effet, en mai 2023, ce dernier a précisé que la technologie de vidéosurveillance algorithmique devait être réservée aux atteintes à l’ordre public et aux risques terroristes. Nous sommes là très loin de ces lignes directrices ».

Le député PS Hervé Saulignac a renchéri : « Je pense que ce texte finira par passer à la moulinette du Conseil constitutionnel, et ce n’est pas plus mal ».

Un alignement de la fin de l’expérimentation sur celle prévue pour les JO

Les amendements du député RN Julien Rancoule et notamment celui visant à élargir l’utilisation de la vidéosurveillance algorithmique « pour la sécurité des personnes » ont été rejetés. Mais, alors qu’il proposait la date du 31 décembre 2029 comme fin de l’expérimentation, les députés ont choisi d’aligner cette date avec celle du texte sur la vidéosurveillance algorithmique pour les JO de 2030 voté récemment.

Ainsi, le texte garde l’affichage d’un projet « à titre expérimental », mais l’amendement du député Renaissance Florent Boudié ramène la date de fin officielle du dispositif au 31 décembre 2027 et prévoit la remise d’un rapport d’évaluation par le gouvernement au 30 septembre 2027.

Pour la vidéosurveillance algorithmique des JO (qui auront lieu en 2030), cette date du 31 décembre 2027 avait été justifiée par la rapporteure du texte, Véronique Riotton (députée Renaissance), du fait que « le législateur bénéficiera d’une évaluation sur les cas d’usage et sur le déploiement de la vidéosurveillance algorithmique qui lui permettra de décider si celle-ci constitue un bon outil en vue des JO », événement ponctuel.

Mais pour l’utilisation dans les magasins, ce texte va mécaniquement engendrer une croissance de l’utilisation du dispositif, notamment par les centres commerciaux qui ont les moyens de le déployer. Il sera d’autant plus difficile de revenir en arrière, alors que le texte est déjà justifié par le fait qu’il est déployé illégalement dans des milliers de commerces.

Le texte adopté par l’Assemblée nationale ce lundi 16 février doit maintenant passer par le Sénat, et devra revenir devant les députés si les sénateurs ne le votent pas en l’état.

[Test] VPS pas cher (5 euros) : LWS utilise la virtualisation LXC(FS) et impose des bridages

17 février 2026 à 10:25
« VPS pas cher »
[Test] VPS pas cher (5 euros) : LWS utilise la virtualisation LXC(FS) et impose des bridages

LWS cible l’entrée de gamme et nos tests sur le VPS LC1 le confirment : des performances ras des pâquerettes, une bande passante limitée à 100 Mb/s, voire 10 Mb/s. Le VPS n’a rien pour se démarquer de la concurrence, si ce n’est de la virtualisation LXC… mais est-ce une bonne nouvelle ? On vous explique de quoi il retourne.

Après Ionos qui ouvrait le bal de notre dossier sur les tests de serveurs virtuels privés à petit prix (5 euros ou moins), nous passons à LWS pour Ligne Web Services, filiale de la société française Groupe LWS qui existe depuis 1999. Elle s’est principalement installée sur l’entrée de gamme, que ce soit sur les noms de domaine, l’hébergement et les serveurs.

La gamme qui nous intéresse est intitulée « VPS pas cher », au moins le ton est donné. Pour 3,59 euros par mois, nous n’avons toutefois pas grand-chose : un seul vCore d’un CPU Intel Xeon E5-1630 v3 (Haswell) selon la fiche produit. Celui-ci commence à accuser un certain âge : 2014, on est donc loin de l’EPYC chez Ionos.

L’unique cœur est épaulé par 2 Go de mémoire, mais aussi un Vswap de 2 Go supplémentaire qui est du stockage « SSD NVMe (+ 3500 Mo/s) ce qui double la mémoire RAM et améliore les performances ». Si le stockage NVMe est rapide, il est encore très loin des performances de la mémoire et ne devrait pas vraiment faire illusion. Bref, considérez que la machine a uniquement 2 Go de mémoire. Pour le stockage, nous avons 20 Go de SSD.

Il existe aussi un LC2 avec deux cœurs, 4 Go de mémoire et 40 Go de SSD à 7,19 euros, ainsi qu’un LC3 avec de nouveau 2 cœurs, 8 Go de mémoire et 80 Go de stockage pour 11,99 euros. Les tarifs des LC2 et LC3 semblent assez élevés vu les caractéristiques techniques et la concurrence.

100 Mb/s seulement et trafic « illimité* », importante l’étoile !

L’hébergeur annonce la couleur : 100 Mb/s de bande passante et un « trafic illimité » sont inclus dans le pack. D’après nos tests, la limitation à 100 Mb/s est bien présente avec 92 à 94 Mb/s de moyenne en téléchargement sur nos deux fichiers de 1 Go. Le serveur tombe même sous les 40 Mb/s avec le fichier de 10 Go sur les serveurs de Free, et ce sur l’ensemble des cinq passes de notre protocole de test.

À regarder l’interface, on découvre une jauge avec une limite de « Transfert mensuel » à 256 Go (c’est quand même peu selon les usages). Dans l’aide, nous trouvons l’explication : il y a des limites de bande passante sur les serveur VPS en fonction de l‘usage. Avec notre VPS LC1, nous n’avons droit qu’à 256 Go à 100 Mb/s (qui est déjà la limitation la plus forte de notre comparatif), puis la bande passante est divisée par 10 avec seulement 10 Mb/s. C’est comme l’illimité des opérateurs téléphonique : une fois le « fair use » dépassé (256 Go dans notre cas), les performances sont plombées.

Autre limitation qui n’est pas indiquée sur la page produit : on ne peut pas dépasser 3 500 processus sur votre VPS LC1. Là encore, une jauge est présente dans l’interface. Sur la mémoire, seuls les 2 Go de RAM sont indiqués, il n’est pas fait mention du VSwap sur l’interface d’administration.

Dans sa foire aux questions (enfin sa foire aux deux questions), LWS précise la philosophie de son offre (dans un texte bourré de fautes) :

« Le prix, la performance et le niveau de services ! Le VPS pas cher est une offre qui permet d’avoir un serveur VPS avec l’essentiel. réservée au clients avertis, le serveur sera de haute qualité et fiabilité mais vous seul assurerez son administration et système de sauvegarde. Un serveur dédié VPS pro sera sur du métériel toute dénière génération offrant plus de pérformances et il sera inclus de l’infogérance ».

Service d’assistance et d’infogérance en option

Au niveau des systèmes d’exploitation, LWS propose Ubuntu 24.04, AlmaLinux 9, CentOS 9, Rocky Linux 9 et Debian 12. Il y a bien une option Snapshots, mais cliquez dessus et vous aurez le message suivant : « Les snapshots ne sont pas disponibles sur la gamme VPS Low Cost ». Aucun choix géographique n’est proposé, il est juste indiqué que « les serveurs VPS sont tous hébergés en France ». Comme Ionos, LWS propose 30 jours d’essai gratuit.

Dans l’interface de gestion de notre compte, deux niveaux de services payants pour de l’assistance sont disponible. Le premier, dit Business, est à 16,80 euros TTC avec assistance technique prioritaire par astreinte, infogérance niveau 2 pendant 1 h par mois, garantie de temps de rétablissement H+4 jours et heures ouvrables…

Avec le service Sérénité (via un partenaire, dutiko), il faudra débourser 120 euros par mois pour avoir en plus une garantie de temps de rétablissement H+4 24/7, une astreinte 7j/7, 24 h/24, une supervision logiciel 24/7, une intervention pro-active pour les mises à jour de l’OS, du kernel, du pare-feu et de sécurité, de l’infogérance (Debian, Ubuntu server, Gentoo et CentOs)… Il faut donc payer 120 euros en plus des 3,59 euros par mois… D’autres hébergeurs proposent aussi de l’infogérance sur certains VPS, si ce genre de service vous intéresse, comparez les offres !

Performances en berne, et relativement instable

Avant d’entrer dans le détail, voici le diagramme de Kiviat de LWS. Comme avec Ionos, nous avons mis pour référence la moyenne de tous les VPS de notre comparatif (ligne pointillée) et les résultats de LWS sur cinq catégories de benchmarks. L’hébergeur est systématiquement en dessous ou au niveau de la moyenne, sans se démarquer positivement sur un critère particulier.

L’ensemble de nos mesures sur le VPS LWS est disponible dans cette feuille de calcul ODS. Vous pouvez également consulter le rapport Geekbench à cette adresse.

Passons rapidement sur les performances, au ras des pâquerettes : c’est le score CPU le plus faible sur Sysbench 1T… et le VPS n’a rien pour se rattraper puisqu’il ne propose qu’un seul vCore et d’un processeur qui accuse déjà un certain âge (plus de 10 ans selon la fiche produit LWS… mais elle n’est peut-être pas à jour).

Mais surtout LWS est la machine avec la plus grande variation sur les résultats. Pour rappel, chaque mesure est faite cinq fois, nous éliminons le maximum et minimum de chaque benchmark, puis faisons la moyenne des trois résultats restants. L’ensemble des mesures est touché par les variations, qu’on enlève ou pas les extrémités.

L’écart est généralement de l’ordre de quelques pourcents pour les mesures de nos différents VPS, sauf chez LWS où il n’est pas rare de dépasser les 20 % et 50 % sur les performances CPU et la mémoire. Sur le stockage, les performances varient parfois du simple au double… Finalement seuls les tests réseau sont à peu près stables.

Là ou la moyenne des écarts des tests était sous les 3 % chez Ionos, elle est à près de 18 % chez LWS.

Virtualisation LXC : on remonte jusqu’à l’hôte pour voir ce qu’il raconte

Une autre particularité de LWS, partagée avec YorkHost, est d’utiliser LXC (LinuX Containers) pour la virtualisation et donc de partager le même noyau entre les VPS. Cette manière n’est pas sans conséquence pour les utilisateurs : elle « est utilisé pour faire fonctionner des environnements Linux isolés les uns des autres dans des conteneurs, partageant le même noyau et une plus ou moins grande partie du système hôte. Le conteneur apporte une virtualisation de l’environnement d’exécution (processeur, mémoire vive, réseau, système de fichier…) et non pas de la machine. Pour cette raison, on parle de « conteneur » et non de « machine virtuelle » », explique Wikipédia.

Il existe aussi une version plus récente, LXCFS (qui semble être utilisée par LWS). C’est « un système de fichiers FUSE utilisé pour contourner certaines lacunes du noyau Linux en ce qui concerne les informations des ressources système disponibles aux processus exécutant dans des conteneurs ». L’idée est de davantage présenter aux logiciels un état des lieux des ressources allouées au VPS et pas celle de la machine dans son intégralité.

Que ce soit en LXC ou en LXCFS, nous pouvons remonter jusqu’à l’hôte physique et ainsi voir un peu dans quel état il est, surtout au niveau de sa charge processeur, mémoire et stockage. On utilise pour cela lscpu et sysinfo(). On peut déjà apprendre que l’uptime de l’hôte est de près de 10 500 heures, soit un peu moins de 440 jours (alors que notre VPS n’avait que quelques jours à l’époque).

Et là, surprise. Le CPU retourné est un « Intel(R) Xeon(R) CPU E5-2650 v3 @ 2.30GHz » avec 10 cœurs et 20 threads, avec 128 Go de mémoire vive. C’est également un CPU de la génération Haswell, mais avec une grosse différence : plus de cœurs, mais surtout une fréquence de base et boost bien plus basse.

Alors que le E5-1630 v3 annoncé par LWS est à 3,7 GHz en fréquence de base et monte jusqu’à 3,8 GHz, le E5-2650 v3 détecté dans notre VPS est limité à respectivement 2,3 et 3,0 GHz. Une différence importante avec forcément une influence sur les performances.

Voici des exemples concrets de commandes dans un terminal de notre serveur, avec pour commencer celles interceptées par LXC(FS), qui retournent donc 2 Go de mémoire et un seul cœur (soit les caractéristiques de notre VPS) :

root@vps118018:~# cat /proc/meminfo | head - 1
MemTotal: 2097152 kB

root@vps118018:~# grep processor /proc/cpuinfo
processor : 0

2097152 kB font bien 2 Go, tandis que 0 signifie un cœur accessible, car l’ordinateur les compte de 0 à 19 (il y en a 20 avec l’hyperthreading). En effet, si on interroge directement l’hôte qui répond 128 Go de mémoire et 20 cœurs :

root@vps118018:~# lscpu | grep -E "CPU(s)|On-line|Off-line"
CPU(s): 20
On-line CPU(s) list: 0
Off-line CPU(s) list: 1 - 19

On apprend aussi que la charge moyenne (load) est entre 15 et 16, soit 75 % de saturation moyenne sur une machine avec 20 threads. Niveau mémoire, 90 à 94 % des 128 Go sont utilisés. Afin d’avoir une vision à plus long terme, nous avons lancé un script de suivi du serveur pendant 24 h.

La charge minimum était de 9, le maximum de 32, mais cela n’a pas duré longtemps. La période la plus chargée était entre 1 et 2 h du matin, puis à 12h30, 22 h et 5h30. Dans tous les cas, la moyenne sur 30 minutes de la charge de l’hôte était comprise entre 14 et 18. Nous n’avons pas détecté de CPU Steal sur notre VPS.

Conclusion ? On passe…

L’offre « VPS pas cher » de LWS porte bien son nom, mais on ne conseille pas vraiment de passer chez cet hébergeur à cause de la grande instabilité des performances. Il ne propose en plus qu’un seul cœur là où d’autres en mettent deux ou quatre. Les limitations sur le réseau sont importantes en termes de débit et de quantité.

Le serveur VPS de chez LWS avait par contre un avantage : nous permettre de détailler le fonctionnement de LXC(FS), c’est toujours ça de pris ! Dans l’ensemble des VPS que nous avons testés, un seul autre utilise cette méthode de virtualisation qui partage le même noyau Linux : YorkHost. Les autres sont en KVM et on ne peut donc pas remonter (en tout cas à notre niveau) jusqu’à l’hôte.

Le flou autour de la notion d’IA : une tactique de greenwashing à part entière ?

17 février 2026 à 08:28
IA trop de pétrole
Le flou autour de la notion d’IA : une tactique de greenwashing à part entière ?

L’essentiel des affirmations selon lesquelles l’intelligence artificielle permettra de réduire les émissions de CO2 ou de lutter contre l’urgence climatiques ne reposent sur aucune preuve, ou des éléments très faibles. Par ailleurs, l’absence de définition précise de ce qu’est l’IA participe directement à minimiser les impacts de la filière, selon un rapport publié ce jour.

Que ce soit pour vendre directement ses produits, ou pour assurer que ses prochaines innovations permettront d’améliorer l’état de la planète, l’industrie de l’intelligence artificielle est très forte en marketing. C’est du moins l’une des conclusions qu’on peut tirer d’un rapport publié ce 17 février sur le « canular climatique de l’IA ».

Porté par un consortium d’associations environnementales réunissant Beyond Fossil Fuels, Climate Action against Disinformation, Les Amis de la Terre, Stand.earth, Green Screen Coalition et Green Web Foundation, le document se penche en une trentaine de pages sur les affirmations de l’industrie de l’IA en matière d’impacts environnementaux. En tête de ses constats : trois messages sur quatre affirmant que l’IA servira d’une manière ou une autre le climat ne reposent sur aucune preuve. Lorsqu’elles sont présentes, ces dernières sont généralement fragiles.

L’affirmation selon laquelle l’IA permettra une réduction globale des émissions de dioxyde de carbone (CO₂) joue généralement sur le flou de la définition de l’intelligence artificielle : sur 154 affirmations de bénéfices climatiques étudiées, le rapport constate que 97 % concernent des systèmes « traditionnels », c’est-à-dire spécialisés dans des tâches spécifiques. Toutes issues du Microsoft AI & Sustainability Playbook publié en 2023, seulement 4 concernent des modèles d’IA générative accessibles au grand public. « Cette analyse n’a trouvé aucun exemple dans lequel un système génératif grand public comme ChatGPT, Gemini ou Copilot menaient à des niveaux vérifiables et substantiels de réductions des émissions », indique l’étude.

L’IA générative, ou l’abandon des objectifs d’émission de CO2

La promesse que le développement de l’IA permettra d’obtenir une réduction drastique des émissions de CO₂ se retrouve dans des travaux variés, que ce soit le rapport « Énergie et IA » de l’agence internationale de l’énergie, ou diverses publications dans le média scientifique Nature, par exemple signées par l’économiste britannique Nicholas Stern ou par la directrice des sciences durables et de l’innovation de Microsoft.

Globalement, pourtant, les preuves avancées pour étayer ces promesses sont faibles. La notion d’« intelligence artificielle » participe même à brouiller les messages : selon le type de modèle, les enjeux énergétiques sont loin d’être les mêmes. Dessinant deux grandes catégories en la matière – IA génératives, et modèles traditionnels -, le rapport souligne que pour l’essentiel, les applications d’IA qui fournissent de réelles applications dans différents cas d’usage climatiques sont plutôt antérieures à l’explosion des grands modèles de langage et des systèmes génératifs.

Ces derniers sont par ailleurs beaucoup plus énergivores. Leur adoption a mené l’essentiel des géants numériques à abandonner leurs promesses de réduction d’émissions de CO₂.

Visualisation des données d’émission de quatre géants numériques comparés aux cibles d’émissions qu’ils ont fournies dans les dernières années. Les émissions « non ajustées » (unadjusted) estiment le volume d’énergie fossiles dans leur consommation globale d’énergie. Les émissions « ajustées » (adjusted) intègrent leurs certificats d’entreprises de production d’énergie renouvelables et leurs contrats d’achat d’électricité. / The AI Climate Hoax, 2026

L’imprécision tactique, technique de greenwashing à part entière

Les preuves avancées sont, par ailleurs, sujettes à débat. Sur 154 affirmations étudiées, 26 % citent des articles scientifiques, 29 % citent des publications d’entreprises, 8 % se réfèrent à des médias, des institutions, des ONG ou des articles non revus par les pairs. La plus grande part (36 %) ne citent aucune preuve solide. Qu’il s’agisse de sites web ou de rapports de durabilité, les publications d’entreprises ne mentionnent généralement pas d’éléments de preuve vérifiables ou de citations d’articles scientifiques revus par les pairs.

Estimations des consommation d’énergie pour les modèles génératifs ou spécialisés en fonction de quatre scénarii. / The AI Climate Hoax, 2026

La tendance des géants du numérique au greenwashing n’est pas neuve, souligne le rapport. Par le passé, de nombreux acteurs ont diverses tactiques allant de l’opacité sur leurs émissions de CO₂ (y compris via l’achat de compensation carbone), des promesses non remplies de technologies à venir (comme le recours à la fusion nucléaire, la capture carbone, les centres de données installés dans l’espace et alimentés par énergie solaire, etc), le « fatalisme tactique » (qui consiste, pour un dirigeant en vue, à déclarer les objectifs climatiques irréalisables). Le document conclut néanmoins que l’affirmation selon laquelle l’IA (utilisée de manière indéfinie) permettra nécessairement de bénéficier à la situation climatique est une nouvelle tactique à part entière, qu’il qualifie d’« imprécision tactique ».

En octobre 2025, Beyond Fossil Fuels avait par ailleurs fait interroger 5 032 Européens de l’Ouest sur l’expansion des centres de données sur le continent. À travers les cinq pays sollicités (Irlande, Royaume-Uni, Espagne, Allemagne et Suisse), près des trois quarts (72 %) étaient d’accord avec l’idée qu’un nouveau centre de données « ne devrait être construit que s’il est alimenté par des sources d’énergie renouvelables » et les deux tiers (64%) estimaient qu’un centre de données ne devrait pas être construit s’il était alimenté par des énergies fossiles.

Aux États-Unis, fin 2025, des centaines d’organisations environnementales demandaient au Congrès de prendre un moratoire pour freiner le développement du secteur et la pression que celui-ci crée sur l’industrie de l’énergie. Outre-Atlantique, cette dernière est encore issue aux deux tiers des énergies fossiles. En Europe, si la France peut s’appuyer sur sa production nucléaire, ce n’est pas le cas de tous ses voisins européens.

❌