Vue normale

Reçu — 18 février 2026 Next - Articles gratuits

Bercy informe d’une intrusion dans le Ficoba : 1,2 million de comptes exposés

18 février 2026 à 19:09
Ginkgo Ficoba
Bercy informe d’une intrusion dans le Ficoba : 1,2 million de comptes exposés

Bercy a informé mercredi soir, par voie de communiqué, d’une intrusion dans le fichier national des comptes bancaires et assimilés (Ficoba), qui liste tous les comptes bancaires ouverts en France. Les services de la DGFiP assurent que les accès illégitimes ont été restreints, mais préviennent que les données de 1,2 million de comptes ont pu être exposées.

Dans une actualité marquée à la fois par la récurrence des fuites de données et par les velléités grandissantes de constitution de fichiers centralisés, l’incident revêt une portée symbolique particulière. Cette fois, ce sont en effet les services de Bercy qui informent, mercredi en fin d’après-midi, d’une intrusion dans un fichier particulièrement sensible : le Ficoba, ou fichier national des comptes bancaires et assimilés, qui liste tous les comptes bancaires ouverts, mais aussi les coffres-forts loués en France.

1,2 million de comptes exposés

L’intrusion a pris la forme d’un accès non autorisé, que le service de presse de Bercy décrit de la façon suivante :

« A compter de la fin janvier 2026, un acteur malveillant, qui a usurpé les identifiants d’un fonctionnaire disposant d’accès dans le cadre de l’échange d’information entre ministères, a pu consulter une partie de ce fichier qui recense l’ensemble des comptes bancaires ouverts dans les établissements bancaires français et contient des données à caractère personnel : coordonnées bancaires (RIB / IBAN), identité du titulaire, adresse et, dans certains cas, l’identifiant fiscal de l’usager. »

Les finances publiques assurent que dès détection de l’incident, « des mesures immédiates de restriction d’accès ont été mises en œuvre afin de stopper l’attaque, de limiter l’ampleur des données consultées et extraites de cette base ».

Le périmètre exposé concernerait tout de même 1,2 million de comptes, qui devraient faire l’objet d’une prise de contact : « Les usagers concernés recevront dans les prochains jours une information individuelle les alertant qu’un accès à leurs données a pu être constaté. »

Outre le dépôt de plainte et la notification à la CNIL exigés en de telles circonstances, Bercy indique s’être rapproché des établissements bancaires afin que ces derniers participent à la sensibilisation des contribuables concernés.

Le ministère précise enfin que les services et agences de l’État, parmi lesquels son service du haut fonctionnaire de défense et de sécurité (HFDS) et l’Agence nationale de la sécurité des systèmes d’information (ANSSI) sont mobilisés autour de la sécurisation du système d’information concerné.

Le Ficoba enregistre, d’après la CNIL, les informations de plus de 80 millions de personnes physiques, françaises ou non, qui ont un compte bancaire en France. Il répertorie les données d’identification du titulaire, les éléments d’identification du compte et ses dates d’ouverture ou de modification. Il ne liste en revanche « aucun élément concernant l’historique des opérations effectuées sur le compte concerné ou sur son solde ».

La combinaison des informations exposées se prête néanmoins à des scénarios d’ingénierie sociale poussés, à l’instar des données volées récemment sur la plateforme Choisir le service public.

Bercy recommande par ailleurs un « rappel de vigilance à destination des usagers », en trois points :

  • alors que de nombreuses tentatives d’escroqueries circulent par courriel ou SMS dans le but d’obtenir des informations ou des paiements de la part des usagers, « au moindre doute, il est préférable de ne pas répondre directement » ;
  • l’administration fiscale « ne vous demande jamais vos identifiants ou votre numéro de carte bancaire par message », et « même si l’expéditeur semble être un interlocuteur de la DGFiP, contactez directement votre service des impôts via la messagerie sécurisée de votre espace ou par téléphone afin de vérifier l’authenticité du message reçu » ;
  • en cas de suspicion de l’utilisation frauduleuse de vos données personnelles, « nous vous recommandons de conserver toutes les preuves (messages, adresse du site web, captures d’écran…) », mais également de s’appuyer sur les ressources du site cybermalveillance.gouv.fr.

Sur le sujet, consultez également notre guide :

☕️ La Russie veut autoriser le FSB à couper l’accès à Internet et la téléphonie mobile

18 février 2026 à 15:17

La Russie veut obliger les fournisseurs d’accès à Internet et de téléphonie mobile à se conformer aux ordres du service de sécurité intérieure russe FSB, successeur du KGB, visant à interrompre les services de télécommunications, rapporte The Moscow Times.

Le projet de loi, adopté mardi par la Douma d’État, chambre basse du Parlement russe, est censé contribuer à protéger les Russes et les institutions publiques contre les menaces pour la sécurité tout en préservant les entreprises de télécommunications de poursuites judiciaires. Et ce, alors que les régions du pays sont de plus en plus confrontées à des perturbations généralisées de l’internet et des réseaux mobiles en raison des attaques de drones ukrainiens, souligne le Moscow Times.

Le projet de loi, qui a été approuvé par 393 législateurs (sur 450, avec 13 voix contre), a depuis subi plusieurs modifications, notamment la suppression des références aux « menaces pour la sécurité » comme justification des fermetures et la modification des pouvoirs accordés au FSB, qui passent de la délivrance de « demandes » à celle d’« exigences » contraignantes.

Outre les services Internet et mobiles, le projet de loi permettrait également aux responsables de la sécurité de bloquer les appels téléphoniques, les SMS et même les services postaux, a déclaré Igor Lebedev, vice-ministre russe des Communications.

Pour entrer en vigueur, les modifications apportées à la loi russe sur les communications doivent encore être approuvées par le Conseil de la Fédération, la chambre haute du Parlement, et signées par Vladimir Poutine.

The Moscow Times, dont la rédaction s’est relocalisée à Amsterdam suite à l’invasion de l’Ukraine par la Russie, a depuis été classé « organisation indésirable » et l’accès à son site web est bloqué par le Roskomnadzor dans le pays.

Aux Pays-Bas, nouveau scandale autour d’un algorithme de prédiction de la récidive

18 février 2026 à 14:55
ML récidiviste
Aux Pays-Bas, nouveau scandale autour d’un algorithme de prédiction de la récidive

Aux Pays-Bas, le ministère de la Justice vient de mettre au jour les dysfonctionnements d’un système algorithmique déployé pour tenter de prévoir la récidive d’individus suspects ou condamnés. Alors que l’administration cherche à le réparer, des défenseurs des droits humains soulignent que ce type d’usage du machine learning est critiqué depuis une décennie.

Un nouveau système algorithmique prompt aux erreurs a été épinglé aux Pays-Bas. Ce 12 février, le ministère de la Justice néerlandais a publié un rapport relatif au système utilisé par les services de probation Reclassering Nederland pour évaluer le risque de récidive chez les détenus déjà condamnés comme chez les personnes en détention provisoire.

L’audit fait partie intégrante d’un travail plus large sur les systèmes algorithmiques utilisés à travers l’administration, lui-même initié à la suite de deux scandales relatifs à des outils biaisés.

Pendant près d’une dizaine d’années, l’administration fiscale néerlandaise a en effet recouru à un système qui a demandé des sommes faramineuses et indues à des familles généralement ciblées pour leurs origines étrangères. De même, des systèmes de détection de fraude aux prêts étudiants accusaient beaucoup plus fréquemment les étudiants issus de minorités ethniques, donc à leur faire subir plus fréquemment des contrôles.

Consommation de drogues et problématiques psychologiques non pris en compte

Dans le cas présent, le système algorithmique incriminé a été utilisé pour traiter de l’ordre de 44 000 cas par an, et aider à évaluer si ces personnes risquaient plus ou moins de récidiver.

Un tel cas d’usage rappelle les premiers grands travaux sur les travers que ce type d’outils créent sur le terrain en termes d’égalité devant la loi. En 2016, le journal ProPublica publiait ainsi une enquête au long cours démontrant qu’aux États-Unis le système COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) qualifiait beaucoup plus fréquemment les suspects noirs de risque de récidives que les suspects blancs, à tort.

Dans le cas néerlandais, le système, nommé OxRec, fournit de mauvais résultats dans 20 % des cas et ne correspond pas aux standards gouvernementaux d’utilisation. Depuis 2018, les formules normalement utilisées pour évaluer les personnes déjà condamnées et suspectes ont été inversées, la consommation de drogues n’est pas correctement prise en compte, et les problématiques psychologiques graves ne sont pas prises en considération, relève l’enquête administrative. Le système a par ailleurs été entraîné sur d’anciennes données issues de prisons suédoises, et non sur la population des prisons néerlandaises.

Pause avant remise en service

Suite à ce rapport, Reclassering Nederlands a stoppé l’utilisation d’OxRec. Le ministère de la Justice néerlandais a en revanche expliqué « chercher à le remettre en service dès que toutes les améliorations auront été déployées, car une utilisation responsable de cet algorithme contribue à l’efficacité et à la cohérence des conseils en termes de probation », souligne sur LinkedIn Alexander Laufer, chercheur auprès d’Amnesty International.

Pour les enquêteurs du ministère de la Justice, le plus gros risque que posent les dysfonctionnements du système est en effet que des probabilités de récidive aient été sous-évaluées.

En 2020, des scientifiques avaient quant à eux émis une alerte sur l’usage des codes postaux dans OxRec, expliquant que cela pouvait mener de manière indirecte à des logiques de profilage ethnique. D’après la directrice du service de probation Jessica Westerik, ces alertes avaient été prises « très au sérieux », mais les services avaient conclu qu’il existait suffisamment de preuves scientifiques pour considérer que l’adresse et les revenus étaient des paramètres.

Alexander Laufer, lui, rappelle que la prédiction de la récidive est « une des applications les plus controversées » du machine learning, et que le consensus scientifique estime désormais « (1) que ça ne fonctionne pas et (2) que ç’a des conséquences discriminatoires sévères et imprévisibles », y compris en termes d’accès à un procès équitable.

☕️ Pédopornographie genAI: le gouvernement espagnol à l’offensive contre X, Meta et TikTok

18 février 2026 à 14:21

« L’impunité des géants doit cesser », affirmait le Premier ministre espagnol, Pedro Sánchez, dans un message diffusé sur le réseau social X ce mardi 17 février. Il y annonçait ainsi que le gouvernement espagnol allait demander à la justice « d’enquêter sur les délits que X, Meta et TikTok pourraient commettre en créant et en diffusant de la pornographie infantile par le biais de leurs IA ».

« Ces plateformes portent atteinte à la santé mentale, à la dignité et aux droits de nos enfants », a-t-il ajouté, « l’État ne peut pas l’admettre ».

L’agence Reuters rapporte qu’un jeune Espagnol sur cinq, principalement des filles, affirme que des deepnudes d’elles et eux ont été créées par l’IA et partagées en ligne alors qu’ils et elles étaient mineurs, a déclaré le bureau de Sanchez, citant l’organisation de défense des droits Save the Children.

Jusque-là, c’est X et les deepfakes de Grok qui étaient surtout visés par des menaces judiciaires, mais le gouvernement espagnol semble élargir sa cible à Meta et TikTok sans pour autant détailler les reproches qu’il leur fait.

« TikTok dispose de systèmes robustes pour contrecarrer les tentatives d’exploitation ou de préjudice envers les jeunes, et nous continuons à donner la priorité et à investir dans des technologies de pointe afin de garder une longueur d’avance sur les acteurs malveillants », affirme le réseau social de partage de vidéos dans un communiqué envoyé à Reuters, tandis que X et Meta n’ont pas répondu à nos confrères sur le sujet.

Addiction aux réseaux sociaux : Meta a enterré une recherche qui ne lui convenait pas

18 février 2026 à 13:01
Sous le tapis
Addiction aux réseaux sociaux : Meta a enterré une recherche qui ne lui convenait pas

L’affaire qui oppose, aux États-Unis, une jeune femme aux plateformes de réseaux sociaux documente la façon dont Meta gère les recherches internes que l’entreprise lance sur les conséquences de ses produits. Des emails montrent ainsi que des travaux sont enterrés quand ils ne vont pas dans le sens de l’entreprise.

La semaine dernière s’est ouvert aux États-Unis le procès opposant Meta et Google à une plaignante âgée de 20 ans, Kaley G. M., et sa mère, qui les accusent de provoquer et entretenir l’addiction chez les jeunes. Comme nous l’expliquions, Snap et TikTok ont aussi été mis en cause mais ces deux entreprises ont préféré négocier un accord avec les plaignantes.

Les techniques pour attirer et garder l’auditoire de YouTube mais aussi des plateformes de réseaux sociaux Facebook et Instagram de Meta vont donc être particulièrement scrutées pendant ce procès.

Mais l’avocat de Kaley G. M, Mark Lanier, profite de l’accès aux documents internes de Meta que lui offre ce procès pour pointer la façon dont Meta choisit de rendre publiques ou pas, voire d’abandonner totalement les recherches que l’entreprise fait sur l’utilisation de ses produits.

Une étude interne de Meta qui remonte via le procès

En effet, comme nous en faisions part récemment, de plus en plus de recherches sur le numérique sont menées en lien avec les entreprises du secteur. Souvent, les auteurs n’informent pas correctement sur les liens qui les relient à Meta, X, Google ou Microsoft, par exemple. Ainsi, 29 % des articles scientifiques à propos des réseaux sociaux oublient de mentionner leurs liens d’intérêt.

Dans ce procès, Mark Lanier a mis en avant une étude menée par Meta en collaboration avec des chercheurs de l’Université de Chicago qui, selon lui, montre que le fait que les parents surveillent de près l’utilisation par leurs ados des réseaux sociaux n’a que très peu d’effet sur une utilisation compulsive ou non. Cette étude, nommée « Project Myst » pour Meta and Youth Social Emotional Trends, sondait 1 000 adolescents et leurs parents à propos de leurs usages des réseaux sociaux, explique Associated Press.

L’avocat n’a pas diffusé l’entièreté de l’étude, mais cite trois extraits repris par l’association The Tech Oversight Project. L’un affirme que « les facteurs parentaux et familiaux ont peu d’influence sur le niveau d’attention que les adolescents déclarent accorder à leur utilisation des réseaux sociaux ». Le deuxième conclut qu’ « il n’y a aucun lien entre ce que rapportent les parents et les adolescents concernant la surveillance/l’accompagnement numérique des parents et les mesures de l’attention ou des capacités des adolescents telles qu’elles ressortent de l’enquête ». Et le troisième que « les adolescents qui ont déclaré avoir vécu un plus grand nombre d’expériences négatives dans leur enfance, telles qu’une relation étroite avec une personne ayant des problèmes d’alcoolisme ou souffrant d’alcoolisme, ou avoir été victimes d’intimidation ou de harcèlement à l’école, ont déclaré être moins attentifs à leur utilisation des réseaux sociaux ».

Sans publication, des interprétations divergentes

Selon TechCrunch, Mark Lanier a interprété devant la Cour ces conclusions de l’étude comme le fait que les outils de contrôle parental d’Instagram ou ceux de limitation du temps d’utilisation sur les smartphones n’auraient pas vraiment d’effet sur l’utilisation excessive des réseaux sociaux sur les ados. Pour autant, il est difficile d’aller dans son sens ou de conclure autre chose sans avoir accès à l’étude en question.

Nos confrères soulignent que, bien qu’un document semble montrer qu’il a donné son accord pour la mise en place de MYST, le patron d’Instagram, Adam Mosseri, a affirmé dans son témoignage ne pas se rappeler du projet : « Nous menons de nombreux projets de recherche », a-t-il affirmé devant la Cour.

Les avocats de Meta ont plus insisté sur le fait que l’étude cherchait à déterminer non pas si les adolescents étaient réellement dépendants, mais s’ils avaient le sentiment d’utiliser trop les réseaux sociaux. Concernant l’utilisation excessive des réseaux sociaux par les adolescents, ils ont mis l’accent sur la responsabilité des parents et les problèmes rencontrés dans la vie plutôt que sur les produits de leur client, pointant le divorce des parents de Kaley, son père violent et le harcèlement qu’elle a subi à l’école.

☕️ Pollution de l’air : les data centers de xAI continuent d’outrepasser la réglementation

18 février 2026 à 11:04

Après Memphis, Southaven, de l’autre côté de la frontière entre le Tennessee et le Mississippi. Aux États-Unis, la société d’Elon Musk xAI continue de défier les réglementations environnementales en recourant à des générateurs illégaux au gaz pour alimenter ses centres de données.

Depuis 2025, le supercalculateur Colossus que xAI a construit à Memphis est critiqué par la population locale et des associations de défense de l’environnement pour la pollution à l’oxyde d’azote que ses générateurs rejettent dans l’air.

Sollicitée, l’agence états-unienne de la protection de l’environnement (EPA) a rappelé qu’en vertu du Clean Air Act (loi sur la qualité de l’air), l’usage de ce type de générateur était soumis à autorisation. Le comté dans lequel se trouve Colossus a finalement autorisé 15 turbines, alors que le data center en utilisait initialement plus d’une trentaine.

Depuis ces premiers aléas, cela dit, xAI a créé Colossus 2, un deuxième data center situé juste à côté du premier. Pour l’alimenter en énergie, l’entreprise recourt de nouveau à des turbines à gaz, stockées de l’autre côté de la frontière.

Hanna Barakat & Archival Images of AI + AIxDESIGN / Better Images of AI / Weaving Wires 2 / CC-BY 4.0

Auprès du Guardian, les habitants témoignent de leurs inquiétudes, que ce soit vis-à-vis de la pollution sonore ou de l’air – d’après l’une des résidentes, Shannon Samsa, la ville compte « au moins 10 écoles dans un rayon de trois kilomètres autour du bâtiment ». Les pollutions émises au fil de leur fonctionnement ont été liées à diverses problématiques de santé comme l’asthme, le cancer du poumon ou des attaques cardiaques.

D’après les images thermiques récupérées par le média Floodlight, néanmoins, le centre de données de Southaven continue d’être alimenté grâce à ses générateurs. Depuis novembre, 18 des 27 turbines présentes, dont au moins 15 n’ont aucun permis, ont été utilisées.

Saisis, les régulateurs du Mississippi ont estimé que les turbines incriminées n’avaient pas besoin d’autorisation dans la mesure où elles sont stockées sur des remorques. Entité d’autorité nationale, l’EPA, elle, a statué en janvier : remorques ou non, ce type de dispositif ne peut être utilisé qu’après demande d’autorisation. À défaut, la moindre exception pourrait « permettre que ces engins fonctionnent en dehors de toute limitation d’émission », indique-t-elle dans sa décision (.pdf).

☕️ Google programme sa conférence I/O aux 19 et 20 mai

18 février 2026 à 09:42

Google n’a pas dérogé à son calendrier. Sa conférence annuelle dédiée aux développeurs, la Google I/O, se tiendra comme tous les ans fin mai, dans ses locaux de Mountain View, avec une diffusion en ligne des principales sessions.

L’entreprise a confirmé mardi les dates définitives de l’événement, les 19 et 20 mai prochains. « Connectez-vous pour découvrir nos dernières avancées en matière d’IA et les mises à jour de nos produits dans toute l’entreprise, de Gemini à Android et bien plus encore », promet Google.

Annonce des dates de la conférence Google I/O 2026

En 2025, l’événement annuel de Google avait, sans trop de surprise, accordé une place prépondérante à l’IA, avec une foule d’annonces relatives aux modèles Gemini, ainsi qu’à l’intégration progressive de fonctions d’IA générative au sein du moteur de recherche emblématique du groupe.

Google ne communique à ce stade aucun élément du programme de la conférence I/O 2026, mais il ne fait guère de doute que ses annonces suivront la même tendance, dans un contexte de concurrence accrue entre les poids lourds de l’IA générative.

Sur le volet mobile, Google vient tout juste de mettre en ligne la première bêta d’Android 17 destinée aux développeurs.

L’enregistrement à la Google I/O 2026 est ouvert sur le site dédié.

Règlement sur l’IA et lutte contre les risques systémiques au menu de l’INESIA

18 février 2026 à 09:02
Alignez-vous qu'ils disaient
Règlement sur l’IA et lutte contre les risques systémiques au menu de l’INESIA

Le récent Institut national pour l’évaluation et la sécurité de l’IA (INESIA) a dévoilé sa feuille de route pour 2026 et 2027. Au menu : accompagnement des évolutions réglementaires, équipements face aux risques systémiques et coopération internationale.

Comment évaluer l’intelligence artificielle ? Comment détecter à temps ses comportements imprévus ? Limiter les risques que créent d’éventuels mésusages ? Telles sont certaines des questions auxquelles l’Institut national pour l’évaluation et la sécurité de l’IA (INESIA) inauguré le 31 janvier 2025 devra répondre au fil des deux prochaines années.

Dévoilé juste avant le Sommet de Paris sur l’action pour l’IA de février 2025, l’INESIA réunit l’Agence nationale de la sécurité des systèmes d’information (ANSSI), l’Inria, le laboratoire national de métrologie et d’essais (LNE) et le pôle d’expertise de la régulation numérique (PEReN) pour « soutenir le développement de l’intelligence artificielle et accompagner la transformation de l’économie qu’elle induit ». Cette mission s’effectue tout en « étudiant scientifiquement les effets de ces technologies », en particulier « en termes de sécurité ».

Pour 2026 et 2027, elle s’effectuera selon trois axes, détaille sa feuille de route publiée mi-février. Pilotée par la Direction générale des Entreprises (DGE) et le Secrétariat général de la défense et de la sécurité nationale (SGDSN), l’entité travaillera en effet au soutien à la régulation, notamment en matière de mise en œuvre du règlement européen sur l’intelligence artificielle (RIA, ou AI Act), à la maîtrise des « risques systémiques » de ce type de technologies et à l’évaluation de la « performance et de la fiabilité des modèles et systèmes ». Certaines de ses actions prendront aussi un angle transverse, notamment pour tout ce qui touche à la veille académique et méthodologique, ou encore à l’animation scientifique autour de ses activités.

Performance, interprétabilité, « alignement aux valeurs et intentions humaines »

Le constat que dresse l’INESIA est aussi clair que succinct : « le rythme des progrès de l’IA ne faiblit pas », et à ce titre, les évolutions du secteur posent des questions de performance, d’interprétabilité, de robustesse face à l’imprévu, mais aussi « d’alignement aux valeurs et intentions humaines ».

L’institut ne définit pas ces différents termes, quand bien même les « valeurs et intentions humaines » varient certainement d’un individu à l’autre. La notion même d’alignement reste sujette à des débats scientifiques : certains, dont le Future of Life Institute, estiment nécessaire d’œuvrer à l’émergence d’IA « alignées » à des valeurs prédéfinies, faute de quoi ces systèmes créeraient de potentiels « risques existentiels » (un champ qui a notamment émergé des travaux du philosophe Nick Bostrom). D’autres, dont les chercheurs Timnit Gebru et Emile Torres, considèrent de leur côté que le champ de la « sécurité de l’IA » (AI safety) n’œuvre qu’à renforcer la course de l’industrie de l’IA.

Quoiqu’il en soit, dans l’environnement actuel, et notamment face au déploiement large de systèmes génératifs, « les méthodes d’évaluation conçues pour des systèmes fermés, monofonctionnels ou statiques, montrent leurs limites », indique l’INESIA. Pour faire face, et pouvoir notamment « mesurer et contenir les risques à fort potentiel systémiques, y compris ceux liés à la manipulation de l’information, à la cybersécurité ou à la déstabilisation de processus collectifs », l’entité compte participer au champ scientifique en devenir qu’est l’évaluation de l’IA.

Accompagner l’évolution réglementaire

Dans ses travaux, l’entité œuvrera à « construire une démarche scientifique et stratégique, structurer une capacité souveraine d’évaluation, coordonner les expertises publiques et mutualiser les moyens », et à agir dans les réseaux internationaux. En pratique, l’INESIA rejoindra notamment le réseau grandissant d’AI Safety Institutes, des instituts créés dans une dizaine de pays, et dont le réseau international a organisé sa première rencontre en novembre 2024.

Sur les enjeux d’appui à la régulation, elle accompagnera notamment la mise en œuvre du RIA, en fournissant des outils d’évaluation aux diverses autorités concernées. Elle poursuivra les travaux de détection des contenus synthétiques déjà en cours du côté de VIGINUm et du PEReN. Il s’agira enfin de créer des méthodes d’évaluation adaptées à la cybersécurité des systèmes d’IA comme aux produits de cybersécurité intégrant des technologies d’IA, dans le prolongement du projet Sécurité des Produits d’IA (SEPIA) que l’ANSSI mène depuis un an.

S’équiper face aux risques systémiques

Côté risques systémiques, il s’agira d’abord de développer les recherches permettant de mieux les caractériser, ce qui doit ensuite permettre à la puissance publique d’agir plus précisément. En la matière, l’INESIA vise notamment les usages d’IA à des fins de désinformation, d’attaque contre la cybersécurité, de déstabilisation d’un système économique, etc.

Elle prévoit d’identifier des projets de recherche ciblés, puis publiera des méthodes d’atténuation en source ouverte, « si opportun ». Les performances et les risques des systèmes d’IA agentiques seront plus particulièrement étudiés, notamment pour comprendre « leurs capacités en matière de cybersécurité et estimer la mesure des possibilités d’usages à des fins criminelles ».

Pour « stimuler la créativité de l’écosystème », enfin, l’INESIA prévoit de conduire des « challenges » pour « clarifier et faire progresser l’état de l’art ». Évoquant une émulation internationale de nature à faire progresser rapidement certaines technologies, elle cherchera à « susciter une « coopétition » » entre participants.

☕️ Facebook fermera en avril la web app dédiée à Messenger

18 février 2026 à 08:33

Meta indique aux utilisateurs de Messenger.com, la web app dédiée à la messagerie associée à Facebook, que cette dernière ne disposera plus d’un accès indépendant à compter du 15 avril prochain. En pratique, il faudra donc impérativement se connecter via l’interface « complète » de Facebook pour accéder à ses conversations dans un navigateur Web.

La date est annoncée directement sur l’interface de Messenger.com

En décembre dernier, Meta avait déjà averti de la disparition progressive du client Messenger pour Windows. « Vous pouvez continuer toutes vos conversations directement depuis l’application de bureau Facebook, avec toutes les fonctionnalités dont vous disposiez sur l’application Messenger, comme les appels sur ordinateur », fait valoir le groupe dans sa note d’information.

La disparition de Messenger.com parait à première vue anecdotique puisque l’interface de Facebook propose un accès direct à la messagerie. Elle constitue cependant une forme de recul de la part de Meta vis-à-vis des engagements pris face à la Commission européenne début 2024 dans le cadre de l’application du DMA, le règlement sur les marchés numériques.

C’est en effet à cette occasion que Meta avait introduit la possibilité, pour les internautes européens, de se connecter de façon séparée à Facebook et à Messenger. « Les personnes qui choisissent de créer un nouveau compte Messenger sans leurs informations Facebook pourront utiliser l’offre de services de base de Messenger, tels que la messagerie privée et le chat, les appels vocaux et vidéo », promettait alors Meta.

☕️ Mistral AI rachète Koyeb, spécialiste du serverless

18 février 2026 à 08:05

Quelques jours après l’annonce d’un investissement significatif dans l’infrastructure en Suède, Mistral AI confirme que le sujet figure au cœur de ses préoccupations : l’entreprise a en effet formalisé mardi l’acquisition de la startup française Koyeb, spécialisée dans le déploiement serverless d’outils d’intelligence artificielle.

En pratique, elle fournit à ses clients un environnement d’exécution qui permet à ces derniers de ne pas avoir à se soucier de l’infrastructure physique précise qui sous-tend le fonctionnement de leurs applications ou modèles.

« La technologie Koyeb est indépendante du matériel et de l’environnement : elle fonctionne et s’adapte aux clouds, aux périphéries et aux infrastructures sur site. Que ce soit sur des CPU, des GPU ou des accélérateurs, Koyeb garantit des performances optimales, une évolutivité dynamique et un contrôle total de votre infrastructure », résume la startup sur son site.

Sa plateforme ira enrichir l’offre Mistral Compute, qui englobe tous les services d’infrastructure commercialisés par Mistral AI à partir de ses propres déploiements de serveurs et surtout de GPU, avec au dernier décompte 40 MW de puissance électrique programmés en France (pour alimenter 18 000 puces Blackwell), et bientôt 23 MW supplémentaires en Suède, en attendant la mise en service des premières tranches du fameux Campus IA de Fouju.

« Dans les prochains mois, nous prévoyons de devenir un composant essentiel de Mistral Compute et de renforcer nos capacités d’inférence, de sandbox et de serverless pour les serveurs MCP », affirment les trois cofondateurs de Koyeb, Yann Léger, Edouard Bonlieu, Bastien Chatelard, par ailleurs anciens de Scaleway.

Le montant de l’acquisition n’a pas été communiqué. Koyeb avait levé 1,6 million de dollars fin 2020, puis 7 millions de dollars fin 2023.

L’Europe ouvre une enquête formelle sur Shein en vertu du DSA

18 février 2026 à 07:20
Tout ce qui brille n'est pas d'or
L’Europe ouvre une enquête formelle sur Shein en vertu du DSA

La Commission européenne a annoncé mardi l’ouverture formelle d’une enquête relative à Shein et ses pratiques commerciales, en vertu du DSA. Bruxelles cible notamment les systèmes censés prémunir la vente d’objets illicites comme les poupées pédopornographiques qui avaient défrayé la chronique fin 2025, mais aussi les risques liés à la conception addictive du service et la transparence toute relative des outils de recommandation de Shein.

Après les rappels à l’ordre et les demandes d’information, place à l’enquête formelle : la Commission européenne a annoncé mardi 17 février l’ouverture d’une procédure à l’encontre de la plateforme e-commerce chinoise Shein en vertu de la législation sur les services numériques (DSA, ou Digital Services Act).

L’exécutif européen indique que l’enquête visera à établir les éventuels manquements de Shein à la réglementation européenne « pour sa conception addictive, le manque de transparence des systèmes de recommandation, ainsi que la vente de produits illégaux, y compris de matériel pédopornographique ».

Première enquête formelle sur Shein dans le cadre du DSA

« Dans l’UE, les produits illégaux sont interdits, qu’ils se trouvent sur une étagère d’un magasin ou sur une place de marché en ligne. Le règlement sur les services numériques assure la sécurité des acheteurs, protège leur bien-être et leur fournit des informations sur les algorithmes avec lesquels ils interagissent. Nous évaluerons si Shein respecte ces règles et leur responsabilité », résume Henna Virkkunen, vice-présidente exécutive chargée de la souveraineté technologique, de la sécurité et de la démocratie.

Portée par sa promesse d’articles à très bas coût, avec des collections sans cesse renouvelées, la popularité de Shein a explosé au début des années 2020, jusqu’à s’imposer comme l’une des plateformes e-commerce les plus fréquentées par les internautes français. Au troisième trimestre 2025, Shein fédérait ainsi 19,5 millions de visiteurs uniques par mois, et 5 millions de visiteurs uniques quotidiens d’après le dernier baromètre établi par la Fédération e-commerce et vente à distance (Fevad) sur la base des chiffres de Médiamétrie.

À l’échelle européenne, Shein a de ce fait été qualifiée de très grande plateforme en ligne (ou VLOP, pour Very Large Online Platform) quelques semaines après l’entrée en vigueur du DSA, qui fixe pour mémoire des obligations spécifiques aux acteurs numériques dont l’audience dépasse 45 millions d’utilisateurs mensuels dans l’Union européenne.

Trois manquements au DSA à l’étude

Après trois « demandes de renseignements » (la façon polie de faire savoir à un acteur qu’il enfreint peut-être les règles) en juin 2024, février 2025 et novembre 2025, Bruxelles ouvre donc formellement la possibilité d’actionner le volet répressif du DSA.

Interpellé par la France suite au scandale des poupées sexuelles à caractère pédopornographique vendues sur la marketplace de Shein, l’exécutif européen confirme son intention d’investiguer les « systèmes mis en place par Shein visent à limiter la vente de produits illicites dans l’Union européenne,y compris les contenus susceptibles de constituer du matériel pédopornographique ».

L’enquête portera également sur deux aspects déjà largement reprochés à Shein (comme à son compatriote Temu) : « les risques liés à la conception addictive du service, y compris le fait de donner aux consommateurs des points ou des récompenses pour leur engagement », et « la transparence des systèmes de recommandation que Shein utilise pour proposer du contenu et des produits aux utilisateurs. »

Sur ce dernier point, l’Europe rappelle que « Shein doit divulguer les principaux paramètres utilisés dans ses systèmes de recommandation et fournir aux utilisateurs au moins une option facilement accessible qui ne repose pas sur le profilage pour chaque système de recommandation ».

Rappelons que Bruxelles a déjà ouvert une enquête similaire sur Temu. Les deux géants chinois s’exposent, s’ils finissaient par être condamnés sans avoir apporté à Bruxelles des gages de bonne foi, un amende pouvant aller jusqu’à 6 % de leur chiffre d’affaires annuel mondial.

En France, Shein a déjà accepté en juillet dernier de payer 40 millions d’euros d’amende suite à une enquête de la Répression des fraudes qui avait conclu que l’entreprise avait mis en place des pratiques commerciales trompeuses. Une amende de 1,1 million d’euros était tombée dans la foulée pour « information défaillante sur la qualité environnementale des produits ».

Shein assure de sa volonté de coopération

Shein a réagi mardi par l’intermédiaire d’un porte-parole, en assurant que le groupe prenait « très au sérieux » ses obligations relatives au DSA :

« Ces derniers mois, nous avons considérablement renforcé notre dispositif de conformité au DSA. Cela comprend la réalisation d’évaluations approfondies des risques systémiques, la mise en place de mesures de réduction et de gestion de ces risques, le renforcement des protections destinées aux jeunes utilisateurs, ainsi qu’un travail continu sur la conception de nos services afin de garantir une expérience en ligne sûre et fiable. »

Ce même porte-parole indique par ailleurs que Shein a déjà échangé avec la Commission européenne au sujet de la mise en place d’une solution tierce partie de vérification de l’âge des internautes.

❌