Le paquet NPMdu CLI de Bitwarden publié comme la version 2026.4.0 est en fait un malware qui récupère les secrets, clés SSH et autres identifiants. Cette version a été rapidement étiquetée comme « obsolète » et l’équipe du projet a contacté NPM pour que le paquet soit retiré au plus vite.
Dans la série des attaques de la supply chain, on continue. Après Trivy, LiteLLM, Axios et hier Xinference, on ajoute aujourd’hui le client en ligne de commande du gestionnaire de mots de passe Bitwarden. Cette fois, c’est le paquet NPM (Node Package Manager) du CLI qui a été visé avec l’utilisation du numéro de version 2026.4.0, la légitime dernière version 2026.3.0 ayant été publiée il y a trois semaines.
L’alerte vient de l’équipe de l’entreprise de sécurité JFrog. Prévenue par un utilisateur, l’équipe de Bitwarden a répondu avoir bien constaté le problème : « Nous avons depuis étiqueté comme « obsolète » cette version et contacté NPM pour qu’elle soit supprimée ». Aucun autre paquet ou application/extension de Bitwarden ne semble compromis, pas plus que les coffres-forts des utilisateurs.
De fait, expliquent les chercheurs de JFrog, le paquet vérolé utilise les mêmes métadonnées dans le fichier build/bw.js que la 2026.3.0 du paquet, mais elle renvoie le fichier preinstall et le binaire bw vers un script bw_setup.js. Celui-ci vérifie d’abord si l’environnement d’exécution JavaScript Bun est installé et en récupère une version si ce n’est pas le cas.
Encore une récupération des secrets, avec un traitement spécial pour GitHub
Suite à ça, le paquet verolé peut lancer l’attaque via l’exécution du fichier bw1.js. Celui-ci cible des fichiers de configuration utilisés par les développeurs pour stocker des informations comme les clés SSH, les identifiants Git, NPM, AWS, Google Cloud Platform, ou encore les fichiers de configuration de l’IA Claude ou de celle de Kiro.
Concernant GitHub, le paquet pirate va plus loin. D’abord, il vérifie que les identifiants sont bons via https://api.github.com/user. Ensuite, il va essayer d’extraire davantage d’informations confidentielles hébergées sur GitHub.
Concernant l’exfiltration, le paquet vérolé a deux méthodes possibles. Soit il exfiltre les données via une requête POST après les avoir sérialisées dans un JSON, compressées et chiffrées. Si cette méthode ne fonctionne pas, il peut utiliser GitHub pour stocker dans un nouveau dépôt les blobs JSON des données récupérées.
Pour celles et ceux qui auraient installé cette fausse version 2026.4.0 du CLI de Bitwarden, il faut partir du principe que les identifiants des outils cités ci-dessus sont compromis, explique JFrog. Il faut donc d’abord désinstaller le paquet NPM @bitwarden/cli et renouveler les secrets susceptibles d’avoir été compromis. Voici les commande proposées (la dernière permet d’empêcher l’exécution automatique de scripts à l’installation de paquets) :
Pour chercher des traces du piratage et du téléchargement de Bun, voici deux commandes proposées par Jfrog. Si vous avez des résultats, alors inquiétez-vous.
rg -n "audit\\.checkmarx\\.cx|LongLiveTheResistanceAgainstMachines|beautifulcastle" .
ls -la bun bun.exe bw1.js bw_setup.js 2>/dev/null
Encore TeamPCP ?
Dans le titre de son billet sur cette attaque, JFrog l’attribue rapidement au groupe de pirates TeamPCP qui serait aussi responsable de celle contre Xinference. Mais son équipe ne donne aucune information qui pourrait permettre d’identifier le groupe. Sur X, le compte « officiel » de TeamPCP a été suspendu.
De son côté, Socket estime que « ce paquet a été compromis lors de ce qui semble être une nouvelle attaque de TeamPCP ». « L’attaque semble avoir exploité une action GitHub compromise dans le pipeline CI/CD de Bitwarden, ce qui correspond au schéma observé dans d’autres dépôts touchés par cette campagne », explique d’ailleurs Socket qui ajoute que cette attaque se place dans la continuité de celle que l’entreprise a découverte hier sur la supply chain Checkmarx de KICS.
Dans un message, l’équipe de Bitwarden a confirmé avoir identifié que cette version vérolée du paquet a été distribuée pendant environ 1h30 ce mercredi 22 avril et qu’elle se situait « dans le cadre d’un incident plus général affectant la supply chain de Checkmarx ».
Elle explique que son enquête « n’a révélé aucun élément indiquant que les données du coffre-fort des utilisateurs finaux aient été consultées ou aient été exposées à un risque, ni que les données ou les systèmes de production aient été compromis. Dès que le problème a été détecté, les accès compromis ont été révoqués, la version malveillante de npm a été retirée, et des mesures correctives ont été immédiatement mises en œuvre ».
« Bitwarden a mené à bien un examen de ses environnements internes, de ses processus de déploiement et des systèmes associés, et aucun autre produit ou environnement affecté n’a été identifié à ce stade. Un CVE concernant la version 2026.4.0 de Bitwarden CLI est en cours d’émission dans le cadre de cet incident », ajoute l’équipe.
Si les robots ne sont pas encore capables d’asservir l’humanité, ils peuvent déjà nous battre aux échecs ou au Go (Deep Blue et AlphaGo), au poker (Cepheus) et désormais… au ping-pong. Un robot mis au point par Sony AI a battu des athlètes humains.
Les frères Lebrun peuvent trembler. Le robot Ace a remporté trois matchs sur les cinq qui l’ont opposé à des champions de chair et de sang. Ce projet de recherche de Sony AI s’intéresse depuis un moment au tennis de table, une discipline dans laquelle la perception de l’environnement, les réflexes et la rapidité des réactions sont primordiaux.
Sony AI compte déjà à son actif GT Sophy, le pilote IA que les joueurs peuvent affronter dans la simulation de course Gran Turismo. Ace s’appuie sur des principes similaires, mais dans le monde réel avec suivi des effets et analyse des trajectoires complexes, le tout avec des temps de réponse d’une précision de l’ordre de la milliseconde.
« La vitesse en robotique, lorsqu’elle n’est pas prédéterminée, reste l’une des dernières frontières dans ce domaine », explique Michael Spranger, président de Sony AI. Les robots autonomes ont encore de la difficulté à « interagir avec leur environnement, et encore plus avec des humains, aux vitesses auxquelles nous sommes habitués ». Le projet a été conçu pour « franchir cette limite ».
Ace est monté sur un bras à huit articulations et une base mobile. Pas d’yeux pour le robot, mais neuf capteurs d’image (IMX273) et de mouvement (IMX636) répartis dans la pièce qui couvrent la table sous différents angles. Cet attirail lui permet de suivre la balle, aussi bien sa position que la rotation, avec une latence de perception de 10,2 millisecondes. Ça n’est pas anodin : une balle peut dépasser les 20 m/s, avec des effets de rotation de 160 révolutions par seconde, et plus.
Le système de caméras se concentre sur le logo présent sur la balle pour en estimer la rotation et l’axe, le tout en quelques millisecondes. L’agent du robot, son « cerveau », est entraîné avec des données synthétiques issues de parties jouées par des humains. Le système, qui ajuste ses mouvements 1 000 fois par seconde, peut ajuster la trajectoire de sa frappe en plein mouvement « pour tenir compte des dynamiques imprévisibles d’un échange en conditions réelles », explique le labo, comme une balle qui touche le filet, ce qui en modifie la trajectoire et l’angle.
Pour chaque coup, le robot pioche dans une sélection de plusieurs gestes appris à l’avance (smash, coup lifté, etc.) qu’il transmet ensuite à son système moteur. 3 000 heures de jeu en simulation ont alimenté cette bibliothèque. Mais parfois, l’intelligence artificielle peut surprendre même les plus aguerris.
Pendant un match, Ace a ainsi intercepté la balle très tôt pour lui donner un effet coupé. Un geste que l’ancien pongiste olympique Kinjiro Nakamura pensait impossible : « Je ne l’avais même pas vu chez les meilleurs joueurs. Mais maintenant que j’ai vu le robot le faire à une distance aussi courte, cela signifie que les humains pourraient aussi y parvenir ».
Après avoir initialement été utilisés pour cibler des dissidents, défenseurs des droits humains et journalistes, les logiciels espions seraient de plus en plus utilisés pour cibler des banquiers et des cadres supérieurs fortunés.
Le National Cyber Security Centre (qui fait partie du GCHQ, le service de renseignement technique britannique) estime qu’une centaine de pays se sont procurés des logiciels espions, a appris POLITICO.
En 2023, le NCSC estimait qu’ils étaient plus de 80, et soulignait que « la prolifération et l’utilisation irresponsable d’outils de piratage commerciaux » constitueront « une menace croissante pour les organisations et les individus à l’échelle mondiale au cours des cinq prochaines années ».
Dans un rapport intitulé « La menace de la cyberprolifération commerciale », le centre prévenait que « les logiciels espions, les pirates informatiques à louer et l’accès à d’autres capacités cybernétiques devraient faire l’objet d’une demande croissante à l’échelle mondiale, ce qui entraînera très certainement une menace accrue pour un large éventail d’industries » :
« Au cours de la dernière décennie, plus de 80 pays ont acheté des logiciels de cyberintrusion, et certains États les ont certainement utilisés de manière irresponsable pour cibler des journalistes, des militants des droits de l’homme, des dissidents et des opposants politiques, ainsi que des représentants de gouvernements étrangers. En outre, le développement du marché des pirates informatiques à louer accroît le risque de ciblage imprévisible ou d’escalade involontaire. »
Les banquiers et cadres fortunés, nouvelles cibles des logiciels espions
Le NCSC souligne aujourd’hui que le champ d’action des logiciels espions se serait depuis « élargi », les banquiers et cadres supérieurs fortunés étant de plus en plus souvent pris pour cibles, relève nos confréres.
À lui seul, NSO, dont le logiciel Pegasus a longtemps été considéré comme le plus puissant du marché, dénombrait de son côté 22 utilisateurs actifs de son logiciel espion dans 12 pays européens, en 2022.
Du fait des scandales rattachés aux cibles identifiées de Pegasus, et du fait que les États-Unis l’avaient placé sur sa liste noire, le ministère israélien de la Défense avait réduit le nombre de pays autorisés à importer ces systèmes de 102 à 37.
Acculée, l’entreprise israélienne a depuis été rachetée par un groupe d’investisseurs dirigé par un producteur hollywoodien, qui en a confié la direction à David Friedman. Ancien avocat d’affaires ayant notamment défendu les intérêts de Donald Trump dans le cadre des faillites de ses casinos d’Atlantic City, il avait été nommé ambassadeur des États-Unis en Israël de 2017 à 2021, sous la première présidence de Donald Trump.
« Le bouleversement géopolitique le plus profond de l’histoire moderne »
Dans son discours d’ouverture de CYBERUK 2026, le principal évènement britannique dédié à la cybersécurité, Richard Horne, CEO du NCSC, se compare à un conducteur de voiture, en plein ouragan, sur un tronçon étroit, demandant à son navigateur comment conduire, sans visibilité au-delà de son capot.
Évoquant la carte du nombre grandissant de « no-fly zones » interdites de survol, du fait des risques d’interférences GPS, et des conflits armés en cours, il estime que « nous vivons actuellement le bouleversement géopolitique le plus profond de l’histoire moderne » :
« Comme l’a déclaré en décembre Blaise Metreweli, le chef du MI6, notre monde est aujourd’hui plus dangereux et plus disputé qu’il ne l’a été depuis des décennies. Nous évoluons dans un espace situé entre la paix et la guerre. »
Quatre « incidents d’importance nationale » par semaine
En octobre, il avait indiqué que le NCSC traitait en moyenne quatre « incidents d’importance nationale » par semaine. Si les chiffres restent relativement stables, il constate cela dit un changement quant à l’origine de ces attaques :
« Les activités criminelles telles que les ransomwares restent la menace la plus répandue pour la grande majorité des organisations, mais la plupart des incidents d’importance nationale dont mes équipes s’occupent actuellement proviennent, directement ou indirectement, d’États-nations. »
Les services de renseignement et forces armées chinoises « font désormais preuve d’un niveau de sophistication impressionnant dans leurs opérations cybernétiques », précise-t-il. Le NCSC estime que l’Iran recourt « très certainement » à des cyberattaques pour soutenir la répression à l’encontre de citoyens britanniques, considérés comme une menace pour le régime.
La Russie, de son côté, « met à profit les enseignements tirés de ses expériences cybernétiques sur le théâtre des opérations et les applique au-delà du champ de bataille » contre les États qu’elle considère comme hostiles.
Dans un communiqué, le ministère de l’Enseignement annonce que, à « la suite d’un signalement intervenu courant mars 2026, ses équipes […] ont identifié une usurpation frauduleuse affectant le compte d’un module de gestion des données Parcoursup réservé à l’usage des personnels de la région académique Occitanie ».
Le vol des données, qui n’avait pas été repéré jusqu’à présent, remonte à octobre 2025, soit il y a six mois tout de même. Sont concernés, « environ 705 000 candidats, résidant en Occitanie ou y ayant formulé des vœux au cours de la session 2023 ou de la session 2025 ».
La liste des informations personnelles est assez longue : nom, prénom, nationalité (française, UE ou hors UE), date de naissance, adresse physique et email, numéro de téléphone, des informations sur la scolarité, le statut boursier, le parcours de formation et, pour les mineurs, le lien de parenté et la catégorie socio-professionnelle des responsables légaux.
Comme le veut la loi, les personnes concernées sont informées et la CNIL notifiée. Une plainte a été déposée auprès de la procureure de la République de Paris, affirme le ministère. Les risques pour les usagers victimes du vol de leurs données sont toujours un peu les mêmes : tentatives d’hameçonnage (phishing), escroquerie et usurpation d’identité.
Cette semaine, le hacker HexDex a été arrêté en France, en Vendée. Il revendique des dizaines de cyberattaques en France contre des fédérations sportives, mais aussi des institutions et services officiels français avec le système d’information sur les armes du ministère de l’Intérieur (SIA), l’Agence Nationale de la Cohésion des Territoires (ANCT), Choisir le service public gouv, etc. Aucun lien n’est fait entre HexDex et cette fuite de Parcoursup.
Cursor pourrait tomber dans l’escarcelle de SpaceX, pour la modique somme de 60 milliards de dollars. Mais l’acteur majeur du spatial avait d’autres projets en tête pour rattraper son retard dans un secteur des outils de génération de code dominé par Claude Code, Codex et donc, Cursor. Ces dernières semaines, xAI (qui a fusionné avec SpaceX) aurait en effet planché sur un partenariat à trois, avec Cursor… et le groupe français Mistral.
Les discussions rapportées par Business Insider se seraient tenues au plus haut niveau de SpaceX. Elon Musk aurait en effet évoqué cette idée d’une collaboration resserrée avec les deux entreprises IA, dans l’idée de rivaliser avec Anthropic et OpenAI. Rappelons que si l’accord avec Cursor devait capoter, SpaceX s’est engagé à verser 10 milliards de dollars d’indemnités.
Michael Nicolls, le président de xAI et dirigeant de SpaceX, déplorait début avril dans un mémo que son entreprise était « clairement en retard » sur la concurrence. Et qu’il fallait accélérer pour se mettre au niveau, d’où la proposition à Cursor. Business Insider ne donne pas d’autres détails sur la nature de ce ménage à trois, mais le site rappelle que Devendra Chaplot, membre fondateur et cocréateur des premiers LLM de Mistral AI, a rejoint les rangs de xAI où il supervise l’entraînement des modèles de langage.
SpaceX n’était manifestement pas seul sur les rangs pour acquérir Cursor. Microsoft aurait également jeté un œil sur le dossier, selon des sources de CNBC. Le géant du logiciel a cependant décidé de ne pas faire de proposition. Microsoft part de moins loin que SpaceX/xAI dans le domaine des outils IA de codage, grâce à GitHub Copilot qui compte 4,7 millions d’utilisateurs payants, indiquait en début d’année Satya Nadella, le CEO du groupe. C’est 75 % de plus qu’il y a un an.
Codex vient de son côté d’atteindre les 4 millions d’utilisateurs actifs, soit 1 million de plus qu’il y a deux semaines. Codex pose les bases de la fameuse « superapp » d’OpenAI.
France Télévisions et YouTube ont officialisé jeudi 23 avril un « partenariat stratégique » selon les termes duquel l’audiovisuel public mettra à disposition de la plateforme « l’intégralité des éditions d’information nationale et locale, ainsi que l’ensemble des magazines quotidiens et hebdomadaires d’actualité et d’investigation phares du Groupe ».
France TV procèdera par ailleurs à une « éditorialisation renforcée des contenus » en distribuant ses programmes sur des chaînes dédiées, éventuellement thématisées. Le groupe audiovisuel s’engage par ailleurs à produire des contenus originaux et 100 % natifs.
« Cette collaboration illustre une ambition claire : l’audiovisuel de demain s’articule autour du streaming », commentent les deux acteurs, qui rappellent que YouTube revendique, en France, une audience de 43 millions d’utilisateurs mensuels.
Visuel de l’annonce de l’accord entre France Télévisions et YouTube
« Ce partenariat stratégique avec YouTube accélère la stratégie « streaming first » de France Télévisions. Dans un univers vidéo ultra-concurrentiel et face à l’exposition croissante des Français aux fausses informations, il renforce le rayonnement des contenus d’information de France Télévisions auprès de tous les publics, y compris des plus éloignés des médias traditionnels », commente Delphine Ernotte Cunci, PDG de France Télévisions.
YouTube y gagne de son côté de nouveaux programmes susceptibles de nourrir ses audiences, et concède d’ailleurs à la régie publicitaire du groupe audiovisuel, France TV Publicité, le droit de commercialiser ses propres inventaires (avec, sans doute, une mécanique de rétrocommission). La plateforme indique par ailleurs intégrer France Télévisions au groupe des partenaires qui testent son dispositif Likeness ID, chargé d’essayer de détecter les contenus générés par IA pour prévenir la prolifération des deepfakes.
Ce nouvel accord illustre le virage à l’œuvre dans le monde de l’audiovisuel français vis-à-vis du streaming. Si pendant longtemps, tous les grands groupes ont tenté de capitaliser sur leur propre plateforme de diffusion et de replay (contenus de rattrapage), les digues se lèvent progressivement. Jusqu’ici, les chaînes avaient cependant plutôt tendance à nouer des accords avec des acteurs du streaming payant : France TV a signé avec Amazon Prime Video (y compris pour la fiction), tandis que TF1 arrive bientôt sur Netflix.
Les récentes mises à jour de iOS et iPadOS bloquent la méthode d’extraction de données que le FBI a utilisée pour récupérer des messages Signal dans les notifications d’un iPhone.
Apple vient de mettre à jour en urgence, ce mercredi 22 avril, ses systèmes d’exploitation iPhone et iPad pour résoudre un problème de sécurité qui permettait de récupérer des informations comme des messages Signal.
L’entreprise explique succinctement que la vulnérabilité, identifiée par l’entreprise sous la référence CVE-2026-28950, consistait dans le fait que « les notifications marquées pour suppression [pouvaient] être conservées de manière inattendue sur l’appareil ». La description de la résolution indique sans plus de précisions qu’Apple a utilisé une meilleure méthode pour qu’elles ne soient plus accessibles.
La faille concerne aussi bien iOS 26 et iPadOS 26 que iOS 18 et iPadOS 18. Leurs utilisateurs sont donc invités à effectuer la mise à jour vers les dernières versions afin d’éviter d’être affectés par cette faille de sécurité.
Une faille exploitée par le FBI pour retrouver des messages sur Signal
L’entreprise ne détaille pas dans quelles circonstances elle s’est rendu compte du problème ni si la faille a été exploitée. Mais il y a 15 jours, 404 Media nous apprenait justement que le FBI avait utilisé la base de données de notification de l’iPhone d’un suspect pour récupérer des messages Signal, alors que celui-ci avait supprimé les messages et désinstallé l’application au préalable.
Le service de renseignement intérieur des États-Unis enquêtait sur les tirs de feux d’artifice devant un centre de détention de l’ICE en juillet 2025. Le procès de neuf activistes se tenait en mars dernier. Alors que leurs avocats ont affirmé qu’ils étaient venus avec les feux d’artifice pour les tirer en signe de solidarité avec les détenus, l’accusation de tentative de meurtre sur la personne d’agents et d’employés des États-Unis a été retenue contre l’un d’entre eux et les autres ont été reconnus coupables d’émeutes, d’aide matérielle à des terroristes, de complot en vue d’utiliser et de transporter des explosifs et d’utilisation et de transport d’explosifs.
À l’occasion du procès, un proche de ces activistes a expliqué à 404 Media : « Nous avons appris que, sur les iPhone en particulier, si les paramètres de l’application Signal autorisent l’affichage des notifications et des aperçus de messages sur l’écran de verrouillage, l’iPhone stocke alors ces notifications et aperçus de messages dans la mémoire interne de l’appareil ».
Le site dédié à leur défense, créé par leurs proches, détaille une des pièces à conviction présentée au procès : « Les messages ont été récupérés sur le téléphone de Sharp [le surnom d’un des accusés] grâce à la mémoire interne d’Apple dédiée aux notifications : l’application Signal avait été supprimée, mais les notifications reçues avaient été conservées dans la mémoire interne. Seuls les messages reçus ont été récupérés (pas ceux envoyés) ».
Pas d’autres actions à faire que de mettre à jour
Par défaut, les notifications envoyées par Signal affichent des métadonnées comme la date et l’heure de réception, le nom de l’utilisateur, mais aussi une partie du corps de certains messages. Il est cependant possible de cacher ces informations au service de notification via le menu de configuration de Signal :
« Nous sommes très heureux qu’Apple ait publié aujourd’hui un correctif et un avis de sécurité. Cette annonce fait suite à un article de 404 Media révélant que le FBI avait pu accéder au contenu des notifications de l’application Signal via iOS, alors même que l’application avait été supprimée », explique dans un message sur Mastodon l’équipe de Signal.
Elle ajoute que les utilisateurs des appareils d’Apple n’ont rien d’autre à faire que de mettre à jour le système d’exploitation : « Une fois le correctif installé, toutes les notifications conservées par inadvertance seront supprimées et aucune notification future ne sera conservée pour les applications supprimées ». La fondation en profite pour saluer la rapidité du correctif.
Notons aussi que Signal n’est pas la seule application qui pouvait être victime de cette faille. Si ses notifications comme celles des autres applications de messagerie chiffrée sont particulièrement sensibles, le bug affectait potentiellement les notifications de toutes les applications.
Ce n’est pas demain la veille que n’importe qui pourra générer le prochain GTA simplement en le demandant à une IA. Et peut-être même jamais, d’après deux pontes de l’industrie vidéo-ludique.
Que les joueurs l’apprécient ou pas, l’IA générative fait partie du quotidien de nombreux studios de développement de jeux vidéo. L’enquête annuelle réalisée à l’occasion de la Game Developers Conference (GDC) indique que 36 % des professionnels de l’industrie utilisent des outils d’IA. Le sondage, qui interroge 2 300 professionnels, précise que 58 % d’entre eux se servent de cette technologie chez les éditeurs, les équipes support, le marketing et les relations presse, et 30 % chez les développeurs.
Un outil de plus pour les développeurs
Pour autant, l’IA générative ne peut pas remplacer les humains qui créent les jeux. Pas encore, affirme Peter Molyneux, légende britannique du jeu vidéo et père du genre « god games » avec Populous, Fable et Black & White. « La qualité de l’IA n’est pas suffisante pour que nous puissions réellement l’utiliser dans les jeux pour le moment », explique-t-il à la BBC.
Masters of Albion. Capture d’écran
Celui qui, à 66 ans, s’apprête à lancer Masters of Albion, son dernier jeu (et ultime, jure-t-il), prévient qu’il faut être « très, très prudents et nous assurer qu’il existe des garde-fous, afin de ne pas abuser de cette puissance que l’IA nous donne ». Cette technologie va sans aucun doute « provoquer des perturbations»… mais il se veut aussi prudemment optimiste. « Vous savez quoi ? Nous sommes des êtres humains. Nous avons toujours évolué. Nous ne sommes jamais restés immobiles. Les sociétés changent, et nous nous adaptons. »
Le discours est similaire chez Strauss Zelnick, le PDG de Take-Two qui publie GTA, la franchise NBA 2K, BioShock et bien d’autres blockbusters. « Peut-on utiliser des outils d’IA pour créer des storyboards plus rapidement ? Ou pour aider à dégager des éléments d’intrigue ? Ou encore pour explorer des alternatives ? Bien sûr », explique-t-il au micro de Christopher Dring de The Game Business.
Il avance que ces outils sont tout simplement plus efficaces que ceux utilisés auparavant, comme la recherche sur internet. D’ici à penser que l’IA peut concevoir un jeu de A à Z qui fasse un carton, il y a tout un monde.
Le génie n’est pas sorti de la bouteille
Fin janvier, Google lançait un pavé dans la mare en dévoilant son « project Genie », un prototype expérimental qui génère des mondes ouverts interactifs, un peu comme les derniers Zelda en 3D, simplement à partir d’une requête ou d’une photo. La démo est certes impressionnante, mais on est très loin d’un « vrai » jeu.
« L’idée que de nouveaux outils permettraient à une seule personne d’appuyer sur un bouton pour générer un succès et le diffuser auprès de millions de consommateurs à travers le monde est risible », affirme Strauss Zelnick. Il martèle : « Ça n’a jamais existé dans le monde du divertissement ». Le dirigeant en veut pour preuve la musique générée par IA : « Ça ressemble à une chanson, mais je vous mets au défi de l’écouter plus d’une fois. C’est très bien pour l’envoyer comme carte d’anniversaire, mais pas beaucoup plus ».
Il y aura toujours des margoulins pour tenter de refourguer des jeux entièrement générés par IA, code et assets compris, ou pour promettre de créer des jeux révolutionnaires, comme un certain Elon Musk. À l’heure actuelle, l’industrie se dirige plutôt vers l’utilisation d’outils d’aide à la conception, que ce soit pour le prototypage ou tester différents chemins dans une histoire, comme le studio Larian, créateur de Baldur’s Gate 3, l’a indiqué en décembre dernier.
L’enquête de la GDC précisait ainsi que 81 % des répondants utilisent l’IA générative pour de la recherche ou du brainstorming. Loin derrière, la génération d’assets concentre 19 % des usages – et les joueurs sont généralement les premiers à s’en rendre compte et à s’en plaindre. Il y a également eu toute la polémique autour de DLSS 5 qui utilise l’IA générative pour modifier les graphisme des jeux.
La ministre de la Santé a annoncé jeudi matin la sélection de Scaleway, filiale du groupe iliad, par la Plateforme des données de santé. Ce fameux « Health Data Hub », qui doit notamment faciliter l’accès aux données de santé à des fins de recherche, était précédemment hébergé par Microsoft.
C’est finalement Scaleway, entité du groupe iliad, qui va reprendre l’hébergement de la Plateforme des données de santé, ou Health Data Hub, qui fonctionnait jusqu’ici sur des infrastructures opérées par Microsoft Azure. L’information a été révélée mercredi dans la soirée par Emile Marzolf de Politico, puis confirmée jeudi 23 avril via un communiqué du HDH et un message de la ministre de la Santé, Stéphanie Rist :
« Avec le choix de Scaleway par la Plateforme des données de santé, nous faisons le choix d’un cloud souverain pour héberger nos données de santé. Un choix stratégique pour renforcer la sécurité, la confiance et notre indépendance technologique ».
Deux mois et demi de sélection
Les modalités exactes de la migration et le montant du contrat associé n’ont pour l’instant pas été communiqués, mais la Plateforme de santé (PDS) affiche son ambition de pouvoir « gérer en autonomie une copie de la base principale du SNDS [Système national des données de santé] entre la fin de l’année 2026 et le début de l’année 2027 ».
Le Health Data Hub affirme que le processus de sélection a duré deux mois et demi, sous contrôle de l’UGAP et des pouvoirs publics. « Ce travail a permis de partager et de clarifier la spécificité des besoins de la PDS avec plus de 350 exigences techniques », indique-t-il.
Le HDH confirme par ailleurs que plusieurs « offreurs » se sont positionnés sur le dossier, intéressant à la fois par sa surface financière et par la notoriété qu’il renvoie, associée à l’image de souveraineté numérique. Au terme du processus, c’est donc finalement Scaleway, qui n’est pas encore arrivé au terme de la certification SecNumCloud, qui a remporté le morceau.
L’hébergeur s’est lancé dans le processus en janvier 2025, peu de temps après l’obtention de son agrément HDS (Hébergeur de données de santé). Jeudi, il estime par voie de communiqué que le choix de la PDS démontre « la crédibilité de sa trajectoire de qualification SecNumCloud » et confirme que cette dernière est bien indispensable dans le cadre de ce contrat.
OVHcloud allié à Docaposte, Cloud Temple ou Atos faisaient partie des candidats potentiels dont les noms ont circulé dans la presse en début d’année. « La société Bleu, qui réunit Capgemini et Orange pour continuer de vendre en France les services de Microsoft aux administrations de l’Etat grâce au tampon SecNumCloud, n’avait pas candidaté, et n’avait pas même été sollicitée par l’équipe du Health Data Hub », affirme Emile Marzolf.
Épilogue d’une longue polémique ?
Le gouvernement a régulièrement été interpellé sur la décision, formalisée dans la loi en 2019, de confier l’hébergement de la Plateforme de santé à un acteur états-unien. Début février 2026, il s’était engagé à initier une migration vers un hébergeur répondant aux exigences de la certification SecNumCloud avant la fin de l’année, après avoir envisagé une solution intercalaire finalement jugée peu satisfaisante.
Rappelons que le Health Data Hub prend la forme d’une structure publique, chargée de concevoir et d’opérer la Plateforme des données de santé, un guichet unique permettant aux acteurs de la santé publique, de la recherche ou de l’innovation, d’accéder à des données de santé non nominatives dans un environnement censé bénéficier d’un niveau de contrôle et de sécurité adéquat.
« La PDS et Scaleway s’engagent donc aujourd’hui pour mettre à disposition des acteurs de la recherche et de l’innovation en santé un espace sécurisé capable d’héberger les données de remboursement de l’Assurance maladie et d’autres bases de données de santé d’intérêt », promet le Health Data Hub.
Anthropic a un sérieux problème sur les bras : trop d’utilisateurs, pas assez de capacités de calcul. La startup a mis en place des mesures de restriction de l’usage et a testé une limitation des plus sévères : supprimer carrément l’accès de Claude Code aux abonnés Pro.
L’engouement envers Claude Code ne faiblit pas, à tel point que le chiffre d’affaires annualisé devrait dépasser les 30 milliards de dollars. Des revenus record qui propulsent encore plus haut l’intérêt des investisseurs, avec une introduction en Bourse qui devrait intervenir cette année.
Mais l’attrait des utilisateurs pour les solutions IA d’Anthropic, et tout particulièrement Claude Code, s’accompagne aussi d’une crise de croissance. Les capacités de calcul ont du mal à suivre, et ce ne sont pas les accords signés ici et là qui vont améliorer les choses à court terme : encore faut-il construire les centres de données et les équiper, dans un contexte où l’approvisionnement en composants est un véritable coupe-gorge.
L’entreprise tente donc de maîtriser la demande, et la dernière expérimentation en date ne fait pas que des heureux. Des utilisateurs ont ainsi eu la mauvaise surprise de voir que la grille des bénéfices des abonnements Claude avait supprimé l’accès de Claude Code à la formule Pro (17 dollars par mois). Pour pouvoir utiliser l’outil de génération de code, il faut donc souscrire à la formule Max, à partir de 100 dollars.
Les abonnés Pro privés de Claude Code. Capture d’écran : George Pu
Un test et une marche arrière toute d’Anthropic
Les entreprises et les organisations ne sont pas tellement concernées puisqu’elles ont des tarifications spécifiques. Pour les amateurs ou les prosumers en revanche, la pilule est plus difficile à faire passer. Pas de panique (pour l’instant) : il ne s’agit que d’un test concernant 2 % des nouveaux abonnés (rien ne change pour les anciens), a confirmé Amol Avasare, responsable de la croissance chez Anthropic. La liste des fonctions de Claude Pro est d’ailleurs revenue à la normale, l’accès à Claude Code étant de retour. Il ajoute que si quelque chose devait changer, « nous préviendrons les gens bien à l’avance ».
Le dirigeant explique qu’au lancement de la formule Max l’an dernier, elle n’incluait pas Claude Code, que Cowork n’existait pas et que les agents IA qui tournaient durant des heures n’étaient pas encore de la partie. « Max était conçu pour un usage prolongé du chat, voilà tout ». Depuis, Code y est intégré et avec l’avènement d’Opus 4, l’usage a fortement progressé, tandis que les agents comme OpenClaw ont commencé à faire partie des flux de travail au quotidien.
« La manière dont les gens utilisent leur abonnement Claude a fondamentalement changé », observe-t-il, « nos formules actuelles n’ont pas été conçues pour ça ». Avec un engagement en hausse constante, Anthropic a dû faire des ajustements : plafond d’utilisation hebdomadaire, des limites durant les heures de pointe, passage à l’API pour les services tiers… C’est pourquoi l’entreprise cherche de nouvelles manières de partager les capacités de calcul, et en teste certaines.
Va-t-on dès lors vers une hausse des prix des abonnements, couplée à davantage de restrictions dans les offres ? Ce n’est pas à exclure. Le nouveau modèle de langage Opus 4.7 est d’ailleurs plus gourmand en tokens.
Cabasse, le spécialiste breton du son très haut de gamme, est désormais entre les mains de Loewe. En cessation de paiement depuis fin février, l’entreprise basée à Brest poursuivra son activité, tout en apportant son savoir-faire au nouveau propriétaire.
Loewe, célèbre constructeur allemand de téléviseurs, de produits audio (et de cafetières grand luxe) s’offre Cabasse, la marque et les actifs, pour une bouchée de pain. Au terme de la procédure de redressement judiciaire engagée après la cessation de paiement du 27 février, le tribunal de commerce de Montpellier a accepté l’offre de 400 000 euros du repreneur. C’est certes « un prix de cession faible », reconnait le tribunal repris par La Tribune, mais Loewe s’est engagé à reprendre 24 des 26 salariés.
La gamme Cabasse.
Surtout, le dossier de Loewe présente « des garanties sur la pérennité des activités reprises ». Cabasse va en effet continuer d’opérer de manière indépendante, en préservant l’identité de la marque, son autonomie d’ingénierie et sa feuille de route, précise le communiqué de presse. Cabasse, qui reste basée à Brest, va également bénéficier d’investissements ciblés de la part de Loewe pour développer ses infrastructures et ses produits, « tout en mettant à disposition sa plateforme commerciale internationale et ses capacités marketing ».
Mais Cabasse va apporter au pot commun ses technologies et ses brevets. Le nouveau propriétaire entend développer une nouvelle génération de produits audio haut de gamme pour le home cinéma, pour les casques sans fil et le calibrage acoustique de ces futures gammes. « En intégrant leur expertise exceptionnelle à l’univers Loewe, nous portons nos capacités audio à un niveau totalement inédit », se réjouit Aslan Khabliev, le patron de Loewe, qui renforce ainsi ses positions dans le secteur de l’audio de luxe.
Cabasse a été fondée en 1950 en Bretagne par Georges Cabasse, ingénieur en électricité. L’entreprise équipe des lieux prestigieux comme le Grand Rex ou la Géode à Paris, elle fabrique également des enceintes reconnues pour leurs qualités acoustiques. Parmi les faits d’armes récents de la société, en dehors des enceintes Pearl ou Sphere Evo, relevons le partenariat avec Dolby et Orange pour un ensemble abordable de home cinema.
Elle a plusieurs fois changé de main : en 2006, Cabasse est avalé par Canon Europe ; en 2014, Awox, spécialiste des technologies domotiques, reprend l’affaire et devient Cabasse Group, qui possède la marque, ses actifs, l’usine du Finistère. En 2022, l’entité devient Veom Group, basée à Montpellier (d’où le recours au tribunal de commerce de la ville). Elle a engagé une procédure de redressement judiciaire le 9 mars. Suite à la cession à Loewe, Veom est liquidé, avec radiation des actions sur Euronext.
« Compte tenu du niveau du passif de la Société, les créanciers vont subir une perte très significative pouvant porter sur l’intégralité de leurs créances, et les actionnaires et les porteurs obligataires vont subir la perte intégrale de leur investissement », prévient le communiqué. Cabasse n’était pas au meilleur de sa forme : avec 4,7 millions d’euros, le chiffre d’affaires 2025 était en recul de 30 % par rapport à l’année précédente. La trésorerie était à plat et la production « quasiment à l’arrêt », selon La Tribune.
La bibliothèque Python Xinference, qui permet d’utiliser facilement différents modèles d’IA localement, a été ciblée. Résultat : les versions 2.6.0 à 2.6.2 sont compromises et exposent plusieurs identifiants de connexion comme les clés SSH ou les secrets .env.
Une nouvelle fois, la supply chain d’une bibliothèque utilisée par les développeurs recourant à des modèles d’IA a été compromise. En mars, c’était le scanner de vulnérabilité Trivy qui était visé puis l’application LiteLLM. Axios avait ensuite été touché. Maintenant, c’est le tour de Xorbits Inference connu aussi sous le nom de Xinference.
Cette bibliothèque permet aux développeurs de passer d’un modèle à un autre en une seule ligne de code et de sélectionner des modèles open source qui conviennent le mieux pour la voix, du multimodal, qu’ils soient sur leur ordinateur ou dans le cloud.
Mais une attaque a été détectée par un utilisateur de XInference. L’équipe de chercheurs de l’entreprise de sécurité JFrog a analysé la compromission de Xinference dans PyPI (Python Package Index), le dépôt officiel des paquets Python. Pour eux, c’est signé du même acteur que celle effectuée contre Trivy, TeamPCP, même si son compte X réfute.
Récupération de tous les secrets possibles, traitement spécial pour AWS
JFrog explique que l’attaque n’utilise pas de technique de typo-squatting ou de faux paquets. C’est bel et bien les vrais paquets de Xinference distribués via PyPI qui ont été touchés et qui comportent des trojans. La méthode utilisée par les pirates pour diffuser des paquets piégés via PyPI n’est pas indiquée par les développeurs ; il faut se contenter d’un « Oui, nous sommes attaqués, nous venons de retirer ces versions » il y a 12 heures.
Une fois installés, ils ciblent directement les mot de passe et secrets des développeurs comme les clés SSH et TLS privées, les identifiants Git, AWS, les fichiers de configuration d’environnement de l’ordinateur, de mails et de bases de données, de Docker et Kubernetes, de VPN, les jetons de gestionnaire de paquets, ainsi que les portefeuilles de cryptomonnaies. Tout est enregistré dans une archive « love.tar.gz ».
Dans le cas d’AWS, le code malveillant va directement se connecter sur le compte via les secrets dérobés. Il ne fait donc pas seulement que récupérer des « clés », dans le cas d’Amazon elles sont directement utilisées sur place pour voler d’autres secrets avant de partir (via une fonction def aws_req).
« Si vous avez installé ou utilisé les versions 2.6.0 à 2.6.2 de xinference, considérez que l’hôte a été compromis », alarme JFrog. La dernière version officielle (et saine) est actuellement la 2.5.0. Attention, sur PyPI les versions 2.6.0, 2.6.1 et 2.6.2 sont uniquement « remisées » et donc toujours accessibles et téléchargeables dans l’historique des versions PyPI.
L’entreprise de cybersécurité explique que le code malveillant se trouve dans le fichier __init__.py, ce qui lui permet de se lancer dès l’import du paquet, que ce soit via un import de la bibliothèque, au démarrage en ligne de commande ou comme un service, via l’utilisation d’une bibliothèque dépendant de ce paquet.
Le piratage se fait via du code Python encodé en base64 (pour le cacher un peu aux yeux des utilisateurs) dans le fichier transmis à un sous-processus. Un nouvel interpréteur Python appelé via popen permet de désactiver les sorties stdout, stderr et d’exécuter le contenu malveillant sans que l’utilisateur ne s’en rende compte. Celui-ci commence par le commentaire « # hacked by teampcp ».
JFrog ne s’appuie pas que sur celui-ci pour attribuer le piratage à la même équipe que celle qui s’est attaquée à liteLLM.Les chercheurs affirment que la structure de l’attaque est « similaire ». Un autre code en base64 exfiltre les données via une requête POST après les avoir compressées dans un dossier temporaire.
L’entreprise liste cependant quelques différences avec le piratage de liteLLM dans ce tableau :
Sur la machine, toutes les données confidentielles sont exposées à un risque
Pour celles et ceux qui auraient installé une de ces versions de Xinference, JFrog conseille d’isoler le plus rapidement possible les hôtes affectés des réseaux sensibles et de vérifier s’il y a du trafic sortant ou des requêtes DNS vers whereisitat[.]lucyatemysuperbox[.]space. « Tout hôte ayant importé le paquet pourrait avoir subi une fuite de données », rappelle l’entreprise. « Vous devez partir du principe que toutes les données confidentielles stockées sur la machine sont exposées à un risque » et donc faire une rotation de tous les secrets qui ont pu être ciblés.
Enfin, après un audit vérifiant qu’il n’y a eu aucun accès non autorisé, JFrog explique qu’il est possible de se débarrasser du problème en désinstallant la version problématique de Xinference car aucun mécanisme de persistance n’est mis en place.
L’installation de Claude Desktop entraîne la création, sur la machine hôte, de manifestes pré-autorisant la communication entre le client logiciel et les extensions de navigateur dédiées à Chrome. Ce mécanisme, dont l’utilisateur n’est pas informé, soulève des questions de conformité et de sécurité selon le consultant qui l’a découvert.
Non contente de contraindre certains utilisateurs à une vérification d’identité, Anthropic se montrerait-elle un peu laxiste vis-à-vis des permissions données à la version desktop du client Claude ? C’est l’hypothèse soulevée par Alexander Hanff, consultant spécialisé dans les enjeux de vie privée en ligne. Dans un long billet de blog publié le 18 avril et relayé, notamment, par The Register deux jours plus tard, il s’émeut qu’Anthropic « installe secrètement un spyware [sur votre machine] quand vous installez Claude Desktop ».
Découverte fortuite d’un json dédié à Claude
Au hasard d’un projet personnel mené sur son MacBook, Alexander Hanff décrit comment il est tombé sur un fichier émanant d’Anthropic et associé à Claude, dans l’un des dossiers de configuration de son navigateur Web, Brave. Baptisé com.anthropic.claude_browser_extension.json, le fichier révèle un pan de code de quelques lignes, qui comprend notamment trois clés destinées à l’identification de trois extensions Chrome et visant à faire de ces dernières des sources autorisées (allowed_origins) en vue d’interagir avec le navigateur.
Nous avons entrepris d’installer l’image de Claude Desktop sur une machine équipée de macOS, afin de voir si nous reproduisions cette découverte. Une rapide recherche, conduite via le terminal dans la foulée de l’installation, nous a permis de localiser le fichier .json concerné et d’en consulter le code, conforme à ce qu’a publié Alexander Hanff le 18 avril. Comme lui, nous constatons d’ailleurs que ce fichier, décrit comme un manifeste « Claude Browser Extension Native Host » est présent non seulement pour nos navigateurs courants, mais aussi pour des logiciels qui ne sont pas installés sur la machine.
Anthropic demande bien d’accepter les conditions d’utilisation de son logiciel au cours du processus, et un consentement lié aux cookies est affiché au premier lancement du client Claude, mais jamais il n’est fait mention, de façon explicite, d’une quelconque autorisation donnée au niveau des navigateurs web.
Nous avons reproduit ce comportement sur une machine équipée de Windows 11. L’installation de Claude Desktop fait en effet apparaître, dès le premier lancement, de nouvelles clés de registre dans le répertoire des navigateurs installés, avec renvoi vers un .json identique. À ses côtés, on note la présence d’un exécutable de type chrome-native-host.exe, alors qu’aucune extension Anthropic n’a jamais été installée sur la machine.
Nous avons pu reproduire le comportement dénoncé sur Windows – capture Next
Un manifeste de « messagerie native »
À quoi peut donc bien servir ce fichier ? La plupart des navigateurs permettent la déclaration d’un manifeste de messagerie native (Native Messaging en VO), qui va créer une sorte de pont (bridge) entre une extension Web et une application installée en local sur la machine.
« Ceci permet que des applications natives puissent fournir un service à des extensions sans avoir besoin d’être atteignables via internet. Un exemple typique est le gestionnaire de mots de passe : l’application native s’occupe du stockage et du chiffrement des mots de passe et communique avec l’extension afin de remplir les formulaires web », illustre Mozilla dans sa documentation développeurs.
Dans le cas d’Anthropic, l’application Claude (Desktop ou Code) peut être amenée à communiquer avec un navigateur pour certaines fonctions d’automatisation (IA agentique). De la même façon, on peut appeler les binaires de l’application Claude depuis l’extension. On suppose donc que l’éditeur prépare le terrain, en positionnant, dès l’installation, les manifestes qui serviront à faire le pont avec le navigateur de l’utilisateur.
La méthode n’est pas du goût d’Alexander Hanff :
« Je n’ai installé aucune extension Anthropic pour mon navigateur. Je n’ai jamais installé d’extension Claude pour des raisons de confidentialité et de sécurité. J’ai installé Claude Desktop, l’application Mac, il y a quelque temps. C’est le seul élément sur cet ordinateur qui aurait pu créer ce fichier. Claude Desktop a accédé à Brave, un navigateur d’un fournisseur totalement différent, et a enregistré une porte dérobée pour une extension que je ne possède pas. »
Un problème de sécurité ?
Admettons avec lui que le procédé est un peu cavalier – un lieu commun dans l’univers de l’IA générative. Pour le consultant, elle soulève aussi un véritable problème de sécurité. Documentation d’Anthropic sur Claude Code with Chrome à l’appui, il remarque que quand une extension reliée par ce pont avec l’application installée en local, tout agent exécuté par le modèle accède à des droits équivalents à ceux de l’utilisateur enregistré sur la machine.
« Le pont s’exécute en dehors du bac à sable du navigateur avec un niveau de privilèges équivalent à l’utilisateur, et les hôtes de messagerie native n’apparaissent dans aucun processus macOS standard ou interface utilisateur d’autorisation, ils sont invoqués par le navigateur et communiquent via stdio. »
Pour appuyer sa critique, Hanff rappelle que, de l’aveu même d’Anthropic, l’utilisation de Claude in Chrome n’est pas anodine. En août dernier, lors de l’annonce de la mise à disposition en bêta de son extension pour Chrome, l’entreprise indiquait en effet que son composant était vulnérable à l’injection de prompt, c’est-à-dire l’envoi de commandes malveillantes susceptibles d’entraîner une action non sollicitée sur la machine hôte.
« Un exemple d’attaque réussie – avant la mise en place de nos nouvelles défenses – consistait en un courriel malveillant prétendant que, pour des raisons de sécurité, des courriels devaient être supprimés. Lors du traitement de la boîte de réception, Claude a suivi ces instructions et supprimé les courriels de l’utilisateur sans confirmation », écrivait alors Anthropic. L’entreprise ajoutait que sans ses nouvelles mesures de protection, sa red team avait réussi 23,6 % de ses attaques par injection.
Native Messaging n’est pas exempt de défauts
« La fonctionnalité préinstallée silencieusement sur l’ordinateur portable de chaque utilisateur ayant déjà exécuté Claude.app est, selon les propres mesures d’Anthropic, vulnérable à une injection de code environ une fois sur quatre. », en conclut Alexander Hanff.
S’il est vrai que la connexion d’une application AI à un navigateur soulève un risque d’attaque par injection de prompt sur la machine, la conclusion se révèle peut-être un peu hâtive : toutes les installations de Claude desktop sur Mac n’en sont pas pour autant vulnérables puisqu’il faut encore que l’extension associée soit installée pour que le pont opère.
Autrement dit, les vrais vecteurs d’attaque ne seraient pas le manifeste proprement dit, mais plutôt l’exécutable installé en local, ou les extensions autorisées par ledit manifeste.
On peut en revanche aller dans le sens d’Alexander Hanff en soulignant que Native Messaging en tant que tel n’est pas absolument exempt de défaut du point de vue de la sécurité. En 2024, des recherches conduites autour de l’implémentation de l’extension 1Password sur Chromium ont par exemple montré qu’il était possible de s’immiscer dans le protocole (attaque de type man in the middle), faute de vérification au moment d’enclencher la réponse des binaires aux demandes de l’extension.
À l’époque, le sujet n’avait pas été considéré comme critique, notamment parce que, pour être exploitée, cette vulnérabilité supposait que le code responsable de l’attaque et la cible tournent sous le même compte utilisateur. Corrigée tout de même au nom du principe de précaution chez Chromium, mais aussi chez 1Password et Firefox, elle se révèle aujourd’hui sous un jour plus sensible.
De façon plus anecdotique, on remarque que le comportement de ce composant chrome-native-host a donné lieu à un rapport de bug en janvier dernier sur le Github de Claude Code. À l’époque, ce n’était pas l’éventuel caractère intrusif de la démarche qui motivait la discussion, mais plutôt un conflit entre les .json dédiés respectivement à Claude Code et Claude Desktop.
Une infraction à la directive e-Privacy ?
Plus qu’une réelle faille de sécurité, il reste en revanche un comportement que l’on est en droit de qualifier de suspect, puisqu’il n’est pas annoncé. Hanff va plus loin, en affirmant qu’avec cet ajout sous-marin, Anthropic enfreint plusieurs lois, dont la fameuse directive européenne e-Privacy de 2002.
« Je tiens à être franc. Il s’agit d’une pratique douteuse. De plus, à mon avis professionnel, c’est une violation directe de l’article 5, paragraphe 3, de la directive 2002/58/CE, ainsi que de nombreuses lois relatives à l’accès et à l’utilisation abusive des ordinateurs (généralement du droit pénal), à une échelle suffisamment importante pour avoir des conséquences, chez un fournisseur qui a déployé des efforts considérables pour se forger une image de laboratoire d’IA soucieux de la sécurité. »
L’article concerné (voir texte intégral), qui motive les bandeaux de consentement sur le web ou la récente recommandation de la Cnil sur les pixels espion dans les emails, dispose pour mémoire qu’un acteur n’est autorisé à stocker ou accéder à des informations sur la machine de l’utilisateur qu’après consentement éclairé de ce dernier. Le texte tolère toutefois une exception pour finalités « strictement nécessaires à la fourniture d’un service de la société de l’information expressément demandé par l’abonné ou l’utilisateur ».
La justice considèrerait-elle la création d’un pont Native Messaging comme nécessaire, alors que l’application Claude a vocation à fonctionner sans lien direct avec le navigateur ? Plutôt que d’attendre de voir ce qu’en pense la justice, le consultant suggère à Anthropic de supprimer ce pont, ou a minima de conditionner la création des manifestes à un consentement explicite. « Si ce n’est pas le cas, nous saurons ce que vaut réellement la politique d’Anthropic en matière de sécurité publique », lâche-t-il pour conclure.
S’il est tentant d’user de la commande rm pour évacuer ces .json non sollicités, leur suppression ne sera que de courte durée, puisque les fichiers sont recréés à chaque nouveau lancement de l’application Claude.
La nouvelle gamme Matter de produits domotiques IKEA s’intègre désormais avec la plateforme SmartThings de Samsung. Les ampoules, capteurs et télécommandes du géant suédois de l’ameublement en kit peuvent donc, en théorie, être pilotés depuis l’application de Samsung et fonctionner main dans la main avec les autres appareils connectés enregistrés dans l’app.
En novembre dernier, IKEA remettait les compteurs de sa stratégie domotique à zéro, en dévoilant une toute nouvelle gamme de produits compatibles avec Matter. Plus d’une vingtaine de références, des ampoules de toutes formes et couleurs, en passant par des capteurs de mouvement, de qualité de l’air, d’humidité ou de fuite d’eau, sans oublier des télécommandes en veux-tu, en voilà.
Le tout s’accompagne d’un pont certifié Matter pour contrôler non seulement ces produits, mais aussi ceux d’autres marques compatibles avec le protocole domotique commun qu’une bonne partie de l’industrie, regroupée au sein de la Connectivity Standards Alliance (CSA) cherche à imposer depuis 2022. L’objectif est d’en terminer avec les différentes chapelles incompatibles entre elles, pour faciliter la vie du consommateur et faire avancer le marché… comme xkcd l’a si bien résumé en trois cases.
Une belle idée sur le papier, qui a toujours du mal à se concrétiser malgré les mises à jour régulières du standard. La prise en charge de Matter diffère en effet en fonction des fabricants, certains étant plus avancés que d’autres.
Beaucoup avaient l’espoir que la venue d’IKEA dans la grande famille Matter allait finalement provoquer le déclic que le secteur attendait. Malheureusement le lancement de la gamme a été marqué par des bugs embarrassants : jumelage aléatoire, connexions compliquée… L’espoir faisant vivre, Samsung a annoncé le support des produits Matter d’IKEA dans sa plateforme SmartThings.
Auparavant, connecter les appareils d’IKEA avec SmartThings nécessitait les deux ponts des constructeurs. Ce n’est maintenant plus utile, seul le hub SmartThings est nécessaire. Tous les produits IKEA peuvent être contrôlés depuis l’application SmartThings, qui centralise et gère l’automatisation des appareils compatibles (Hue, Eve, Ring, Nuki…).
Magie noire ou progrès technologique, la frontière est parfois difficile à définir. Image : Samsung
SmartThings étant compatible avec le standard Matter et avec le protocole réseau basse consommation Thread, il devrait donc supporter naturellement les produits IKEA. Il a manifestement fallu un peu de travail supplémentaire pour y parvenir. Plusieurs « cycles de validation » ont été nécessaires pour « améliorer la stabilité de la connexion » ; les deux partenaires ont également planché sur une « expérience utilisateur dédiée dans l’application SmartThings pour assurer une compatibilité complète ». Pas si simple de Matter tout ce petit monde.
Quoi qu’il en soit, l’utilisateur devrait (soyons prudents) être en mesure d’intégrer les appareils IKEA dans ses routines SmartThings, en compagnie des produits domotiques d’autres fabricants. Ils fonctionneront également avec les électroménagers Samsung, ainsi que les téléviseurs du groupe.
Le robot tondeuse Mammotion LUBA 2 AWD 5000X dispose d’une connexion 4G, Wi-Fi et Bluetooth, tout en étant bardé de capteurs, notamment avec son « système de positionnement et de navigation NetRTK + Vision IA à double caméra ». Il est vendu plus de 2 000 euros.
Il exploite donc le système RTK (Real Time Kinematic) qui, rappelle l’ANFR, « améliore la précision des signaux GNSS (GPS, Galileo…) grâce à une base fixe transmettant des corrections au centimètre près, utile pour éviter que le robot ne déborde chez le voisin ou sur la route ». Cette coupe au centimètre a des conséquences inattendues : des brouillages un peu partout en France.
La base RTK du robot utilise en effet la bande de fréquence 863–870 MHz, également utilisée par le réseau bas-débit LoRa. Jusque-là, rien d’exceptionnel car cette bande est « libre » : elle peut être utilisée sans licence, contrairement aux fréquences de la téléphonie mobile par exemple. Mais attention, libre cela ne veut pas dire que c’est le « far west » et que tout le monde fait ce qu’il veut.
Les fabricants doivent en effet respecter des conditions techniques strictes sur la puissance et le temps d’émission, par exemple. Selon la décision 2023 - 1412 de l’Arcep et le tableau national de répartition des bandes de fréquences (TNRBF, pdf de 314 pages), le temps d’émission est limité à 1 %. Problème, le module RTK de la tondeuse était bien loin de cette limite et « était décidément beaucoup trop bavard : il émettait dans la bande 868–868,6 MHz près de 40 % du temps ».
Ce robot tondeuse n’était pas un cas isolé : « plus de 120 plaintes concernant le réseau LoRa ont été traitées entre 2024 et 2025, rendant indispensable une solution durable ». Le distributeur français de la tondeuse a déployé une mise à jour logicielle afin de réduire l’occupation excessive de la bande, « mais ces ajustements apparaissaient insuffisants ».
L’Agence nationale des fréquences change de braquet. Si la lutte contre les brouillages permet de régler des cas individuels, « la diffusion dans tout le pays d’un appareil produisant des brouillages systématiques relève, elle, de la procédure de surveillance du marché, afin d’éliminer le trouble à sa source ». Une nouvelle procédure est enclenchée.
Un robot est prélevé chez un revendeur et analysé. Sans surprise, « l’appareil ne respectait toujours pas les obligations de mise sur le marché, notamment les conditions techniques d’utilisation de la bande 863–870 MHz ». Le responsable des produits, Shenzhen Mammotion Innovation Co, est alors contacté et une mise à jour du firmware est déployée – la V1.14.1.2 – et diffusée automatiquement. L’ANFR confirme que le souci est réglé.
« Sans mise à jour, l’appareil peut continuer à émettre de manière non conforme, exposant l’utilisateur au risque de brouillage et aux sanctions du Code des postes et communications électroniques — c’est-à-dire jusqu’à 30 000 € d’amende et 6 mois d’emprisonnement », rappelle enfin l’ANFR.
Les moindres faits et gestes des employés de Meta sur leurs ordinateurs vont être surveillés de près. Pas pour leur refourguer de la pub ciblée (ni pour les espionner, assure le groupe), mais pour entraîner des modèles IA.
Les mouvements de curseur des souris, les clics et les frappes clavier vont être observés de très près chez Meta. Des mémos récupérés par Reuters confirment le lancement d’un nouvel outil, Model Capability Initiative (MCI), dans les ordinateurs des employés de l’entreprise. Il va non seulement enregistrer toutes les interactions avec les sites web et les applications utilisés par les employés, mais aussi réaliser des captures d’écran de temps en temps.
MCI ne sera pas utilisé pour fliquer les employés ou vérifier leur productivité, promet l’entreprise. Et des garde-fous auraient été mis en place pour protéger les « contenus sensibles », sans plus de précision. L’objet de cet outil est d’améliorer les modèles IA de Meta, là où ils montrent de sérieuses lacunes : ils peinent en effet à reproduire la manière dont les humains interagissent avec les ordinateurs. Sélection d’une option dans un menu déroulant, utilisation de raccourcis clavier… Tout cela peut être utile pour les agents qui prennent la main sur les ordinateurs de leurs utilisateurs.
« La vision que nous construisons est celle d’un environnement où nos agents réalisent l’essentiel du travail, et où notre rôle consiste à les diriger, les évaluer et les aider à s’améliorer », écrit Andrew Bosworth, le directeur technique de Meta. Ces agents IA doivent être en mesure « d’identifier automatiquement les moments où nous avons ressenti le besoin d’intervenir, afin de faire mieux la fois suivante ».
Les données collectées par MCI feront partie des sources utilisées pour améliorer ces agents. Reste que cette initiative risque bien de se casser le nez dans l’Union européenne, en vertu entre autres du RGPD et des réglementations locales. En Italie, la surveillance électronique de la productivité des employés est illégale.
En France, le Code civil dispose que chacun a droit au respect de sa vie privée, y compris dans le cadre de l’entreprise sous la subordination de l’employeur. Ce dernier a cependant le droit d’accéder au matériel informatique mis à disposition des salariés, mais il doit non seulement informer les employés, mais consulter également le comité d’entreprise et le comité social et économique en préalable de la mise en œuvre.
La CNIL a par ailleurs rappelé que les dispositifs de surveillance doivent être « strictement proportionnés à l’objectif suivi » et surtout, ils ne peuvent pas servir à des fins de surveillance permanente. Les keyloggers sont nommément cités comme des outils à ne pas utiliser.
Depuis la semaine dernière, Anthropic réclame à des abonnés une vérification de leur identité, qui doivent fournir une pièce d’identité officielle avec photo. Cette exigence concerne « certains cas d’usage », comme l’indique la société sans trop en dire. Mais il semble bien qu’il s’agisse d’une mesure pour bloquer les requêtes venant de pays perçus comme des adversaires des États-Unis, comme la Chine, la Russie ou encore la Corée du Nord.
OpenAI a une politique similaire : officiellement, ChatGPT est disponible dans certains pays et pas dans d’autres. Chez ces derniers, l’accès au bot peut être bloqué. Les trois pays cités ci-dessus ne font d’ailleurs pas partie de la liste. Mais OpenAI n’a pas (encore ?) mis en place de vérification de l’identité.
La demande de vérification de l’identité de Claude. Image : @Kai
Anthropic invoque auprès du site The Information des raisons de sécurité nationale pour ne pas proposer d’accès commercial à Claude en Chine. « Notre équipe chargée des garde-fous applique activement ces règles […] Nous prenons des mesures contre les comptes en infraction », explique l’entreprise. Pour le moment, la vérification ne concerne pas tous les résidents chinois, mais elle commence à faire sentir ses effets chez les startups qui ont bâti leur activité autour de Claude.
La nature trouvant toujours un chemin, des petits malins vendent déjà des pièces d’identité étrangères pour les entreprises interdites de Claude. Des vendeurs sur Idle Fish, la marketplace entre particuliers du groupe Alibaba, ont immédiatement commencé à proposer des solutions de contournement comme par exemple des comptes Claude Code préenregistrés, ou un accès à des comptes Claude existants.
Ce blocage, s’il devait perdurer, pourrait cependant avoir les mêmes effets que les restrictions d’importation de composants américains les plus puissants en Chine. Les constructeurs locaux, poussés par les autorités du pays, cravachent pour concevoir leurs propres composants, à l’image de Huawei et de Baidu.
Privée d’accès à Claude, la Chine accélère aussi le développement de ses propres modèles, comme on l’a vu début 2025 avec l’apparition fracassante de DeepSeek dans le paysage de l’IA.
Des fédérations sportives, des institutions, des boutiques en ligne… HexDex pirate tout ce qu’il peut et propose ensuite les données à la vente sur des forums. Il a été interpellé par les autorités françaises, en Vendée. Son matériel informatique a été saisi au passage.
Selon plusieurs de nos confrères (notamment Franceinfo, le Parisien et l’AFP), « un homme de 21 ans, soupçonné d’être le pirate informatique HexDex, à l’origine de la publication de nombreuses bases de données volées dans l’Hexagone, a été interpellé lundi 20 avril en Vendée ».
Des dizaines d’exfiltrations de données pour « l’appât du gain »
Le parquet avait ouvert une enquête pour atteintes à un système de traitement automatisé de données suite à une centaine de signalements d’exfiltration de données à partir de décembre 2025 (rappelons que 2025 était déjà une année bien chargée).
Elles étaient revendiquées pour une bonne partie d’entre elles par un pirate sous le pseudo « Hexdex ». Il publiait ses « exploits » sur des forums biens connus des hackers, pirates et autres acteurs de la cybersécurité. Les fuites dont il s’attribuait le « mérite » avaient fait le tour des médias.
Elles concernaient notamment plus d’une dizaine de fédérations sportives, le système d’information sur les armes du ministère de l’Intérieur (SIA), l’Agence Nationale de la Cohésion des Territoires (ANCT), Choisir le service public gouv, etc.
Sur la plateforme Pastebin, HexDex avait répertorié l’ensemble de ses revendications, qui s’approchent de la quarantaine. De plus, il y a quelques semaines, il avait expliqué à Zataz qu’il se considérait « simplement comme quelqu’un qui gagne de l’argent illégalement et qui ressent une montée d’adrénaline à chaque intrusion ». Il ne cachait pas sa motivation première : « L’appât du gain ». Il s’est donc depuis fait rattraper par la Pat’ Patrouille.
Interpelé alors « qu’il s’apprêtait à publier d’autres données »
« HexDex a été identifié comme étant un homme né en août 2004 », il « a été interpellé lundi 20 avril 2026, en Vendée, alors même qu’il s’apprêtait à publier d’autres données », indique le parquet de Paris cité par Franceinfo. Toujours selon nos confrères, il « a reconnu l’utilisation de ce pseudonyme […] Son compte sur Darkforum a été saisi, ainsi que son matériel informatique, qui devra être exploité ».
Sur le message publié par les autorités via le profil de HexDex, on peut lire que ce profil « a été saisi par la Brigade de lutte contre la cybercriminalité de la préfecture de police de Paris et la section cyber – J3 du parquet de Paris ». Il est aussi précisé « travail en cours ! ».
De l'implication dans le réel de conversations artificielles
En avril 2025, Phoenix Ikner, 20 ans, a consulté le chatbot d’OpenAI sur l’opportunité de la fusillade à l’université de l’État de Floride dont il est suspecté d’être le principal auteur. Le procureur général de l’État a annoncé lancer une enquête criminelle pour savoir si l’entreprise avait une responsabilité juridique dans cette affaire.
Après l’encouragement au suicide d’un adolescent, ou à un meurtre, OpenAI et son chatbot sont accusés d’avoir aidé à la planification d’une fusillade proche des locaux d’un syndicat étudiant sur le campus de l’université de Floride.
Le 17 avril 2025, Phoenix Ikner, 20 ans, fils d’une policière, a déclenché une fusillade devant les locaux d’un syndicat étudiant sur le campus de l’université de l’État de Floride, faisant deux morts et six blessés, comme l’expliquait à l’époque USA Today.
Ce mardi 21 avril, le procureur général de l’État James Uthmeier a annoncé avoir lancé une enquête visant le rôle de ChatGPT et de son éditeur OpenAI dans cette tuerie. « La décision d’ouvrir une enquête fait suite à un premier examen, par les procureurs, des historiques de conversation entre ChatGPT et Phoenix Ikner, l’auteur de la fusillade survenue l’année dernière à l’université d’État de Floride », explique son communiqué de presse.
« Si ChatGPT était une personne, elle serait poursuivie pour meurtre »
Quelques jours plus tôt, le média local WTXL expliquait que les enquêteurs analysaient les logs des discussions de Phoenix Ikner avec le chatbot. Le jour de la fusillade, il aurait notamment demandé à ChatGPT comment le pays réagirait s’il y avait une fusillade dans cette université, quand la dernière fusillade avait eu lieu, quel nombre de victimes permet d’attirer l’attention des médias et si trois était suffisant.
Le chatbot aurait répondu qu’une fusillade avec trois victimes ou plus « ferait très certainement l’objet d’une couverture médiatique nationale ». Enfin, il aurait demandé à quelle heure les locaux du syndicat étudiant de l’université accueillaient le plus de monde.
« La Floride montre la voie en matière de lutte contre l’utilisation de l’IA dans le cadre d’activités criminelles, et si ChatGPT était une personne, elle serait poursuivie pour meurtre », affirme le procureur général de l’État James Uthmeier dans son communiqué :
« Cette enquête pénale permettra de déterminer si OpenAI engage sa responsabilité pénale pour les agissements de ChatGPT lors de la fusillade survenue l’année dernière à l’université d’État de Floride. »
« Ce n’est pas parce qu’il s’agit d’un chatbot basé sur l’IA qu’il n’y a pas de responsabilité pénale », a-t-il déclaré lors de sa conférence de presse sur le sujet, selon Politico :
« Nous allons donc examiner qui savait quoi, qui a conçu quoi, ou qui aurait dû agir. Et s’il apparaît clairement que certaines personnes savaient que ce genre de comportements dangereux pouvait se produire, que ce genre d’événements tragiques et malheureux pouvait se produire, et qu’elles ont néanmoins privilégié le profit, qu’elles ont néanmoins laissé cette entreprise poursuivre ses activités, alors ces personnes devront rendre des comptes. »
De potentielles responsabilités pénales pour des responsables de l’entreprise
Pour l’enquête, son équipe a demandé à OpenAI de lui fournir de multiples informations sur les sécurités mises en place sur son chatbot concernant ce genre d’événement. Ainsi, l’entreprise doit notamment leur fournir toutes les informations sur les mesures internes concernant les menaces proférées par des utilisateurs à l’encontre d’autrui, à l’encontre d’eux-mêmes et concernant la coopération de l’entreprise avec la police pour signaler des crimes (au passé, futur ou présent).
Le procureur général demande aussi à l’entreprise de lui fournir un organigramme de ses responsables ainsi que la liste de tous les employés travaillant sur ChatGPT lors de différentes dates clés pour l’enquête.
Lors de sa conférence de presse, James Uthmeier a expliqué que l’éventuelle responsabilité pénale contre une entreprise constituerait une première dans le domaine juridique, rapporte le New York Times. Mais il ne s’interdit pas de viser des personnes physiques liées à l’entreprise lors de son enquête : « des êtres humains auraient pu intervenir dans la conception, la gestion et le fonctionnement » de ChatGPT, au point où cela pourrait « engager leur responsabilité pénale ».
« La fusillade de masse qui s’est produite l’année dernière à l’université d’État de Floride a été une tragédie, mais ChatGPT n’est pas responsable de ce crime odieux », indique le communiqué d’OpenAI sur le sujet transmis au New York Times.
« Dans ce cas précis, ChatGPT a fourni des réponses factuelles à des questions en s’appuyant sur des informations largement disponibles dans des sources publiques sur Internet, et n’a ni encouragé ni favorisé aucune activité illégale ou préjudiciable », ajoute l’entreprise.