Vue normale

Reçu — 16 avril 2026 Next - Articles gratuits

Claude peut maintenant exiger une vérification d’identité

16 avril 2026 à 16:15
Vos papiers et que ça saute
Claude peut maintenant exiger une vérification d’identité

C’est une première pour les chatbots IA. Claude peut désormais réclamer une vérification de l’identité de l’utilisateur. Il faudra alors présenter un passeport, un permis de conduire ou une carte d’identité avec photo. Les photocopies, les captures d’écran ou « photos d’une photo » ne sont pas acceptées. Un selfie pourra aussi être demandé.

La demande de vérification de l’identité, repérée par Decrypt, a commencé à apparaitre chez de nouveaux abonnés de Claude. Ce qui ne manque pas d’étonner, sachant que pour le moment du moins, aucun législateur ou régulateur n’a exigé une telle opération. Dans une fiche d’assistance mise en ligne le 14 avril, Anthropic explique que « la vérification de l’identité nous aide à prévenir les abus, à appliquer nos politiques d’utilisation et à respecter nos obligations légales ». 

Une vérification de l’identité inédite pour un bot

La vérification de l’identité concerne « certains cas d’usage » non précisés, et lors de l’accès à « certaines fonctionnalités », le tout dans le cadre des vérifications régulières d’intégrité de la plateforme « ou d’autres mesures de sécurité et de conformité ». 

En cas d’échec de la vérification, il est toujours possible de contacter l’entreprise qui examinera alors le dossier. Persona Identities est le prestataire chargé de la vérification ; ce sous-traitant travaille aussi pour le compte de Roblox, DoorDash, LinkedIn, mais aussi… OpenAI, dans certains cas, pour contrôler l’âge des utilisateurs de ChatGPT.

La demande de vérification de l’identité de Claude. Image : @Kai

En février dernier, des chercheurs en sécurité ont découvert qu’une interface web appartenant à Persona était accessible publiquement. Ce frontend contenait 2 456 fichiers (du code et des outils internes) hébergés sur un serveur autorisé par le gouvernement américain, isolé de l’environnement de l’entreprise. 

Pas de données confidentielles ici, mais les fichiers exposés ont permis de mesurer l’ampleur des capacités du système Persona : il réalise jusqu’à 269 types de vérifications possibles, il compare les selfies à des listes de surveillance, détecte les profils à risque et calcule un score de risque. On a également appris à cette occasion que Persona conservait les données des utilisateurs jusqu’à 3 ans. 

Après avoir supprimé l’accès au frontend et assuré qu’aucune donnée personnelle n’avait fuité, l’entreprise a expliqué qu’elle ne travaillait avec aucune agence fédérale états-unienne, et qu’aucun de ses clients n’exploitait la totalité des 269 types de vérifications. 

L’ombre de Peter Thiel

Ce frontend avait été découvert à l’occasion de la mise en place par Discord de son système de vérification de l’âge. La plateforme a depuis révoqué le sous-traitant, suite à une autre polémique : Persona est en effet financé par Peter Thiel, cofondateur de Palantir. Une entreprise dont les outils sont très populaires chez les forces de l’ordre comme l’ICE, qui fait la chasse aux immigrés en situation irrégulière.

Anthropic n’a pas ces états d’âme, et rappelle que Persona traite les données de vérification « selon nos instructions ». Ces informations, chiffrées en transit et au repos, n’en restent pas moins collectées et stockées par Persona. Anthropic peut y accéder, ainsi qu’aux dossiers de vérification si nécessaire pour examiner un appel, par exemple. Les données sont conservées et supprimées « conformément aux limites de conservation » établies par Anthropic et à la loi applicable.

L’entreprise précise aussi, et c’est important vu le contexte, que les données d’identité ne sont pas utilisées pour entraîner ses modèles IA, mais « uniquement pour confirmer votre identité et pour respecter nos obligations légales et de sécurité ». Ces informations ne sont partagées avec personne, sauf en cas de demande légale valide. Enfin, Anthropic affirme ne collecter que les données minimales requises pour vérifier l’identité.

L’opacité avec laquelle Anthropic demande la vérification de l’identité, ainsi que le choix de ce sous-traitant, ne manquent pas d’inquiéter certains. ChatGPT ou Gemini n’en sont pas encore là, même si le premier peut effectuer des vérifications d’âge. Quant au deuxième, son opérateur Google connait déjà beaucoup de ses utilisateurs. Mais Anthropic pourrait bien être précurseur.

La France lance JUNN, un socle national pour des jumeaux numériques de territoire

16 avril 2026 à 15:05
Si ce n'est toi, c'est donc ton frère
La France lance JUNN, un socle national pour des jumeaux numériques de territoire

L’IGN, le Cerema et Inria vont assurer la mise en route d’un projet visant à créer, d’ici trois ans, un socle technique adapté à la création d’un jumeau numérique national (JUNN) des territoires. Il doit permettre aux acteurs du public comme du privé de simuler l’évolution de ces territoires, notamment au regard du changement climatique, et de construire des outils décisionnels innovants.

Un consortium de 14 partenaires copiloté par l’IGN, le Cerema (pour Centre d’études et d’expertise sur les risques, l’environnement, la mobilité et l’aménagement) et Inria va s’attacher à développer un socle technique « commun et souverain » dédié à la création de jumeaux numériques de territoire. En pratique ?

Un socle pour relier les jumeaux numériques existants

Il s’agit d’assembler les différentes briques nécessaires à la création d’un service dans lequel il sera possible de reproduire les caractéristiques d’un territoire (une rue, une ville, les rives d’un cours d’eau…) pour ensuite tester des scénarios d’évolution, au sein de cette réplique virtuelle, à des fins d’aide à la décision.

« Un jumeau numérique de territoires peut par exemple simuler les conséquences d’une crue centennale sur un territoire, en tenant compte de l’évolution du climat. Il peut également simuler des scénarios d’aménagement et leurs conséquences sur le trafic routier », illustrent les porteurs de projet dans un dossier de presse.


Il existe déjà de nombreux projets de jumeau numérique de territoires en France, à l’échelle de métropoles (Rennes, Lille, Lyon, Angers, Brest, Aix-Marseille et d’autres), ou de zones spécifiques (l’estuaire de la Gironde), mais il manquait un cadre et un outillage permettant de faire communiquer les différents projets, et donc de mutualiser à la fois les données, les développements techniques et les initiatives.

C’est à cette ambition que veut répondre le projet JUNN, pour jumeau numérique national, dont le coup d’envoi officiel a été donné le 13 avril dernier, avec l’annonce d’un financement de 25 millions d’euros consenti dans le cadre du plan France 2030, sur un budget prévisionnel fixé à 40 millions d’euros.

L’initiative, dont le site dédié a été mis en ligne, associe donc 14 premiers partenaires au premier rang desquels les établissements publics spécialisés dans la gestion de la donnée. L’IGN apporte sa « maîtrise de la production et de la gouvernance des données pour décrire le territoire », tandis que Inria, Géodata Paris et GeometryFactory « fondent les briques scientifiques et technologiques des modèles 3D et temporels, des graphes de connaissances, de l’IA ou encore des interactions avancées ».

Le Cerema a quant à lui vocation à structurer les cas d’usage et les interfaces. Enfin, plusieurs acteurs privés sont partie prenante du projet, dont 1Spatial, éditeur de solutions de gestion de données géospatiales, qui aura la charge de l’intégration et de l’industrialisation de ce nouveau socle commun.

Une exploitation opérationnelle visée sous trois ans

Le site dédié ne donne pas d’information précise sur la structure technique du projet. On trouve cependant des éléments relatifs à la vision cible développée par les porteurs dans un document de présentation (PDF) préalable, daté de janvier 2025, qui donne une idée de l’architecture retenue.

Issu d’un document de préfiguration, ce schéma dessine la vision cible du projet

Le calendrier annoncé au lancement évoque quant à lui un objectif à trois ans. La première année doit permettre la mise en place des outils techniques, la production des premiers jeux de données 3D et la réalisation des premiers cas d’usage ou démonstrateurs. Les Alpes-Maritimes, la Charente-Maritime, la Gironde et l’Ille-et-Vilaine feront à ce titre l’objet de territoires pilotes.

Le socle tel qu’il était envisagé en 2025 couvrait un large périmètre fonctionnel

Les deux années suivantes doivent quant à elles permettre l’émergence ou la connexion d’applications destinées à des usages réels. Au terme de ces trois ans débutera la phase d’exploitation opérationnelle. C’est en principe de la réussite de cette dernière que dépendra l’avenir du jumeau numérique national, puisque le consortium JUNN est censé parvenir à définir « un modèle économique pérenne pour l’exploitation des ressources et des infrastructures technologiques développées ».

L’App Store et le Play Store ont toujours des problèmes avec les apps de deepfakes sexuels

16 avril 2026 à 14:30
Les boutiques d'apps à poil
L’App Store et le Play Store ont toujours des problèmes avec les apps de deepfakes sexuels

L’App Store d’Apple et le Play Store de Google hébergent des dizaines d’applications permettant de générer des nus synthétiques à partir d’images réelles. Suite à une enquête du Tech Transparent Project, les contrôleurs d’accès en ont supprimé quelques unes, mais d’autres sont toujours disponibles.

Les politiques d’Apple et de Google qui régissent leurs boutiques d’apps respectives sont très claires : l’App Store exclut les applications « offensantes, choquantes ou de mauvais goût », y compris celles qui proposent du contenu « explicitement sexuel ou pornographique ». Le Play Store interdit les apps qui prétendent « déshabiller les personnes ou [permettre] de voir à travers les vêtements ».

Résultats de recherche équivoques

Si c’est le cas, comment se fait-il alors que les boutiques continuent de distribuer ce genre d’applications ? Une nouvelle enquête du Tech Transparent Project (TTP) datée du 15 avril confirme la présence persistante de ces apps dans les rayons des magasins, malgré un premier rapport en janvier qui avait mis au jour plus de 100 d’entre elles. Apple et Google en avaient alors supprimé plusieurs dizaines.

Le TTP s’est cette fois penché sur les moteurs de recherche des boutiques, et a constaté qu’en saisissant des requêtes comme « nudify », « undress », « deepfake », « deepnude » ou encore « AI NSFW », il était toujours possible de tomber sur des applications permettant de créer des deepfakes dénudés. Au total, 46 applications ont été proposées par l’App Store, 49 du côté du Play Store. L’enquête s’est concentrée sur les 10 premières apps de chaque résultat de recherche.

L’app Best Body AI proposé par l’App Store après une recherche sur le mot « nudify » génère des deepfakes à caractère sexuel. Image : TTP

Les tests, réalisés à partir d’images de femmes générées par IA, montrent que 40 % des applications (18 sur l’App Store, 20 sur le Play Store), permettent de dénuder ou de déshabiller les sujets ou suggèrent clairement cette possibilité, parfois gratuitement. Le TTP s’est ensuite penché sur les suggestions de recherche automatique proposées par les boutiques : les termes suggérés par Apple et Google renvoyaient vers encore plus d’apps de deepfakes à caractère sexuel. Ce qui veut dire que les boutiques suggèrent elles-mêmes des résultats de recherche menant à ces applications.

Un exemple : en saisissant « AI NS » (pour « AI NSFW »), l’App Store suggère des termes de recherche équivoques, comme « image to video ai nsfw ». Toucher cette recommandation renvoie vers plusieurs applications de génération de nus.

Image : TTP

L’enquête indique que 31 apps sont autorisées pour les mineurs. En tout, les applications dénichées par le TTP via les moteurs de recherche des boutiques représentent 483 millions de téléchargements et elles ont réalisé plus de 122 millions de dollars de revenus, selon des chiffres d’AppMagic. Elles profiteraient donc directement à Apple et à Google, qui prélèvent une commission sur ces ventes. 

Les contrôleurs d’accès bénéficient aussi de la manne publicitaire : ces applications achètent des annonces pour apparaître en tête des résultats de recherche. Apple interdit en principe les contenus publicitaires qui font la promotion de thèmes pour adultes ou des contenus explicites. Pourtant, le premier résultat d’une recherche sur le mot « deepfake » renvoie vers un bandeau pour une application qui permet de générer des nus truqués à partir d’une photo d’une femme.

Même constat du côté du Play Store, malgré là encore l’interdiction faite aux contenus publicitaires de montrer des images ou des vidéos de scènes sexuelles explicites, de promouvoir des thèmes sexuels non consentis « qu’ils soient simulés ou réels », ou encore de montrer des contenus synthétiques « modifiés ou générés pour être sexuellement explicites ou contenant de la nudité ». Des applications de deepfakes sexuels continuent d’apparaitre dans les pubs de la boutique.

Les boutiques mobiles ne respectent pas leurs propres règles

Interpellé, Google a annoncé que la plupart des applications identifiées par l’enquête avaient été suspendues (7 ont été supprimées), et que le renforcement des règles sur le Play Store était en cours. Apple n’a pas publiquement répondu à TTP, mais a tout de même supprimé 15 apps litigieuses suite à la publication de l’enquête. Nos propres recherches sur l’App Store (sur un iPhone en région États-Unis en anglais, avec un VPN basé aux États-Unis) ne retournent aucun résultat sur plusieurs des termes testés par TTP comme « nudify », « deepnude » ou « AI NSFW ». En revanche, le moteur de recherche propose bien plusieurs applications avec le terme, plus générique, de « deepfake ».

Les conclusions de l’enquête sont sans appel. L’App Store et le Play Store ne respectent manifestement pas les règles édictées par Apple et Google : « les moteurs de recherche et la publicité mettent activement en avant ces applications », assène le TTP. Et les boutiques génèrent des revenus à partir de ces apps.

Même si les deux entreprises ont supprimé quelques apps, leur position demeure pour le moins ambiguë, comme on l’a encore vu avec Grok et X qui ont facilité la création et la diffusion d’images dénudées de jeunes filles et de femmes, et leur diffusion. Leurs applications respectives sont restées en ligne sur les boutiques mobiles, malgré le scandale et la pression réglementaire.

☕️ Présomption d’usage de contenus culturels dans l’IA : les tentatives d’influence de Google

16 avril 2026 à 14:00


Google est très mobilisé pour faire évoluer la proposition de loi sur l’intelligence artificielle adoptée au Sénat le 8 avril dernier. En l’état, le texte instaure surtout une présomption d’usage des contenus culturels par les constructeurs d’IA dès que des indices peuvent en être repérés dans les résultats.

Concrètement, cette présomption s’appliquerait dès qu’il est possible de créer des contenus « dans le style » d’un ou une autrice, ou dès que la machine recrache des éléments visiblement protégés, comme ces extraits de Harry Potter retrouvés dans les données d’entraînement des machines de Meta ou de Mistral.

D’après L’Informé, Google a tenté de pousser trois stratégies pour minimiser les effets du texte : l’une aurait consisté à « limiter l’effet du texte aux contenus culturels de qualité », c’est-à-dire ne réserver l’idée de présomption d’entraînement qu’aux œuvres présentes dans les catalogues d’organismes de gestion collective.

Illustration : Flock

Une autre cherchait à « clarifier » la manière dont la loi s’agençait « avec l’exception de fouille de données », ou « text and data mining » (TDM) de la directive de 2019 sur le droit d’auteur et les droits voisins dans le marché unique numérique.

Si elle est « alléguée par les fournisseurs d’IA comme fondement juridique à leurs pratiques de moissonnage de contenus protégés », écrivait le Sénat dans son rapport, il s’agit néanmoins d’un « détournement » de l’objectif initial du texte.

Une autre tentative a consisté à empêcher que le texte final ne s’applique aux litiges déjà ouverts lorsqu’il entrera en vigueur. Là encore, le Sénat a retoqué sa proposition.

Que les sociétés numériques tentent d’influer sur la rédaction des textes légaux fait partie intégrante du jeu de la régulation – on retrouve quelquefois très directement leurs traces, y compris au niveau européen.

Dans le présent cas, les propositions de Google ont échoué à l’étape sénatoriale. Le texte doit encore être débattu à l’Assemblée nationale.

Accusés de boycott de contenus politiques, les grands noms de la pub transigent avec la FTC

16 avril 2026 à 09:49
Breitbart et X aiment ce message
Accusés de boycott de contenus politiques, les grands noms de la pub transigent avec la FTC

L’autorité états-unienne de la concurrence (FTC) a négocié un accord avec les trois plus grandes agences de publicité au monde, pour contraindre ces dernières à ne plus coordonner l’exclusion de certains médias ou plateformes au nom de la désinformation. La FTC, qui dans son action évoque spécifiquement le cas du média d’extrême-droite Breitbart, prend le contrepied de la justice texane, qui a refusé de donner suite à la plainte formulée par X sur le même sujet.

Les annonceurs sont libres de choisir la façon dont ils flèchent leurs achats média, mais les agences publicitaires auxquels ils confient leurs budgets n’ont plus le droit, aux États-Unis, de s’entendre pour écarter certains journaux ou certaines plateformes au nom de la désinformation. WPP, le français Publicis et Dentsu, trois des plus grandes agences au monde, viennent de passer un accord en ce sens avec la FTC, l’autorité états-unienne de la concurrence.

Annoncé par voie de communiqué, cet accord fait suite au dépôt, mercredi 15 avril, d’une plainte (PDF) de la FTC dénonçant la façon dont ces agences se seraient alliées pour démonétiser certains sites pour des raisons politiques, en invoquant l’argument de la désinformation. Plutôt que de défendre leur cause en justice, les trois agences ont donc immédiatement accepté de passer un accord avec la FTC, sous la forme d’un consent decree (décret de consentement) qui prendra force de loi une fois ratifié par un juge.

Une alliance contre les médias conservateurs selon la FTC

Andrew N. Ferguson, président de la FTC, se réjouit de cet accord qui, d’après lui, met un terme à la façon dont les grands noms de la pub « complotent » au nom de la brand safety. Cette « défense de marque » représente pour mémoire l’idée selon laquelle une agence d’achat média cherche à qualifier les éditeurs chez qui elle prend des espaces, pour éviter que les publicités de ses clients se retrouvent à côté de contenus jugés inappropriés (terrorisme, pornographie, escroqueries…).

La brand safety peut aussi dans certains cas prendre des accents politiques : en France, le phénomène s’incarne par exemple au travers du chapitre local du collectif Sleeping Giants, qui interpelle publiquement les annonceurs accusés de financer des discours de haine, notamment parce qu’ils achètent des espaces publicitaires sur Cnews.

C’est bien ce volet politique qui motive l’action de la FTC. « Cette collusion illégale a non seulement nui à notre marché, mais a également faussé le marché des idées en discriminant les discours et les idées qui ne respectaient pas un seuil illégalement convenu », écrit ainsi Andrew Ferguson. Nommé à la tête du gendarme de la concurrence fin 2024 par Donald Trump, il avait explicitement annoncé qu’il s’en prendrait aux acteurs suspectés de pratiques anticoncurrentielles en vue d’interférer avec la liberté d’expression.

La plainte illustre les accusations formulées par la FTC avec le cas précis du média d’extrême-droite Breitbart, qui aurait fait l’objet d’une volonté explicite de démonétisation orchestrée par la Global Alliance for Responsible Media (GARM, ou alliance mondiale pour des médias responsables), une émanation de la Fédération mondiale des annonceurs (WFA), créée dans la foulée de l’attentat de Christchurch, en Nouvelle-Zélande, pour travailler sur les questions de brand safety.

La plainte rapporte l’incident lié à Breitbart de la façon suivante :

« En novembre 2021, le responsable de l’initiative GARM avait suggéré d’inclure les contenus « délibérément trompeurs » dans la catégorie « désinformation afin de priver spécifiquement le site conservateur Breitbart de revenus publicitaires. Il avait expliqué à un exécutif de GroupM/WPP : "L’exemple de la manière dont Breitbart peut utiliser les faits de manière sélective pour induire en erreur était un exemple donné" pour illustrer la nécessité d’amender la définition par le GARM du terme "désinformation."  »

Elle ajoute qu’en parallèle de cette nouvelle formulation, « des éditeurs conservateurs identifiés comme publiant ce que le seuil de brand safety définissait comme de la « désinformation » ont subi des baisses spectaculaires de leurs ventes d’espaces publicitaires numériques ».

X également concerné au premier chef

L’ex-Twitter n’est mentionné qu’à la marge de la plainte de la FTC. Le réseau social d’Elon Musk a pourtant lui aussi maille à partir avec la GARM. En août 2024, X a ainsi déposé plainte contre les géants de la publicité pour pratiques anticoncurrentielles. La plateforme estimait alors que l’alliance des agences avait agi en sous-main pour assécher ses recettes publicitaires.

Beaucoup d’annonceurs se sont effectivement détournés de X suite à la reprise du réseau social par Elon Musk, en invoquant la prolifération de contenus inappropriés, mais les agences publicitaires ont toujours nié s’être accordées pour enclencher ou favoriser un tel mouvement. La GARM a tout de même annoncé sa dissolution trois jours après le dépôt de la plainte de X, affirmant n’être qu’une petite association aux moyens bien insuffisants pour faire face à une telle procédure.

L’affaire a tout de même suivi son cours en justice, la WFA ayant elle aussi été poursuivie aux côtés de la défunte GFAM, avec une issue qui s’est finalement révélée défavorable à X. Un rapport de la Commission judiciaire de la Chambre des représentants des États-Unis (House Judiciary Committee) avait pourtant lui aussi dénoncé l’influence de la GARM sur les revenus publicitaires de Twitter en juin 2025.

Dans son jugement rendu le 26 mars 2026 (PDF), la juge Jane Boyle a en effet statué que X n’avait pas apporté la preuve d’un quelconque préjudice pouvant être imputé à une action concertée des agences de publicité. Dit autrement, si les annonceurs se sont détournés de X, c’est de leur propre chef, a estimé la juge.

Toujours très prolixe sur son réseau social, Elon Musk n’a pour l’instant pas commenté l’annonce de cet accord qui lui permet finalement d’obtenir gain de cause, même si c’est de façon indirecte.

La FTC indique que Omnicom et IPG, les deux grandes agences états-uniennes d’achat média engagées dans un processus de fusion, devraient elle aussi signer cet accord. En juin 2025, l’autorité avait explicitement (PDF) conditionné son accord au projet de fusion à un assouplissement des règles en matière de brand safety.

UK : Telegram ne modère pas les comptes d’un vaste marché noir, pourtant sanctionné

16 avril 2026 à 09:01
Qui moderera le modérateur ?
UK : Telegram ne modère pas les comptes d’un vaste marché noir, pourtant sanctionné

Un vaste réseau d’escroquerie notamment financé via des cryptomonnaies continue de sévir sur Telegram, quand bien même le gouvernement britannique l’a sanctionné mi-mars.

Depuis plus de trois ans, un vaste marché noir nommé Xinbi Guarantee prospère sur Telegram. L’essentiel des services qui y sont vendus ? Du blanchiment d’argent, des escroqueries aux cryptoactifs, des armes potentiellement utilisées pour les opérations de trafic d’êtres humains de ces mêmes escrocs, de la prostitution de mineurs…

Connu depuis plusieurs années des experts en cybersécurité, sanctionné en mars par le gouvernement britannique, ce marché noir continue de prospérer sur l’application sociale et de messagerie de Pavel Durov. D’après Wired, depuis sa création, Xinbi Guarantee a permis de réaliser pour 21 milliards de dollars de transactions en langues chinoises. Depuis sa condamnation par le Royaume-Uni, il a notamment facilité 505 millions de dollars d’échanges. Pour autant, Telegram n’en modère pas les comptes principaux.

Sanctions britanniques

Que Telegram héberge des comptes problématiques n’est pas une nouveauté : des sociétés comme le spécialiste russe de la cybersécurité Kaspersky publient même des guides pour permettre aux internautes de rester en sécurité sur la plateforme, soulignant qu’elle est devenue un outil de choix pour les adeptes du phishing ou d’autres types de cyberdélinquances.

Dans le cas de Xinbi Guarantee, cela dit, l’ampleur du réseau et des transactions qu’il permet d’opérer ont poussé le ministère des Affaires étrangères britannique à sévir mi-mars. Dans un communiqué, le gouvernement expliquait s’attaquer directement à la place de marché recourant aux cryptoactifs pour lutter contre les trafics d’êtres humains, mais aussi protéger les victimes constatées et potentielles contre la revente de leurs données.

Cette décision était prise dans le cadre d’une action plus large contre les propriétaires et opérateurs d’un vaste centre d’arnaques nommé #8 Park et installé au Cambodge. Depuis plusieurs années, les Nations Unies et les forces de police de multiples États constatent l’augmentation des cas de phishing, d’arnaques sentimentales et d’autres types d’escroqueries opérées depuis des centres illégaux d’Asie du Sud-Est, par des personnes elles-mêmes privées de leurs droits.

Dans de précédentes tentatives de mettre fin à l’existence de Xinbi Guarantee, la place de marché dédiée à l’escroquerie s’est illustrée par sa capacité à déployer ses propres outils, et notamment son propre système de paiement, XinbiPay.

Dans le cas présent, le Royaume-Uni annonçait concrètement isoler Xinbi Guarantee et ses outils de « l’écosystème crypto légitime, perturbant nettement ses activités en affectant sa capacité à effectuer des transactions. BYEX, une autre plateforme de cryptomonnaies qui avait été utilisée pour blanchir les profits issus d’escroqueries, a fermé ses portes à la suite des sanctions britanniques l’année dernière. »

Telegram comme infrastructure d’échanges

Pour autant, une large part des échanges passe par une plateforme grand public dont les conditions d’utilisation devraient théoriquement justifier la modération. La politique de Telegram interdit en effet de recourir à ses services pour « spammer ou escroquer les utilisateurs » et « réaliser des activités reconnues illégales dans la majorité des pays. Ceci inclut les agressions sexuelles sur mineurs, la vente ou l’offre de biens et de services illégaux, etc. »

Trois semaines après la décision britannique, la plateforme n’a cela dit toujours pas bloqué les principaux comptes gérant le fonctionnement de Xinbi Guarantee. « Ça me dépasse. Il n’y a littéralement aucune entreprise légitime au monde qui accueille ce niveau d’activité criminelle et qui l’affiche si ouvertement », explique à Wired le chercheur en cybersécurité Gary Warner.

Cette décision est d’autant plus difficile à comprendre que la plateforme a suspendu Xinbi Guarantee quelque temps au printemps 2025. En juin, après l’avoir laissé se déployer à nouveau sur ses outils, l’entreprise a justifié son choix de laisser la place de marché – et la multitude d’autres groupes qui orchestrent eux aussi de vastes réseaux d’escroqueries et de trafics – au motif qu’ils permettraient aux citoyens chinois « de trouver des circuits alternatifs pour déplacer des fonds à l’international », une description qui passe sous silence l’ampleur et la gravité des activités échangées via ces hubs d’escroquerie.

Ce refus d’agir résonne par ailleurs avec l’absence d’actions de Telegram sur d’autres thématiques théoriquement interdites par ses propres règles d’utilisation. Début avril, l’ONG AI Forensics pointait la persistance de vastes groupes de diffusion d’images non consenties à caractère sexuel sur le réseau.

Le rapport appelait la Commission européenne à qualifier la plateforme de « Très grande plateforme en ligne » au sens du règlement sur les services numériques (DSA), pour pouvoir le soumettre à de plus hautes exigences de gestion des risques. Le lendemain, Pavel Durov répondait en recourant à des ressorts typiquement complotistes et présentait la régulation européenne comme une forme de censure.

Fuite chez Rockstar : la poule aux œufs d’or de GTA Online

16 avril 2026 à 08:08
Le braco tourne à l'avantage de Take-Two
Fuite chez Rockstar : la poule aux œufs d’or de GTA Online

Take-Two peut remercier les hackers. Des données confidentielles du studio Rockstar, filiale de l’éditeur, ont fuité suite à une cyberattaque à quelques mois du lancement de GTA 6. Ces informations rendues publiques ont donné un coup d’accélérateur à l’action du groupe.

Rockstar, qui met actuellement la dernière touche à GTA 6 avant son lancement très attendu le 19 novembre, a été victime d’une fuite de données confirmée le 11 avril par l’entreprise. Le groupe de pirates ShinyHunters a obtenu l’accès à des serveurs opérés par Snowflake, via une faille du service de détection d’anomalies dans le cloud Anodot. Les hackers en ont profité pour mettre la main sur un maximum de données confidentielles.

13 ans plus tard, GTA Online rapporte toujours autant

Les pirates ont laissé jusqu’au 14 avril à Rockstar pour payer une rançon, avant que les informations en question soient mises en ligne et accessibles au public. Le studio a reconnu qu’une « quantité limitée d’informations internes non sensibles » avaient été « consultées ». Un incident qui n’a « aucun impact sur notre organisation ni sur nos joueurs ». 

Manifestement, aucune rançon n’a été versée, puisque ces données ont été livrées en pâture sur le site de ShinyHunters. Certains pouvaient peut-être espérer des informations juteuses et inédites sur le prochain volet de GTA, mais comme les hackers l’avaient annoncé, il s’agit surtout d’analyses utilisées pour surveiller les services en ligne des jeux Rockstar (Grand Theft Auto Online et Red Dead Online) : indicateurs de revenus et de ventes, éléments de suivi du comportement des joueurs, infos sur l’économie des jeux, tests de modèles anti-triche.

Rien qui ne vende du rêve, mais des informations tout de même très intéressantes du point de vue financier. Kotaku a compilé les principales révélations de ces fuites et surprise : les jeux Rockstar rapportent beaucoup d’argent ! On apprend ainsi que GTA Online a engrangé près de 500 millions de dollars entre septembre 2025 et avril 2026, soit en moyenne 9,6 millions de dollars par semaine. Pas si mal pour un jeu sorti en 2013… Le studio apporte régulièrement du contenu frais pour occuper les joueurs (et leur vendre toutes sortes de babioles).

Comme tous les jeux service, la bonne fortune de GTA Online repose sur une poignée de joueurs fortunés : 4 % seulement de l’ensemble des joueurs dépensent de l’argent dans le jeu.

Take-Two ramasse la mise

Red Dead Online fait figure de tout petit Poucet à côté, avec 26,4 millions de dollars sur la même période (507 000 dollars par semaine en moyenne). La version en ligne de Red Dead Redemption bénéficie de beaucoup moins d’attention de la part de Rockstar qui se contente du service minimum, principalement de la maintenance technique.

Autre enseignement : les joueurs PS5 sont surreprésentés dans GTA Online. On en dénombre environ 3,4 millions d’actifs chaque semaine, qui rapportent 4,5 millions de dollars. Derrière, ce sont les joueurs Xbox Series X qui dépensent le plus (1,9 million), même s’ils sont moins nombreux (1,1 million) que les joueurs PS4 (1,9 million). Ces derniers dépensent un peu moins d’1 million par semaine. La Xbox One suit avec 1 million de joueurs pour 920 000 dollars. Les quelque 900 000 joueurs PC sont bons derniers avec 260 000 dollars seulement. On comprend mieux pourquoi Take-Two, l’éditeur de Rockstar, n’est pas pressé d’annoncer une version PC de GTA 6.

Toutes ces informations n’auraient jamais dû fuiter évidemment, mais Take-Two ne s’en plaindra probablement pas : le cours de l’action du groupe a en effet grimpé de près de 5 % suite à la divulgation de ces données… Les investisseurs ont sans doute apprécié à leur juste valeur la bonne santé de GTA Online et parié que la (probable) déclinaison en ligne de GTA 6 s’annonçait tout aussi fructueuse.

Recall de Windows 11 encore épinglé pour ses failles de sécurité

16 avril 2026 à 07:13
A feature, not a bug
Recall de Windows 11 encore épinglé pour ses failles de sécurité

Microsoft pensait avoir réglé tous les problèmes de Recall, mais peut-être pas. Annoncée en juin 2024, la fonction IA de Windows 11 a subi pratiquement un an de retard pour boucher de sérieux trous de sécurité. Elle est de nouveau sous le feu des projecteurs suite à la découverte d’un chercheur.

Recall, alias « Retrouver », est une fonction des PC Copilot+ qui permet de remettre la main sur n’importe quel document, page web, application ou tout autre information, en piochant dans l’historique de l’utilisateur. Elle réalise des captures d’écran à intervalles réguliers (« quelques secondes », indique Microsoft). Avec l’aide de modèles IA, elle analyse ensuite les images pour en extraire toutes les données exploitables.

Un édifice sécuritaire aux pieds d’argile

La fonction devait être lancée en 2024, mais très rapidement Recall a été la cible de critiques de la part des défenseurs de la vie privée, mais aussi des chercheurs en sécurité. Microsoft a dû remettre l’ouvrage sur le métier et repartir de zéro. Le chantier a mis près d’un an pour être achevé.

Microsoft a profondément revu l’architecture de sécurité de la fonction. Les données sont désormais stockées dans une enclave sécurisée, isolée du reste du système, et chiffrées de bout en bout. L’accès est conditionné par une authentification Windows Hello, censée empêcher tout logiciel malveillant de profiter de la session de l’utilisateur pour accéder aux informations. 

Recall n’est par ailleurs plus activé par défaut, et exclut de sa base de données des informations sensibles comme les identifiants bancaires. Tout n’est pas parfait pour autant. Alexander Hagenah, chercheur en sécurité, avait démontré avec son outil – baptisé… TotalRecall, évidemment – qu’il était très simple de récupérer des informations sur n’importe quel PC avec Recall première génération.

Il récidive avec TotalRecall Reloaded, disponible sur GitHub : cette nouvelle version montre qu’il est possible d’injecter du code (une bibliothèque DLL) dans AIXHost.exe, le processus Windows chargé d’afficher la chronologie de Recall. Le programme est en mesure d’accéder aux données déchiffrées (captures d’écran, texte extrait par OCR, métadonnées) au moment où elles sont manipulées par le système.

L’attaque ne nécessite pas de droits d’administrateur, ni d’exploitation complexe. Il suffit d’un simple logiciel pour intercepter ces informations, à condition toutefois qu’une authentification Windows Hello ait eu lieu au préalable (empreinte digitale, scan facial, code de déverrouillage). Pour le chercheur, le système de protection mis en place par Microsoft est « réel », mais il s’arrête trop tôt.

TotalRecall Reloaded est également en mesure de récupérer la dernière capture d’écran réalisée par Recall, cette fois sans passer par Windows Hello, ou même d’effacer complètement l’historique.

« Lorsque vous utilisez Recall normalement, TotalRecall Reloaded laisse discrètement la porte ouverte derrière vous, puis extrait tout ce que la fonction a enregistré. C’est précisément ce type de scénario que l’architecture de Microsoft est censée empêcher. »

Le problème ne vient pas de l’enclave, qualifiée de « solide », ni du modèle d’authentification. Pour Alexander Hagenah, « ce n’est pas le chiffrement, ni l’enclave, ni l’authentification qui posent problème, mais le fait que les données déchiffrées soient transmises à un processus non protégé ». Le souci, c’est que le système transmet les données de Recall au processus AIXHost.exe qui ne bénéficie pas du même niveau de sécurité.

Il n’y a pas de vulnérabilité, selon Microsoft

Alexander Hagenah a alerté Microsoft début mars, mais l’éditeur a fermé le dossier en expliquant qu’il ne s’agissait pas d’une vulnérabilité. « Après un examen approfondi, nous avons déterminé que les modes d’accès observés sont conformes aux protections prévues et aux contrôles existants », détaille l’éditeur à The Verge. Ces modes « ne constituent pas un contournement d’une barrière de sécurité ni un accès non autorisé aux données. » 

Microsoft ajoute que la période d’autorisation pour accéder aux données de Recall est limitée dans le temps et que le système intègre des protections contre les requêtes répétées. Mais pour le chercheur, le délai d’expiration est neutralisé, et surtout « [le] principal problème reste le fait qu’ils affirment, dans leur annonce officielle, que l’enclave empêche un “malware latent de se greffer” — ce qui n’est clairement pas le cas. »

Pour Microsoft, il s’agit d’un comportement normal de Windows : un logiciel avec les droits utilisateur, ce qui est le cas après une authentification, peut injecter du code dans un autre logiciel. C’est une souplesse qui peut se justifier pour des besoins légitimes, mais cela ouvre aussi la porte à des abus potentiels. Et la nature même de Recall, qui collecte un grand nombre de données, en fait une cible particulièrement attractive.

Recall pourrait cependant faire l’objet de nouveaux et profonds changements. La fonction, « dans sa forme actuelle, a échoué », auraient affirmé des sources internes en février dernier. Microsoft n’envisagerait pas un abandon, mais une évolution du concept.

Le fabricant de chaussures Allbirds change de pied et devient… un fournisseur d’IA

16 avril 2026 à 06:26
Coup de pompe
Le fabricant de chaussures Allbirds change de pied et devient… un fournisseur d’IA

Le 1er avril étant passé, on peut exclure la mauvaise blague. L’entreprise californienne Allbirds a décidé de changer de cœur de métier en devenant fournisseur d’infrastructures IA. De prime abord, rien de très surprenant au vu de la ruée vers l’or actuelle dans ce secteur. Sauf que Allbirds était depuis sa création en 2015 un fabricant de… chaussures.

L’entreprise est ainsi connue pour ses baskets Wool Runner, son design minimaliste et un positionnement écolo. Son introduction en Bourse de 2021 lui a permis d’atteindre des sommets, avec une capitalisation atteignant 4 milliards de dollars. La chute a été brutale et rapide, non seulement pour l’action, qui vivote depuis des années sous le seuil des 10 dollars, mais aussi pour les ventes qui ont commencé à reculer dès 2022.

Les chaussures mènent vraiment à tout

Ajoutez à cela une mutinerie des actionnaires en mai 2023 contre la stratégie de diversification de l’entreprise. La plainte n’a débouché sur rien de concret (elle a finalement été rejetée en février 2026), mais la confiance était irrémédiablement brisée. Tout comme l’activité du fabricant, qui à partir de 2023 a commencé à fermer des magasins. Il ne restait plus que 4 boutiques Allbirds aux États-Unis et au Royaume-Uni fin février.

À la fin du mois dernier, l’entreprise a cédé ses actifs à American Exchange Group, une société spécialisée dans les accessoires et les licences de marque, pour la modique somme de 39 millions de dollars. Très loin des sommets boursiers d’il y a quelques années… 

La coquille vide qu’est devenue Allbirds a donc décidé un pivot radical : passer des chaussures à la fourniture d’infrastructures de calcul pour l’IA ! La société, qui au passage change de nom pour devenir NewBird AI, va proposer des services de types « GPU-as-a-Service », autrement dit de la location de puissance de calcul histoire de profiter de la demande explosive actuelle.

L’action Allbirds devient un memestock

Rien à voir avec des baskets, donc. Et au passage, l’entreprise tourne le dos à ses engagements écolo. Les actionnaires vont en effet devoir se prononcer sur la suppression de toute référence à un objectif d’intérêt public en matière de protection de l’environnement… Une orientation effectivement difficile à concilier avec l’exploitation de centres de données.

Un accord avec un investisseur institutionnel (non cité) a été signé pour une ligne de financement de 50 millions de dollars, avec une finalisation attendue pour le deuxième trimestre. Au vu des prix actuels des serveurs et de la demande exponentielle en GPU, c’est presque de l’argent de poche qui ne permettra pas à NewBird d’aller très loin.

La société peut toutefois se réjouir d’avoir au moins ponctuellement trouvé de l’argent frais sur les marchés : l’annonce a en effet donné un sérieux coup d’accélérateur à l’action, qui a pris plus de 700 % à Wall Street ! Un vent spéculatif caractéristique de l’engouement autour de l’IA mais qui ne repose sur rien de tangible, faisant entrer l’action Allbirds dans la famille des memestocks (« actions mèmes »), l’équivalent boursier des memecoins du monde crypto.

L’embellie du cours risque donc de n’être que passagère, cette annonce ressemblant surtout à un coup pour grappiller l’argent fou qui circule dans l’industrie de l’IA. Dans ce domaine, Allbirds adapte à sa sauce la formule des entreprises de minage de bitcoins voulant surfer sur la hype IA et qui convertissent leurs infrastructures pour entraîner des modèles. Mais n’est-ce pas courir à sa perte ?

☕️ La vidéo virale du paiement sur iPhone verrouillé ? Une faille de 2021 quasi inexploitable

16 avril 2026 à 06:11


Avec un million de vues en moins de dix heures, et déjà des milliers de partages et d’extraits sur les réseaux sociaux, la dernière vidéo de la chaîne scientifique Veritasium (20,6 millions d’abonnés) est partie pour faire un véritable carton. Il faut dire que son titre est efficace : « Pouvez-vous voler 10 000 dollars à partir d’un iPhone verrouillé ? ».

Pour faire bonne mesure, Veritasium s’est adjoint les services d’une autre vedette de YouTube, le vidéaste tech Marques Brownlee (20,9 millions d’abonnés). C’est l’iPhone personnel de ce dernier qui sert de cobaye pour cette vidéo de 26 minutes pendant laquelle Verisatium illustre, puis explique, comment il est possible, dans un environnement très contrôlé, de forcer un paiement à partir d’un iPhone verrouillé.

L’opération est réalisée deux fois, avec des paiements de respectivement 5 et 10 000 dollars, qui sont effectivement validés avec le petit signal sonore caractéristique des transactions sans contact sur iPhone. Outre sa production haut de gamme, la vidéo est extrêmement didactique : elle explique en effet dans le détail comment le hack a pu être réalisé.

Et pour cause : Veritasium met en scène ici une faille de sécurité découverte en 2021 et largement documentée depuis. Portée au crédit de chercheurs des universités britanniques de Birmingham et du Surrey, elle exploite une vulnérabilité qui affecte Apple Pay quand une carte Visa est configurée en mode Express Transit, c’est-à-dire la validation automatique de la transaction pour passer les portiques d’un transport en commun, telle qu’elle est déployée par exemple, dans le métro londonien.


L’attaque, de type man in the middle, consiste à faire croire à l’iPhone de la victime que ce dernier communique avec un portique de contrôle, pour faire disparaître l’étape de la validation du paiement. Pour ce faire, il faut être équipé d’un iPhone avec une carte Visa en mode Express Transit et enregistrée dans le Wallet, d’un Proxmark utilisé comme émulateur de lecteur, d’un smartphone Android équipé d’une puce NFC. Il faut enfin que l’iPhone, qui peut effectivement rester verrouillé, soit au contact d’un terminal de paiement NFC, lui-même connecté à un ordinateur chargé de faire tourner le script qui génère le code nécessaire à la manœuvre.

Bref, des images impressionnantes et une vulnérabilité avérée, mais une mise en œuvre particulièrement complexe, qui rend le scénario d’une exploitation en conditions réelles assez peu plausible. « Il s’agit d’un problème avec le système Visa, mais Visa ne pense pas que ce type de fraude puisse avoir lieu dans le monde réel, étant donné les multiples couches de sécurité en place. Dans le cas peu probable où un paiement non autorisé aurait lieu, Visa a clairement indiqué que les porteurs de cartes seraient protégés », commentait à ce sujet Apple en 2021. Visa et Apple maintiennent ce même discours en 2026 en réponse à Veritasium.

Rappelons que les consommateurs victimes d’une fraude au paiement sans contact ont jusqu’à 13 mois après le débit des sommes pour demander à leur banque le remboursement de ces dernières, quel que soit le prestataire de carte bancaire impliqué.

❌