Vue normale

Reçu — 17 avril 2026 Actualités numériques

☕️ Google : 1,6 milliard de publicités frauduleuses supprimées dans l’UE avec Gemini

17 avril 2026 à 14:12


Google ne cherche pas seulement à intégrer Gemini partout où c’est possible dans ses applications et services destinés au grand public. L’IA est également à pied d’œuvre dans les outils internes, comme celui qui fait la chasse aux mauvaises publicités.

L’an dernier, l’entreprise a bloqué (PDF) ou supprimé 8,3 milliards de publicités (dont 1,6 milliard dans l’Union européenne), un record : le nombre de suppressions s’était établi à 5,1 milliards en 2024. Google a également suspendu 24,9 millions de comptes (4 millions associés à des escroqueries) ; 2 millions de comptes ont été suspendus dans l’UE. 

Illustration : Flock

La principale raison pour laquelle les publicités sont supprimées en Europe est « l’abus du réseau publicitaire ». Google exclut toute annonce liée à des tentatives de manipulation ou de contournement des systèmes de vérification : les contenus concernant des logiciels malveillants, des sites infectés ou des programmes jugés trompeurs ou nuisibles sont interdits. Tout comme les pratiques visant à obtenir un avantage déloyal, à masquer la véritable nature d’une annonce ou à contourner les règles publicitaires.

Que vient faire Gemini là-dedans ? L’IA générative explique pourquoi le nombre de comptes suspendus est bien moins élevé en 2025 que l’année précédente (39,2 millions). Google affirme que Gemini peut détecter et bloquer plus tôt les publicités enfreignant ses règles en analysant des « milliards de signaux » (ancienneté des comptes, indices comportementaux, schémas de campagne), précise Keerat Sharma, directeur général confidentialité et sécurité des publicités.

Les derniers modèles Gemini comprennent « mieux » les intentions, contrairement aux précédents systèmes basés sur des mots-clés. L’IA serait donc capable de distinguer plus aisément une offre crédible d’une escroquerie, permettant de réduire les « suspensions injustifiées » d’annonceurs de 80 %.

Si les équipes chargées de la modération publicitaire utilisent depuis longtemps l’intelligence artificielle pour trier le bon grain de l’ivraie, les outils optimisés par Gemini ont permis d’intercepter 99 % des annonces enfreignant les règles « avant même qu’elles ne soient diffusées ». 

Les acteurs malveillants utilisent l’IA générative pour créer des publicités trompeuses. « À la fin de l’année dernière, la majorité des annonces responsives créées dans Google Ads étaient examinées instantanément, et les contenus préjudiciables étaient bloqués dès leur soumission », indique le responsable, avant d’annoncer que cette fonction allait être étendue à d’autres formats cette année. 

Le géant de la recherche en ligne veut donner la priorité à la suppression des contenus préjudiciables, et « [aider] les entreprises honnêtes à maintenir leurs publicités en ligne ». L’IA et Gemini ne font pas tout, c’est pourquoi Google a aussi en parallèle un programme de vérification des annonceurs chargé de la validation de l’identité des annonceurs afin de bloquer les acteurs malveillants avant diffusion de leurs publicités.

☕️ Google : 1,6 milliard de publicités frauduleuses supprimées dans l’UE avec Gemini

17 avril 2026 à 14:12


Google ne cherche pas seulement à intégrer Gemini partout où c’est possible dans ses applications et services destinés au grand public. L’IA est également à pied d’œuvre dans les outils internes, comme celui qui fait la chasse aux mauvaises publicités.

L’an dernier, l’entreprise a bloqué (PDF) ou supprimé 8,3 milliards de publicités (dont 1,6 milliard dans l’Union européenne), un record : le nombre de suppressions s’était établi à 5,1 milliards en 2024. Google a également suspendu 24,9 millions de comptes (4 millions associés à des escroqueries) ; 2 millions de comptes ont été suspendus dans l’UE. 

Illustration : Flock

La principale raison pour laquelle les publicités sont supprimées en Europe est « l’abus du réseau publicitaire ». Google exclut toute annonce liée à des tentatives de manipulation ou de contournement des systèmes de vérification : les contenus concernant des logiciels malveillants, des sites infectés ou des programmes jugés trompeurs ou nuisibles sont interdits. Tout comme les pratiques visant à obtenir un avantage déloyal, à masquer la véritable nature d’une annonce ou à contourner les règles publicitaires.

Que vient faire Gemini là-dedans ? L’IA générative explique pourquoi le nombre de comptes suspendus est bien moins élevé en 2025 que l’année précédente (39,2 millions). Google affirme que Gemini peut détecter et bloquer plus tôt les publicités enfreignant ses règles en analysant des « milliards de signaux » (ancienneté des comptes, indices comportementaux, schémas de campagne), précise Keerat Sharma, directeur général confidentialité et sécurité des publicités.

Les derniers modèles Gemini comprennent « mieux » les intentions, contrairement aux précédents systèmes basés sur des mots-clés. L’IA serait donc capable de distinguer plus aisément une offre crédible d’une escroquerie, permettant de réduire les « suspensions injustifiées » d’annonceurs de 80 %.

Si les équipes chargées de la modération publicitaire utilisent depuis longtemps l’intelligence artificielle pour trier le bon grain de l’ivraie, les outils optimisés par Gemini ont permis d’intercepter 99 % des annonces enfreignant les règles « avant même qu’elles ne soient diffusées ». 

Les acteurs malveillants utilisent l’IA générative pour créer des publicités trompeuses. « À la fin de l’année dernière, la majorité des annonces responsives créées dans Google Ads étaient examinées instantanément, et les contenus préjudiciables étaient bloqués dès leur soumission », indique le responsable, avant d’annoncer que cette fonction allait être étendue à d’autres formats cette année. 

Le géant de la recherche en ligne veut donner la priorité à la suppression des contenus préjudiciables, et « [aider] les entreprises honnêtes à maintenir leurs publicités en ligne ». L’IA et Gemini ne font pas tout, c’est pourquoi Google a aussi en parallèle un programme de vérification des annonceurs chargé de la validation de l’identité des annonceurs afin de bloquer les acteurs malveillants avant diffusion de leurs publicités.

La mise à jour de Codex pose les bases de la « superapp » d’OpenAI

17 avril 2026 à 10:01
Une app à tout faire peut-elle faire tout bien ?
La mise à jour de Codex pose les bases de la « superapp » d’OpenAI

Codex, l’application dédiée au code d’OpenAI, est la fondation de la « superapp » sur laquelle l’entreprise planche depuis plusieurs mois. Un premier pas qui se destine surtout aux développeurs, cible principale du logiciel. Mais on entrevoit déjà les usages grand public.

Codex en a fait du chemin, depuis ses débuts en février sur macOS (un mois plus tard, une version Windows faisait son apparition). L’application d’OpenAI permet aux développeurs d’utiliser l’agent IA spécialisé dans la programmation dans une interface dédiée (il se décline aussi en version CLI).

Déployez les agents

Ce logiciel phare du vibe-coding — n’oublions pas Claude Code — permet de prototyper rapidement une application (voire de la développer complètement) en laissant le plus gros du travail à l’agent Codex. Mais l’ambition d’OpenAI va bien plus loin : le client Codex n’est autre que la brique fondatrice de la fameuse « superapp » censée répondre à l’ensemble des requêtes des utilisateurs, qu’il s’agisse du grand public, des développeurs ou des professionnels.

« Nous procédons en réalité de façon un peu détournée », a révélé Thibault Sottiaux, responsable de Codex, à ArsTechnica, « nous construisons la superapp au grand jour, en la faisant évoluer à partir de Codex ». La grosse mise à jour livrée hier par l’entreprise le confirme.

On verra si cette stratégie « attrape-tout » ne reviendra pas à créer un véritable monstre ingérable. En attendant, OpenAI démultiplie les capacités de Codex, à commencer par la possibilité d’utiliser n’importe quelle app présente dans le Mac. Plusieurs agents peuvent se déployer et travailler en tâche de fond, sans interférer sur ce que fait l’utilisateur, promet l’entreprise.

Quand Codex s’embête, il lance une partie de Tic Tac Toe.

Codex étant d’abord et avant tout un outil pour les développeurs, cette nouveauté est présentée comme un moyen pour eux de tester leurs apps ou de multiplier les itérations. Le logiciel intègre également son propre navigateur web (ce qui est peut-être le premier pas vers la disparition d’Atlas, le propre navigateur d’OpenAI). 

Le navigateur intégré de Codex.

L’utilisateur peut commenter des éléments de la page web pour fournir des instructions précises à Codex. À terme, OpenAI a l’intention de permettre à Codex de prendre le contrôle complet du navigateur embarqué, au-delà des webapps tournant sur le serveur en local. Avec l’aide du modèle gpt-image-1.5, le nouveau Codex sait aussi générer des visuels d’interface, pour des maquettes ou des jeux.

Le générateur d’images de Codex.

Plus de 90 nouveaux modules d’extension s’ajoutent à la bibliothèque actuelle, qui permettent une intégration collée-serrée entre Codex et de nombreux services et outils comme Slack, Notion, GitLab, Jira, CodeRabbit… L’idée est de connecter Codex à l’environnement de travail et donc d’en faire une passerelle indispensable entre l’utilisateur et son environnement numérique.

Un intermédiaire nommé Codex

Sur les tâches longues, Codex propose de planifier des tâches et reprendre automatiquement un travail plus tard. Il peut aussi reprendre des conversations existantes et se souvenir de modifications demandées pour continuer une tâche. 

Ça peut servir dans le cadre du suivi d’un projet sur le long cours : dans le meilleur des mondes, Codex devrait être en mesure de repérer dans Slack qu’une décision a été prise, aller chercher les détails dans Notion, vérifier ce qui a déjà été implémenté dans le code et proposer à l’utilisateur une liste d’actions. L’agent n’a plus besoin qu’on lui redonne le contexte, il l’a en tête.

L’outil sait prendre en charge les commentaires de revue de code sur GitHub, exécuter des commandes dans plusieurs terminaux en simultané, se connecter à des environnements distants via SSH (encore en alpha). Un nouveau panneau de synthèse complète l’ensemble avec une vue d’ensemble sur les actions réalisées par l’agent, les sources utilisées et les résultats obtenus.

Tout cela parlera davantage aux développeurs. Mais le navigateur web intégré, la manipulation des apps, le suivi de tâches dans la durée, tout cela sera aussi utile à un utilisateur grand public. La mise à jour est en phase de déploiement chez les utilisateurs de l’app de bureau.

La mise à jour de Codex pose les bases de la « superapp » d’OpenAI

17 avril 2026 à 10:01
Une app à tout faire peut-elle faire tout bien ?
La mise à jour de Codex pose les bases de la « superapp » d’OpenAI

Codex, l’application dédiée au code d’OpenAI, est la fondation de la « superapp » sur laquelle l’entreprise planche depuis plusieurs mois. Un premier pas qui se destine surtout aux développeurs, cible principale du logiciel. Mais on entrevoit déjà les usages grand public.

Codex en a fait du chemin, depuis ses débuts en février sur macOS (un mois plus tard, une version Windows faisait son apparition). L’application d’OpenAI permet aux développeurs d’utiliser l’agent IA spécialisé dans la programmation dans une interface dédiée (il se décline aussi en version CLI).

Déployez les agents

Ce logiciel phare du vibe-coding — n’oublions pas Claude Code — permet de prototyper rapidement une application (voire de la développer complètement) en laissant le plus gros du travail à l’agent Codex. Mais l’ambition d’OpenAI va bien plus loin : le client Codex n’est autre que la brique fondatrice de la fameuse « superapp » censée répondre à l’ensemble des requêtes des utilisateurs, qu’il s’agisse du grand public, des développeurs ou des professionnels.

« Nous procédons en réalité de façon un peu détournée », a révélé Thibault Sottiaux, responsable de Codex, à ArsTechnica, « nous construisons la superapp au grand jour, en la faisant évoluer à partir de Codex ». La grosse mise à jour livrée hier par l’entreprise le confirme.

On verra si cette stratégie « attrape-tout » ne reviendra pas à créer un véritable monstre ingérable. En attendant, OpenAI démultiplie les capacités de Codex, à commencer par la possibilité d’utiliser n’importe quelle app présente dans le Mac. Plusieurs agents peuvent se déployer et travailler en tâche de fond, sans interférer sur ce que fait l’utilisateur, promet l’entreprise.

Quand Codex s’embête, il lance une partie de Tic Tac Toe.

Codex étant d’abord et avant tout un outil pour les développeurs, cette nouveauté est présentée comme un moyen pour eux de tester leurs apps ou de multiplier les itérations. Le logiciel intègre également son propre navigateur web (ce qui est peut-être le premier pas vers la disparition d’Atlas, le propre navigateur d’OpenAI). 

Le navigateur intégré de Codex.

L’utilisateur peut commenter des éléments de la page web pour fournir des instructions précises à Codex. À terme, OpenAI a l’intention de permettre à Codex de prendre le contrôle complet du navigateur embarqué, au-delà des webapps tournant sur le serveur en local. Avec l’aide du modèle gpt-image-1.5, le nouveau Codex sait aussi générer des visuels d’interface, pour des maquettes ou des jeux.

Le générateur d’images de Codex.

Plus de 90 nouveaux modules d’extension s’ajoutent à la bibliothèque actuelle, qui permettent une intégration collée-serrée entre Codex et de nombreux services et outils comme Slack, Notion, GitLab, Jira, CodeRabbit… L’idée est de connecter Codex à l’environnement de travail et donc d’en faire une passerelle indispensable entre l’utilisateur et son environnement numérique.

Un intermédiaire nommé Codex

Sur les tâches longues, Codex propose de planifier des tâches et reprendre automatiquement un travail plus tard. Il peut aussi reprendre des conversations existantes et se souvenir de modifications demandées pour continuer une tâche. 

Ça peut servir dans le cadre du suivi d’un projet sur le long cours : dans le meilleur des mondes, Codex devrait être en mesure de repérer dans Slack qu’une décision a été prise, aller chercher les détails dans Notion, vérifier ce qui a déjà été implémenté dans le code et proposer à l’utilisateur une liste d’actions. L’agent n’a plus besoin qu’on lui redonne le contexte, il l’a en tête.

L’outil sait prendre en charge les commentaires de revue de code sur GitHub, exécuter des commandes dans plusieurs terminaux en simultané, se connecter à des environnements distants via SSH (encore en alpha). Un nouveau panneau de synthèse complète l’ensemble avec une vue d’ensemble sur les actions réalisées par l’agent, les sources utilisées et les résultats obtenus.

Tout cela parlera davantage aux développeurs. Mais le navigateur web intégré, la manipulation des apps, le suivi de tâches dans la durée, tout cela sera aussi utile à un utilisateur grand public. La mise à jour est en phase de déploiement chez les utilisateurs de l’app de bureau.

Les ayants droit veulent augmenter la copie privée et lorgnent sur les ordinateurs

17 avril 2026 à 08:04
Pas touche au grisbi !
Les ayants droit veulent augmenter la copie privée et lorgnent sur les ordinateurs

Il n’y a pas que le prix des composants mémoire qui augmentent, il y a… le montant de la copie privée. Les représentants des ayants droit ont mis sur la table leurs propositions de nouveaux barèmes censés refléter l’évolution des usages. Au programme : forte hausse sur les produits déjà touchés, et extension aux ordinateurs qui étaient jusqu’à présent épargnés.

Les organismes de gestion collective, comme la SACEM et la SACD, ont la main sur le trésor de la rémunération de la copie privée (RCP), et elle est de plus en plus lourde. Les études d’usage réalisées fin 2024 par l’institut CSA concernant la pratique de copies d’œuvres (musique, films, photos, textes) servent de base à de nouveaux barèmes proposés mercredi 15 avril aux industriels de la tech et aux organisations de consommateurs, durant une réunion au ministère de la Culture révélée par L’Informé.

Fin du plafond à 128 Go

Le moins qu’on puisse dire, c’est que les ayants droit ont poussé fort sur la valorisation de la rémunération, qui se base en partie sur l’espace de stockage des appareils. Jusqu’à présent, sur les smartphones neufs de 128 Go ou plus, la redevance était plafonnée à 14 euros HT (16,80 euros TTC). De nouveaux paliers se mettraient en place. Quelques exemples :

  • sur un smartphone de 128 Go, la rémunération passerait à 18 euros HT (21,60 euros TTC), soit une hausse de 29 % ;
  • sur un smartphone de 256 Go : 20 euros HT (24 euros TTC),+ 43 % ;
  • sur un smartphone de 512 Go : 22 euros HT (26,40 euros TTC),+ 57 % ;
  • sur un smartphone de plus de 512 Go : 24 euros HT (28,80 euros TTC), ce qui représente une hausse vertigineuse de 71 %.

Même topo sur les tablettes, où la redevance se limitait à 14 euros HT pour les modèles dotés de 128 Go ou plus. Là aussi, des paliers supplémentaires seraient créés :

  • sur une tablette de 128 Go : 17 euros HT (20,40 euros TTC), soit 21 % de plus ;
  • sur une tablette de 256 Go : 18 euros HT (21,60 euros TTC),+ 29 % ;
  • sur une tablette de 512 Go : 20 euros HT (24 euros TTC),+ 43 % ;
  • sur une tablette de plus de 512 Go ou plus : 26 euros HT (31,20 euros TTC),+ 86 %.

Les smartphones et tablettes reconditionnés subiraient également une augmentation sensible de la rémunération. Elle s’établirait à 10,80 euros HT (12,96 euros TTC) sur un mobile de 128 Go, soit 28,57 % de plus. Un smartphone équipé de plus de 512 Go aurait droit à une redevance de 14,40 euros HT (17,28 euros TTC), soit 71,4 % de plus.

La copie privée aussi pour les PC

Et comme si cela ne suffisait pas, les ayants droit proposent d’appliquer la rémunération copie privée sur les ordinateurs portables/hybrides et les ordinateurs de bureau. Elle serait calculée sur une base forfaitaire : 30 euros HT (36 euros TTC) pour les premiers, 24 euros HT (28,80 euros TTC) pour les seconds. Les modèles reconditionnés seraient aussi concernés, respectivement 18 euros HT (21,60 euros TTC) et 14,40 euros HT (17,28 euros TTC).

Si ce barème était appliqué tel quel, les organismes de gestion collective récupèreraient, à quantités équivalentes, plus de 400 millions d’euros par an. En 2024, la collecte avait grimpé à 246 millions…

Reste cependant un obstacle à passer : les 12 représentants des ayants droit au sein de la commission copie privée font face à 6 représentants des constructeurs et des importateurs, et 6 organisations de consommateurs. Ces derniers vont faire des contre-propositions, qui déboucheront sur un arbitrage puis un vote. La commission, dont la dernière réunion remonte au 12 février (PDF), a écarté le streaming, considéré comme de la location et non comme une copie.

La rémunération pour la copie privée n’est pas un permis de pirater : c’est une exception au Code de la propriété intellectuelle qui autorise la reproduction d’une œuvre pour un usage strictement personnel, à condition que la source soit licite. La redevance, collectée par la société Copie France auprès des fabricants et des importateurs (et répercutée sur le prix payé par les consommateurs), finance en partie la création. 25 % des sommes sont consacrées à des actions culturelles : diffusion du spectacle vivant, développement de l’éducation artistique et culturelle, formation d’artistes.

La France au premier rang mondial de la copie privée

Fin observateur du sujet, Marc Rees de l’Informé remarque sur X que la France représente une part significative des montants collectés à l’échelle mondiale.

Les différentes pratiques mises en oeuvre en Europe et dans le reste du monde ont en effet fait l’objet d’une étude comparative portant sur la période 2019 – 2024, réalisée sous la houlette de la Confédération internationale des sociétés d’auteurs et compositeurs (Cisac).

Dans cette « étude mondiale sur la copie privée », publiée fin mars 2026, la Cisac évalue à 1,06 milliard d’euros les sommes collectées au nom de la copie privée au niveau de 32 pays qui pratiquent la fameuse exception depuis 2019.

Avec 246,4 millions d’euros collectés, la France arrive en tête du classement ainsi constitué, juste devant l’Allemagne (235,5 millions d’euros).

La France et l’Allemagne dominent largement le classement des montants collectés entre 2019 et 2024

« En valeur nominale, l’Allemagne et la France affichent de loin les recettes les plus importantes issues des redevances pour copie privée. Sur la période 2019 - 2024 cumulée, ces deux pays ont perçu 50 % du total des recettes déclarées », remarque la Cisac.

Les ayants droit veulent augmenter la copie privée et lorgnent sur les ordinateurs

17 avril 2026 à 08:04
Pas touche au grisbi !
Les ayants droit veulent augmenter la copie privée et lorgnent sur les ordinateurs

Il n’y a pas que le prix des composants mémoire qui augmentent, il y a… le montant de la copie privée. Les représentants des ayants droit ont mis sur la table leurs propositions de nouveaux barèmes censés refléter l’évolution des usages. Au programme : forte hausse sur les produits déjà touchés, et extension aux ordinateurs qui étaient jusqu’à présent épargnés.

Les organismes de gestion collective, comme la SACEM et la SACD, ont la main sur le trésor de la rémunération de la copie privée (RCP), et elle est de plus en plus lourde. Les études d’usage réalisées fin 2024 par l’institut CSA concernant la pratique de copies d’œuvres (musique, films, photos, textes) servent de base à de nouveaux barèmes proposés mercredi 15 avril aux industriels de la tech et aux organisations de consommateurs, durant une réunion au ministère de la Culture révélée par L’Informé.

Fin du plafond à 128 Go

Le moins qu’on puisse dire, c’est que les ayants droit ont poussé fort sur la valorisation de la rémunération, qui se base en partie sur l’espace de stockage des appareils. Jusqu’à présent, sur les smartphones neufs de 128 Go ou plus, la redevance était plafonnée à 14 euros HT (16,80 euros TTC). De nouveaux paliers se mettraient en place. Quelques exemples :

  • sur un smartphone de 128 Go, la rémunération passerait à 18 euros HT (21,60 euros TTC), soit une hausse de 29 % ;
  • sur un smartphone de 256 Go : 20 euros HT (24 euros TTC),+ 43 % ;
  • sur un smartphone de 512 Go : 22 euros HT (26,40 euros TTC),+ 57 % ;
  • sur un smartphone de plus de 512 Go : 24 euros HT (28,80 euros TTC), ce qui représente une hausse vertigineuse de 71 %.

Même topo sur les tablettes, où la redevance se limitait à 14 euros HT pour les modèles dotés de 128 Go ou plus. Là aussi, des paliers supplémentaires seraient créés :

  • sur une tablette de 128 Go : 17 euros HT (20,40 euros TTC), soit 21 % de plus ;
  • sur une tablette de 256 Go : 18 euros HT (21,60 euros TTC),+ 29 % ;
  • sur une tablette de 512 Go : 20 euros HT (24 euros TTC),+ 43 % ;
  • sur une tablette de plus de 512 Go ou plus : 26 euros HT (31,20 euros TTC),+ 86 %.

Les smartphones et tablettes reconditionnés subiraient également une augmentation sensible de la rémunération. Elle s’établirait à 10,80 euros HT (12,96 euros TTC) sur un mobile de 128 Go, soit 28,57 % de plus. Un smartphone équipé de plus de 512 Go aurait droit à une redevance de 14,40 euros HT (17,28 euros TTC), soit 71,4 % de plus.

La copie privée aussi pour les PC

Et comme si cela ne suffisait pas, les ayants droit proposent d’appliquer la rémunération copie privée sur les ordinateurs portables/hybrides et les ordinateurs de bureau. Elle serait calculée sur une base forfaitaire : 30 euros HT (36 euros TTC) pour les premiers, 24 euros HT (28,80 euros TTC) pour les seconds. Les modèles reconditionnés seraient aussi concernés, respectivement 18 euros HT (21,60 euros TTC) et 14,40 euros HT (17,28 euros TTC).

Si ce barème était appliqué tel quel, les organismes de gestion collective récupèreraient, à quantités équivalentes, plus de 400 millions d’euros par an. En 2024, la collecte avait grimpé à 246 millions…

Reste cependant un obstacle à passer : les 12 représentants des ayants droit au sein de la commission copie privée font face à 6 représentants des constructeurs et des importateurs, et 6 organisations de consommateurs. Ces derniers vont faire des contre-propositions, qui déboucheront sur un arbitrage puis un vote. La commission, dont la dernière réunion remonte au 12 février (PDF), a écarté le streaming, considéré comme de la location et non comme une copie.

La rémunération pour la copie privée n’est pas un permis de pirater : c’est une exception au Code de la propriété intellectuelle qui autorise la reproduction d’une œuvre pour un usage strictement personnel, à condition que la source soit licite. La redevance, collectée par la société Copie France auprès des fabricants et des importateurs (et répercutée sur le prix payé par les consommateurs), finance en partie la création. 25 % des sommes sont consacrées à des actions culturelles : diffusion du spectacle vivant, développement de l’éducation artistique et culturelle, formation d’artistes.

La France au premier rang mondial de la copie privée

Fin observateur du sujet, Marc Rees de l’Informé remarque sur X que la France représente une part significative des montants collectés à l’échelle mondiale.

Les différentes pratiques mises en oeuvre en Europe et dans le reste du monde ont en effet fait l’objet d’une étude comparative portant sur la période 2019 – 2024, réalisée sous la houlette de la Confédération internationale des sociétés d’auteurs et compositeurs (Cisac).

Dans cette « étude mondiale sur la copie privée », publiée fin mars 2026, la Cisac évalue à 1,06 milliard d’euros les sommes collectées au nom de la copie privée au niveau de 32 pays qui pratiquent la fameuse exception depuis 2019.

Avec 246,4 millions d’euros collectés, la France arrive en tête du classement ainsi constitué, juste devant l’Allemagne (235,5 millions d’euros).

La France et l’Allemagne dominent largement le classement des montants collectés entre 2019 et 2024

« En valeur nominale, l’Allemagne et la France affichent de loin les recettes les plus importantes issues des redevances pour copie privée. Sur la période 2019 - 2024 cumulée, ces deux pays ont perçu 50 % du total des recettes déclarées », remarque la Cisac.

Claude Opus 4.7 : le nouveau modèle d’Anthropic se veut plus performant et plus gourmand

17 avril 2026 à 05:51
Un effort qui se paie
Claude Opus 4.7 : le nouveau modèle d’Anthropic se veut plus performant et plus gourmand

À chaque jour son grand modèle de langage, ou presque. Anthropic a en effet dévoilé Claude Opus 4.7, son LLM le plus performant (en dehors de Mythos). Des performances qui se paient : le modèle peut se montrer plus gourmand.

Un peu plus de deux mois après Claude Opus 4.6, et une semaine après Mythos, Anthropic a lancé Claude Opus 4.7, présenté comme son modèle IA le plus performant à ce jour… pour le grand public. Mythos détient toujours la couronne du LLM le plus puissant au catalogue d’Anthropic, mais compte tenu de ses capacités en cybersécurité, il n’est déployé qu’au compte-goutte via le projet Glasswing.

Opus 4.7 est « moins capable » que Mythos, admet l’entreprise. Le modèle intègre en effet des garde-fous capables de détecter et de bloquer automatiquement les requêtes liées à « des usages de cybersécurité interdits ou à haut risque ». Si les modèles de classe Mythos ont vocation à être diffusés à grande échelle, il faudra pour le moment faire avec Opus, dont cette version 4.7 est maintenant disponible pour tous les utilisateurs de Claude, ainsi que dans l’API.

Gare aux tokens

Claude Opus 4.7 promet une vision améliorée avec la prise en charge d’images d’une résolution maximale de 2 576 pixels de long ou 3,75 mégapixels (à comparer avec le maximum précédent qui était de 1 568 px/1,15 mpx). Le modèle devrait donc être en mesure de mieux détecter les objets et mieux comprendre les documents et captures d’écran. 

Image : Anthropic

Par ailleurs, les coordonnées renvoyées correspondent directement aux pixels de l’image d’origine. Plus besoin de conversion comme par le passé, les positions peuvent être immédiatement exploitées. Cela peut être utile pour, par exemple, cliquer sur un bouton dans une interface graphique ou tout simplement pointer précisément sur un élément comme un texte ou un graphique.

Autre changement : un nouveau niveau d’effort « extra high » (xhigh) qui se positionne entre les paliers « high » et « max ». Anthropic recommande de basculer Claude en xhigh pour tout ce qui est programmation et agents autonomes, et high pour tous les cas d’usage sensibles à la qualité du raisonnement.

Les calculs IA coûtent cher, aussi bien pour Anthropic que pour les utilisateurs. Avoir sous la main des options supplémentaires pour contrôler son budget est donc indispensable, d’où ce niveau xhigh. C’est d’autant plus important qu’Opus 4.7 inaugure un nouveau tokenizer qui découpe le texte différemment : un même texte peut générer jusqu’à 35 % de tokens en plus qu’avant. Utiliser ce modèle est donc susceptible de coûter plus cher ou de faire atteindre plus vite les limites de son abonnement. 

Pour justifier cette inflation, Anthropic affirme que son nouveau découpage est plus efficace et qu’il permet au modèle de mieux comprendre certains contenus. Opus 4.7 réfléchit aussi davantage quand le niveau d’effort est élevé, notamment dans des contextes agentiques : la fiabilité s’améliore sur les requêtes complexes, mais le modèle dépense aussi davantage de tokens.

Ce graphique fourni par Anthropic montre qu’Opus 4.7 consomme plus de tokens, mais il atteint aussi des scores supérieurs.

Sur une évaluation interne dédiée au code, l’utilisation des tokens s’améliore « à tous les niveaux ». En pratique, Opus 4.7 consomme souvent davantage de tokens, mais il atteint des scores nettement supérieurs. À effort équivalent, le modèle semble donc obtenir de meilleurs résultats, quitte à « dépenser » davantage.

Afin de faire passer la pilule, Claude Opus 4.7 peut garder en mémoire jusqu’à 1 million de tokens pour une seule requête sans surcoût spécifique. Le modèle est donc en capacité de traiter beaucoup plus d’informations d’un coup, sans impact financier supplémentaire.

Quel budget pour quelle tâche ?

Pour aider les utilisateurs à ne pas exploser leur plafond de dépenses, Opus 4.7 inaugure (en bêta) une fonction « budget de tâche ». Il s’agit d’une enveloppe d’un volume minimal de 20 000 tokens, que le modèle peut dépenser en temps réel : il adapte son travail pour aller au bout de la boucle agentique complète, ce qui inclut la réflexion, les appels et les résultats d’outils, ainsi que la réponse finale. Il s’en sert comme compteur décroissant pour prioriser les tâches à mesure de la consommation du budget alloué.

Attention : un budget trop restrictif poussera Opus 4.7 à traiter la tâche de manière moins approfondie. Il pourra même tout simplement refuser de s’en charger. Anthropic recommande d’expérimenter avec différents budgets en fonction de l’usage. Cette nouveauté diffère de « max_tokens », une limite fixe par requête sur les tokens générés. Les budgets sont une limite indicative sur l’ensemble de la boucle de travail. 

Le pilotage du modèle avec l’API est simplifié. Exit les paramètres classiques (« temperature », « top_p »…), le contrôle se veut plus global pour réduire la complexité, mais aussi reprendre la main sur le comportement du modèle. « Utilisez les budgets pour inciter le modèle à s’auto-réguler, et la limite fixe de tokens comme plafond strict pour maîtriser la consommation », résume Anthropic. Un guide est en ligne pour épauler les utilisateurs dans la migration depuis Opus 4.6.

Claude Opus 4.7 : le nouveau modèle d’Anthropic se veut plus performant et plus gourmand

17 avril 2026 à 05:51
Un effort qui se paie
Claude Opus 4.7 : le nouveau modèle d’Anthropic se veut plus performant et plus gourmand

À chaque jour son grand modèle de langage, ou presque. Anthropic a en effet dévoilé Claude Opus 4.7, son LLM le plus performant (en dehors de Mythos). Des performances qui se paient : le modèle peut se montrer plus gourmand.

Un peu plus de deux mois après Claude Opus 4.6, et une semaine après Mythos, Anthropic a lancé Claude Opus 4.7, présenté comme son modèle IA le plus performant à ce jour… pour le grand public. Mythos détient toujours la couronne du LLM le plus puissant au catalogue d’Anthropic, mais compte tenu de ses capacités en cybersécurité, il n’est déployé qu’au compte-goutte via le projet Glasswing.

Opus 4.7 est « moins capable » que Mythos, admet l’entreprise. Le modèle intègre en effet des garde-fous capables de détecter et de bloquer automatiquement les requêtes liées à « des usages de cybersécurité interdits ou à haut risque ». Si les modèles de classe Mythos ont vocation à être diffusés à grande échelle, il faudra pour le moment faire avec Opus, dont cette version 4.7 est maintenant disponible pour tous les utilisateurs de Claude, ainsi que dans l’API.

Gare aux tokens

Claude Opus 4.7 promet une vision améliorée avec la prise en charge d’images d’une résolution maximale de 2 576 pixels de long ou 3,75 mégapixels (à comparer avec le maximum précédent qui était de 1 568 px/1,15 mpx). Le modèle devrait donc être en mesure de mieux détecter les objets et mieux comprendre les documents et captures d’écran. 

Image : Anthropic

Par ailleurs, les coordonnées renvoyées correspondent directement aux pixels de l’image d’origine. Plus besoin de conversion comme par le passé, les positions peuvent être immédiatement exploitées. Cela peut être utile pour, par exemple, cliquer sur un bouton dans une interface graphique ou tout simplement pointer précisément sur un élément comme un texte ou un graphique.

Autre changement : un nouveau niveau d’effort « extra high » (xhigh) qui se positionne entre les paliers « high » et « max ». Anthropic recommande de basculer Claude en xhigh pour tout ce qui est programmation et agents autonomes, et high pour tous les cas d’usage sensibles à la qualité du raisonnement.

Les calculs IA coûtent cher, aussi bien pour Anthropic que pour les utilisateurs. Avoir sous la main des options supplémentaires pour contrôler son budget est donc indispensable, d’où ce niveau xhigh. C’est d’autant plus important qu’Opus 4.7 inaugure un nouveau tokenizer qui découpe le texte différemment : un même texte peut générer jusqu’à 35 % de tokens en plus qu’avant. Utiliser ce modèle est donc susceptible de coûter plus cher ou de faire atteindre plus vite les limites de son abonnement. 

Pour justifier cette inflation, Anthropic affirme que son nouveau découpage est plus efficace et qu’il permet au modèle de mieux comprendre certains contenus. Opus 4.7 réfléchit aussi davantage quand le niveau d’effort est élevé, notamment dans des contextes agentiques : la fiabilité s’améliore sur les requêtes complexes, mais le modèle dépense aussi davantage de tokens.

Ce graphique fourni par Anthropic montre qu’Opus 4.7 consomme plus de tokens, mais il atteint aussi des scores supérieurs.

Sur une évaluation interne dédiée au code, l’utilisation des tokens s’améliore « à tous les niveaux ». En pratique, Opus 4.7 consomme souvent davantage de tokens, mais il atteint des scores nettement supérieurs. À effort équivalent, le modèle semble donc obtenir de meilleurs résultats, quitte à « dépenser » davantage.

Afin de faire passer la pilule, Claude Opus 4.7 peut garder en mémoire jusqu’à 1 million de tokens pour une seule requête sans surcoût spécifique. Le modèle est donc en capacité de traiter beaucoup plus d’informations d’un coup, sans impact financier supplémentaire.

Quel budget pour quelle tâche ?

Pour aider les utilisateurs à ne pas exploser leur plafond de dépenses, Opus 4.7 inaugure (en bêta) une fonction « budget de tâche ». Il s’agit d’une enveloppe d’un volume minimal de 20 000 tokens, que le modèle peut dépenser en temps réel : il adapte son travail pour aller au bout de la boucle agentique complète, ce qui inclut la réflexion, les appels et les résultats d’outils, ainsi que la réponse finale. Il s’en sert comme compteur décroissant pour prioriser les tâches à mesure de la consommation du budget alloué.

Attention : un budget trop restrictif poussera Opus 4.7 à traiter la tâche de manière moins approfondie. Il pourra même tout simplement refuser de s’en charger. Anthropic recommande d’expérimenter avec différents budgets en fonction de l’usage. Cette nouveauté diffère de « max_tokens », une limite fixe par requête sur les tokens générés. Les budgets sont une limite indicative sur l’ensemble de la boucle de travail. 

Le pilotage du modèle avec l’API est simplifié. Exit les paramètres classiques (« temperature », « top_p »…), le contrôle se veut plus global pour réduire la complexité, mais aussi reprendre la main sur le comportement du modèle. « Utilisez les budgets pour inciter le modèle à s’auto-réguler, et la limite fixe de tokens comme plafond strict pour maîtriser la consommation », résume Anthropic. Un guide est en ligne pour épauler les utilisateurs dans la migration depuis Opus 4.6.

Reçu — 16 avril 2026 Actualités numériques

Claude peut maintenant exiger une vérification d’identité

16 avril 2026 à 16:15
Vos papiers et que ça saute
Claude peut maintenant exiger une vérification d’identité

C’est une première pour les chatbots IA. Claude peut désormais réclamer une vérification de l’identité de l’utilisateur. Il faudra alors présenter un passeport, un permis de conduire ou une carte d’identité avec photo. Les photocopies, les captures d’écran ou « photos d’une photo » ne sont pas acceptées. Un selfie pourra aussi être demandé.

La demande de vérification de l’identité, repérée par Decrypt, a commencé à apparaitre chez de nouveaux abonnés de Claude. Ce qui ne manque pas d’étonner, sachant que pour le moment du moins, aucun législateur ou régulateur n’a exigé une telle opération. Dans une fiche d’assistance mise en ligne le 14 avril, Anthropic explique que « la vérification de l’identité nous aide à prévenir les abus, à appliquer nos politiques d’utilisation et à respecter nos obligations légales ». 

Une vérification de l’identité inédite pour un bot

La vérification de l’identité concerne « certains cas d’usage » non précisés, et lors de l’accès à « certaines fonctionnalités », le tout dans le cadre des vérifications régulières d’intégrité de la plateforme « ou d’autres mesures de sécurité et de conformité ». 

En cas d’échec de la vérification, il est toujours possible de contacter l’entreprise qui examinera alors le dossier. Persona Identities est le prestataire chargé de la vérification ; ce sous-traitant travaille aussi pour le compte de Roblox, DoorDash, LinkedIn, mais aussi… OpenAI, dans certains cas, pour contrôler l’âge des utilisateurs de ChatGPT.

La demande de vérification de l’identité de Claude. Image : @Kai

En février dernier, des chercheurs en sécurité ont découvert qu’une interface web appartenant à Persona était accessible publiquement. Ce frontend contenait 2 456 fichiers (du code et des outils internes) hébergés sur un serveur autorisé par le gouvernement américain, isolé de l’environnement de l’entreprise. 

Pas de données confidentielles ici, mais les fichiers exposés ont permis de mesurer l’ampleur des capacités du système Persona : il réalise jusqu’à 269 types de vérifications possibles, il compare les selfies à des listes de surveillance, détecte les profils à risque et calcule un score de risque. On a également appris à cette occasion que Persona conservait les données des utilisateurs jusqu’à 3 ans. 

Après avoir supprimé l’accès au frontend et assuré qu’aucune donnée personnelle n’avait fuité, l’entreprise a expliqué qu’elle ne travaillait avec aucune agence fédérale états-unienne, et qu’aucun de ses clients n’exploitait la totalité des 269 types de vérifications. 

L’ombre de Peter Thiel

Ce frontend avait été découvert à l’occasion de la mise en place par Discord de son système de vérification de l’âge. La plateforme a depuis révoqué le sous-traitant, suite à une autre polémique : Persona est en effet financé par Peter Thiel, cofondateur de Palantir. Une entreprise dont les outils sont très populaires chez les forces de l’ordre comme l’ICE, qui fait la chasse aux immigrés en situation irrégulière.

Anthropic n’a pas ces états d’âme, et rappelle que Persona traite les données de vérification « selon nos instructions ». Ces informations, chiffrées en transit et au repos, n’en restent pas moins collectées et stockées par Persona. Anthropic peut y accéder, ainsi qu’aux dossiers de vérification si nécessaire pour examiner un appel, par exemple. Les données sont conservées et supprimées « conformément aux limites de conservation » établies par Anthropic et à la loi applicable.

L’entreprise précise aussi, et c’est important vu le contexte, que les données d’identité ne sont pas utilisées pour entraîner ses modèles IA, mais « uniquement pour confirmer votre identité et pour respecter nos obligations légales et de sécurité ». Ces informations ne sont partagées avec personne, sauf en cas de demande légale valide. Enfin, Anthropic affirme ne collecter que les données minimales requises pour vérifier l’identité.

L’opacité avec laquelle Anthropic demande la vérification de l’identité, ainsi que le choix de ce sous-traitant, ne manquent pas d’inquiéter certains. ChatGPT ou Gemini n’en sont pas encore là, même si le premier peut effectuer des vérifications d’âge. Quant au deuxième, son opérateur Google connait déjà beaucoup de ses utilisateurs. Mais Anthropic pourrait bien être précurseur.

Claude peut maintenant exiger une vérification d’identité

16 avril 2026 à 16:15
Vos papiers et que ça saute
Claude peut maintenant exiger une vérification d’identité

C’est une première pour les chatbots IA. Claude peut désormais réclamer une vérification de l’identité de l’utilisateur. Il faudra alors présenter un passeport, un permis de conduire ou une carte d’identité avec photo. Les photocopies, les captures d’écran ou « photos d’une photo » ne sont pas acceptées. Un selfie pourra aussi être demandé.

La demande de vérification de l’identité, repérée par Decrypt, a commencé à apparaitre chez de nouveaux abonnés de Claude. Ce qui ne manque pas d’étonner, sachant que pour le moment du moins, aucun législateur ou régulateur n’a exigé une telle opération. Dans une fiche d’assistance mise en ligne le 14 avril, Anthropic explique que « la vérification de l’identité nous aide à prévenir les abus, à appliquer nos politiques d’utilisation et à respecter nos obligations légales ». 

Une vérification de l’identité inédite pour un bot

La vérification de l’identité concerne « certains cas d’usage » non précisés, et lors de l’accès à « certaines fonctionnalités », le tout dans le cadre des vérifications régulières d’intégrité de la plateforme « ou d’autres mesures de sécurité et de conformité ». 

En cas d’échec de la vérification, il est toujours possible de contacter l’entreprise qui examinera alors le dossier. Persona Identities est le prestataire chargé de la vérification ; ce sous-traitant travaille aussi pour le compte de Roblox, DoorDash, LinkedIn, mais aussi… OpenAI, dans certains cas, pour contrôler l’âge des utilisateurs de ChatGPT.

La demande de vérification de l’identité de Claude. Image : @Kai

En février dernier, des chercheurs en sécurité ont découvert qu’une interface web appartenant à Persona était accessible publiquement. Ce frontend contenait 2 456 fichiers (du code et des outils internes) hébergés sur un serveur autorisé par le gouvernement américain, isolé de l’environnement de l’entreprise. 

Pas de données confidentielles ici, mais les fichiers exposés ont permis de mesurer l’ampleur des capacités du système Persona : il réalise jusqu’à 269 types de vérifications possibles, il compare les selfies à des listes de surveillance, détecte les profils à risque et calcule un score de risque. On a également appris à cette occasion que Persona conservait les données des utilisateurs jusqu’à 3 ans. 

Après avoir supprimé l’accès au frontend et assuré qu’aucune donnée personnelle n’avait fuité, l’entreprise a expliqué qu’elle ne travaillait avec aucune agence fédérale états-unienne, et qu’aucun de ses clients n’exploitait la totalité des 269 types de vérifications. 

L’ombre de Peter Thiel

Ce frontend avait été découvert à l’occasion de la mise en place par Discord de son système de vérification de l’âge. La plateforme a depuis révoqué le sous-traitant, suite à une autre polémique : Persona est en effet financé par Peter Thiel, cofondateur de Palantir. Une entreprise dont les outils sont très populaires chez les forces de l’ordre comme l’ICE, qui fait la chasse aux immigrés en situation irrégulière.

Anthropic n’a pas ces états d’âme, et rappelle que Persona traite les données de vérification « selon nos instructions ». Ces informations, chiffrées en transit et au repos, n’en restent pas moins collectées et stockées par Persona. Anthropic peut y accéder, ainsi qu’aux dossiers de vérification si nécessaire pour examiner un appel, par exemple. Les données sont conservées et supprimées « conformément aux limites de conservation » établies par Anthropic et à la loi applicable.

L’entreprise précise aussi, et c’est important vu le contexte, que les données d’identité ne sont pas utilisées pour entraîner ses modèles IA, mais « uniquement pour confirmer votre identité et pour respecter nos obligations légales et de sécurité ». Ces informations ne sont partagées avec personne, sauf en cas de demande légale valide. Enfin, Anthropic affirme ne collecter que les données minimales requises pour vérifier l’identité.

L’opacité avec laquelle Anthropic demande la vérification de l’identité, ainsi que le choix de ce sous-traitant, ne manquent pas d’inquiéter certains. ChatGPT ou Gemini n’en sont pas encore là, même si le premier peut effectuer des vérifications d’âge. Quant au deuxième, son opérateur Google connait déjà beaucoup de ses utilisateurs. Mais Anthropic pourrait bien être précurseur.

L’App Store et le Play Store ont toujours des problèmes avec les apps de deepfakes sexuels

16 avril 2026 à 14:30
Les boutiques d'apps à poil
L’App Store et le Play Store ont toujours des problèmes avec les apps de deepfakes sexuels

L’App Store d’Apple et le Play Store de Google hébergent des dizaines d’applications permettant de générer des nus synthétiques à partir d’images réelles. Suite à une enquête du Tech Transparent Project, les contrôleurs d’accès en ont supprimé quelques unes, mais d’autres sont toujours disponibles.

Les politiques d’Apple et de Google qui régissent leurs boutiques d’apps respectives sont très claires : l’App Store exclut les applications « offensantes, choquantes ou de mauvais goût », y compris celles qui proposent du contenu « explicitement sexuel ou pornographique ». Le Play Store interdit les apps qui prétendent « déshabiller les personnes ou [permettre] de voir à travers les vêtements ».

Résultats de recherche équivoques

Si c’est le cas, comment se fait-il alors que les boutiques continuent de distribuer ce genre d’applications ? Une nouvelle enquête du Tech Transparent Project (TTP) datée du 15 avril confirme la présence persistante de ces apps dans les rayons des magasins, malgré un premier rapport en janvier qui avait mis au jour plus de 100 d’entre elles. Apple et Google en avaient alors supprimé plusieurs dizaines.

Le TTP s’est cette fois penché sur les moteurs de recherche des boutiques, et a constaté qu’en saisissant des requêtes comme « nudify », « undress », « deepfake », « deepnude » ou encore « AI NSFW », il était toujours possible de tomber sur des applications permettant de créer des deepfakes dénudés. Au total, 46 applications ont été proposées par l’App Store, 49 du côté du Play Store. L’enquête s’est concentrée sur les 10 premières apps de chaque résultat de recherche.

L’app Best Body AI proposé par l’App Store après une recherche sur le mot « nudify » génère des deepfakes à caractère sexuel. Image : TTP

Les tests, réalisés à partir d’images de femmes générées par IA, montrent que 40 % des applications (18 sur l’App Store, 20 sur le Play Store), permettent de dénuder ou de déshabiller les sujets ou suggèrent clairement cette possibilité, parfois gratuitement. Le TTP s’est ensuite penché sur les suggestions de recherche automatique proposées par les boutiques : les termes suggérés par Apple et Google renvoyaient vers encore plus d’apps de deepfakes à caractère sexuel. Ce qui veut dire que les boutiques suggèrent elles-mêmes des résultats de recherche menant à ces applications.

Un exemple : en saisissant « AI NS » (pour « AI NSFW »), l’App Store suggère des termes de recherche équivoques, comme « image to video ai nsfw ». Toucher cette recommandation renvoie vers plusieurs applications de génération de nus.

Image : TTP

L’enquête indique que 31 apps sont autorisées pour les mineurs. En tout, les applications dénichées par le TTP via les moteurs de recherche des boutiques représentent 483 millions de téléchargements et elles ont réalisé plus de 122 millions de dollars de revenus, selon des chiffres d’AppMagic. Elles profiteraient donc directement à Apple et à Google, qui prélèvent une commission sur ces ventes. 

Les contrôleurs d’accès bénéficient aussi de la manne publicitaire : ces applications achètent des annonces pour apparaître en tête des résultats de recherche. Apple interdit en principe les contenus publicitaires qui font la promotion de thèmes pour adultes ou des contenus explicites. Pourtant, le premier résultat d’une recherche sur le mot « deepfake » renvoie vers un bandeau pour une application qui permet de générer des nus truqués à partir d’une photo d’une femme.

Même constat du côté du Play Store, malgré là encore l’interdiction faite aux contenus publicitaires de montrer des images ou des vidéos de scènes sexuelles explicites, de promouvoir des thèmes sexuels non consentis « qu’ils soient simulés ou réels », ou encore de montrer des contenus synthétiques « modifiés ou générés pour être sexuellement explicites ou contenant de la nudité ». Des applications de deepfakes sexuels continuent d’apparaitre dans les pubs de la boutique.

Les boutiques mobiles ne respectent pas leurs propres règles

Interpellé, Google a annoncé que la plupart des applications identifiées par l’enquête avaient été suspendues (7 ont été supprimées), et que le renforcement des règles sur le Play Store était en cours. Apple n’a pas publiquement répondu à TTP, mais a tout de même supprimé 15 apps litigieuses suite à la publication de l’enquête. Nos propres recherches sur l’App Store (sur un iPhone en région États-Unis en anglais, avec un VPN basé aux États-Unis) ne retournent aucun résultat sur plusieurs des termes testés par TTP comme « nudify », « deepnude » ou « AI NSFW ». En revanche, le moteur de recherche propose bien plusieurs applications avec le terme, plus générique, de « deepfake ».

Les conclusions de l’enquête sont sans appel. L’App Store et le Play Store ne respectent manifestement pas les règles édictées par Apple et Google : « les moteurs de recherche et la publicité mettent activement en avant ces applications », assène le TTP. Et les boutiques génèrent des revenus à partir de ces apps.

Même si les deux entreprises ont supprimé quelques apps, leur position demeure pour le moins ambiguë, comme on l’a encore vu avec Grok et X qui ont facilité la création et la diffusion d’images dénudées de jeunes filles et de femmes, et leur diffusion. Leurs applications respectives sont restées en ligne sur les boutiques mobiles, malgré le scandale et la pression réglementaire.

L’App Store et le Play Store ont toujours des problèmes avec les apps de deepfakes sexuels

16 avril 2026 à 14:30
Les boutiques d'apps à poil
L’App Store et le Play Store ont toujours des problèmes avec les apps de deepfakes sexuels

L’App Store d’Apple et le Play Store de Google hébergent des dizaines d’applications permettant de générer des nus synthétiques à partir d’images réelles. Suite à une enquête du Tech Transparent Project, les contrôleurs d’accès en ont supprimé quelques unes, mais d’autres sont toujours disponibles.

Les politiques d’Apple et de Google qui régissent leurs boutiques d’apps respectives sont très claires : l’App Store exclut les applications « offensantes, choquantes ou de mauvais goût », y compris celles qui proposent du contenu « explicitement sexuel ou pornographique ». Le Play Store interdit les apps qui prétendent « déshabiller les personnes ou [permettre] de voir à travers les vêtements ».

Résultats de recherche équivoques

Si c’est le cas, comment se fait-il alors que les boutiques continuent de distribuer ce genre d’applications ? Une nouvelle enquête du Tech Transparent Project (TTP) datée du 15 avril confirme la présence persistante de ces apps dans les rayons des magasins, malgré un premier rapport en janvier qui avait mis au jour plus de 100 d’entre elles. Apple et Google en avaient alors supprimé plusieurs dizaines.

Le TTP s’est cette fois penché sur les moteurs de recherche des boutiques, et a constaté qu’en saisissant des requêtes comme « nudify », « undress », « deepfake », « deepnude » ou encore « AI NSFW », il était toujours possible de tomber sur des applications permettant de créer des deepfakes dénudés. Au total, 46 applications ont été proposées par l’App Store, 49 du côté du Play Store. L’enquête s’est concentrée sur les 10 premières apps de chaque résultat de recherche.

L’app Best Body AI proposé par l’App Store après une recherche sur le mot « nudify » génère des deepfakes à caractère sexuel. Image : TTP

Les tests, réalisés à partir d’images de femmes générées par IA, montrent que 40 % des applications (18 sur l’App Store, 20 sur le Play Store), permettent de dénuder ou de déshabiller les sujets ou suggèrent clairement cette possibilité, parfois gratuitement. Le TTP s’est ensuite penché sur les suggestions de recherche automatique proposées par les boutiques : les termes suggérés par Apple et Google renvoyaient vers encore plus d’apps de deepfakes à caractère sexuel. Ce qui veut dire que les boutiques suggèrent elles-mêmes des résultats de recherche menant à ces applications.

Un exemple : en saisissant « AI NS » (pour « AI NSFW »), l’App Store suggère des termes de recherche équivoques, comme « image to video ai nsfw ». Toucher cette recommandation renvoie vers plusieurs applications de génération de nus.

Image : TTP

L’enquête indique que 31 apps sont autorisées pour les mineurs. En tout, les applications dénichées par le TTP via les moteurs de recherche des boutiques représentent 483 millions de téléchargements et elles ont réalisé plus de 122 millions de dollars de revenus, selon des chiffres d’AppMagic. Elles profiteraient donc directement à Apple et à Google, qui prélèvent une commission sur ces ventes. 

Les contrôleurs d’accès bénéficient aussi de la manne publicitaire : ces applications achètent des annonces pour apparaître en tête des résultats de recherche. Apple interdit en principe les contenus publicitaires qui font la promotion de thèmes pour adultes ou des contenus explicites. Pourtant, le premier résultat d’une recherche sur le mot « deepfake » renvoie vers un bandeau pour une application qui permet de générer des nus truqués à partir d’une photo d’une femme.

Même constat du côté du Play Store, malgré là encore l’interdiction faite aux contenus publicitaires de montrer des images ou des vidéos de scènes sexuelles explicites, de promouvoir des thèmes sexuels non consentis « qu’ils soient simulés ou réels », ou encore de montrer des contenus synthétiques « modifiés ou générés pour être sexuellement explicites ou contenant de la nudité ». Des applications de deepfakes sexuels continuent d’apparaitre dans les pubs de la boutique.

Les boutiques mobiles ne respectent pas leurs propres règles

Interpellé, Google a annoncé que la plupart des applications identifiées par l’enquête avaient été suspendues (7 ont été supprimées), et que le renforcement des règles sur le Play Store était en cours. Apple n’a pas publiquement répondu à TTP, mais a tout de même supprimé 15 apps litigieuses suite à la publication de l’enquête. Nos propres recherches sur l’App Store (sur un iPhone en région États-Unis en anglais, avec un VPN basé aux États-Unis) ne retournent aucun résultat sur plusieurs des termes testés par TTP comme « nudify », « deepnude » ou « AI NSFW ». En revanche, le moteur de recherche propose bien plusieurs applications avec le terme, plus générique, de « deepfake ».

Les conclusions de l’enquête sont sans appel. L’App Store et le Play Store ne respectent manifestement pas les règles édictées par Apple et Google : « les moteurs de recherche et la publicité mettent activement en avant ces applications », assène le TTP. Et les boutiques génèrent des revenus à partir de ces apps.

Même si les deux entreprises ont supprimé quelques apps, leur position demeure pour le moins ambiguë, comme on l’a encore vu avec Grok et X qui ont facilité la création et la diffusion d’images dénudées de jeunes filles et de femmes, et leur diffusion. Leurs applications respectives sont restées en ligne sur les boutiques mobiles, malgré le scandale et la pression réglementaire.

Fuite chez Rockstar : la poule aux œufs d’or de GTA Online

16 avril 2026 à 08:08
Le braco tourne à l'avantage de Take-Two
Fuite chez Rockstar : la poule aux œufs d’or de GTA Online

Take-Two peut remercier les hackers. Des données confidentielles du studio Rockstar, filiale de l’éditeur, ont fuité suite à une cyberattaque à quelques mois du lancement de GTA 6. Ces informations rendues publiques ont donné un coup d’accélérateur à l’action du groupe.

Rockstar, qui met actuellement la dernière touche à GTA 6 avant son lancement très attendu le 19 novembre, a été victime d’une fuite de données confirmée le 11 avril par l’entreprise. Le groupe de pirates ShinyHunters a obtenu l’accès à des serveurs opérés par Snowflake, via une faille du service de détection d’anomalies dans le cloud Anodot. Les hackers en ont profité pour mettre la main sur un maximum de données confidentielles.

13 ans plus tard, GTA Online rapporte toujours autant

Les pirates ont laissé jusqu’au 14 avril à Rockstar pour payer une rançon, avant que les informations en question soient mises en ligne et accessibles au public. Le studio a reconnu qu’une « quantité limitée d’informations internes non sensibles » avaient été « consultées ». Un incident qui n’a « aucun impact sur notre organisation ni sur nos joueurs ». 

Manifestement, aucune rançon n’a été versée, puisque ces données ont été livrées en pâture sur le site de ShinyHunters. Certains pouvaient peut-être espérer des informations juteuses et inédites sur le prochain volet de GTA, mais comme les hackers l’avaient annoncé, il s’agit surtout d’analyses utilisées pour surveiller les services en ligne des jeux Rockstar (Grand Theft Auto Online et Red Dead Online) : indicateurs de revenus et de ventes, éléments de suivi du comportement des joueurs, infos sur l’économie des jeux, tests de modèles anti-triche.

Rien qui ne vende du rêve, mais des informations tout de même très intéressantes du point de vue financier. Kotaku a compilé les principales révélations de ces fuites et surprise : les jeux Rockstar rapportent beaucoup d’argent ! On apprend ainsi que GTA Online a engrangé près de 500 millions de dollars entre septembre 2025 et avril 2026, soit en moyenne 9,6 millions de dollars par semaine. Pas si mal pour un jeu sorti en 2013… Le studio apporte régulièrement du contenu frais pour occuper les joueurs (et leur vendre toutes sortes de babioles).

Comme tous les jeux service, la bonne fortune de GTA Online repose sur une poignée de joueurs fortunés : 4 % seulement de l’ensemble des joueurs dépensent de l’argent dans le jeu.

Take-Two ramasse la mise

Red Dead Online fait figure de tout petit Poucet à côté, avec 26,4 millions de dollars sur la même période (507 000 dollars par semaine en moyenne). La version en ligne de Red Dead Redemption bénéficie de beaucoup moins d’attention de la part de Rockstar qui se contente du service minimum, principalement de la maintenance technique.

Autre enseignement : les joueurs PS5 sont surreprésentés dans GTA Online. On en dénombre environ 3,4 millions d’actifs chaque semaine, qui rapportent 4,5 millions de dollars. Derrière, ce sont les joueurs Xbox Series X qui dépensent le plus (1,9 million), même s’ils sont moins nombreux (1,1 million) que les joueurs PS4 (1,9 million). Ces derniers dépensent un peu moins d’1 million par semaine. La Xbox One suit avec 1 million de joueurs pour 920 000 dollars. Les quelque 900 000 joueurs PC sont bons derniers avec 260 000 dollars seulement. On comprend mieux pourquoi Take-Two, l’éditeur de Rockstar, n’est pas pressé d’annoncer une version PC de GTA 6.

Toutes ces informations n’auraient jamais dû fuiter évidemment, mais Take-Two ne s’en plaindra probablement pas : le cours de l’action du groupe a en effet grimpé de près de 5 % suite à la divulgation de ces données… Les investisseurs ont sans doute apprécié à leur juste valeur la bonne santé de GTA Online et parié que la (probable) déclinaison en ligne de GTA 6 s’annonçait tout aussi fructueuse.

Fuite chez Rockstar : la poule aux œufs d’or de GTA Online

16 avril 2026 à 08:08
Le braco tourne à l'avantage de Take-Two
Fuite chez Rockstar : la poule aux œufs d’or de GTA Online

Take-Two peut remercier les hackers. Des données confidentielles du studio Rockstar, filiale de l’éditeur, ont fuité suite à une cyberattaque à quelques mois du lancement de GTA 6. Ces informations rendues publiques ont donné un coup d’accélérateur à l’action du groupe.

Rockstar, qui met actuellement la dernière touche à GTA 6 avant son lancement très attendu le 19 novembre, a été victime d’une fuite de données confirmée le 11 avril par l’entreprise. Le groupe de pirates ShinyHunters a obtenu l’accès à des serveurs opérés par Snowflake, via une faille du service de détection d’anomalies dans le cloud Anodot. Les hackers en ont profité pour mettre la main sur un maximum de données confidentielles.

13 ans plus tard, GTA Online rapporte toujours autant

Les pirates ont laissé jusqu’au 14 avril à Rockstar pour payer une rançon, avant que les informations en question soient mises en ligne et accessibles au public. Le studio a reconnu qu’une « quantité limitée d’informations internes non sensibles » avaient été « consultées ». Un incident qui n’a « aucun impact sur notre organisation ni sur nos joueurs ». 

Manifestement, aucune rançon n’a été versée, puisque ces données ont été livrées en pâture sur le site de ShinyHunters. Certains pouvaient peut-être espérer des informations juteuses et inédites sur le prochain volet de GTA, mais comme les hackers l’avaient annoncé, il s’agit surtout d’analyses utilisées pour surveiller les services en ligne des jeux Rockstar (Grand Theft Auto Online et Red Dead Online) : indicateurs de revenus et de ventes, éléments de suivi du comportement des joueurs, infos sur l’économie des jeux, tests de modèles anti-triche.

Rien qui ne vende du rêve, mais des informations tout de même très intéressantes du point de vue financier. Kotaku a compilé les principales révélations de ces fuites et surprise : les jeux Rockstar rapportent beaucoup d’argent ! On apprend ainsi que GTA Online a engrangé près de 500 millions de dollars entre septembre 2025 et avril 2026, soit en moyenne 9,6 millions de dollars par semaine. Pas si mal pour un jeu sorti en 2013… Le studio apporte régulièrement du contenu frais pour occuper les joueurs (et leur vendre toutes sortes de babioles).

Comme tous les jeux service, la bonne fortune de GTA Online repose sur une poignée de joueurs fortunés : 4 % seulement de l’ensemble des joueurs dépensent de l’argent dans le jeu.

Take-Two ramasse la mise

Red Dead Online fait figure de tout petit Poucet à côté, avec 26,4 millions de dollars sur la même période (507 000 dollars par semaine en moyenne). La version en ligne de Red Dead Redemption bénéficie de beaucoup moins d’attention de la part de Rockstar qui se contente du service minimum, principalement de la maintenance technique.

Autre enseignement : les joueurs PS5 sont surreprésentés dans GTA Online. On en dénombre environ 3,4 millions d’actifs chaque semaine, qui rapportent 4,5 millions de dollars. Derrière, ce sont les joueurs Xbox Series X qui dépensent le plus (1,9 million), même s’ils sont moins nombreux (1,1 million) que les joueurs PS4 (1,9 million). Ces derniers dépensent un peu moins d’1 million par semaine. La Xbox One suit avec 1 million de joueurs pour 920 000 dollars. Les quelque 900 000 joueurs PC sont bons derniers avec 260 000 dollars seulement. On comprend mieux pourquoi Take-Two, l’éditeur de Rockstar, n’est pas pressé d’annoncer une version PC de GTA 6.

Toutes ces informations n’auraient jamais dû fuiter évidemment, mais Take-Two ne s’en plaindra probablement pas : le cours de l’action du groupe a en effet grimpé de près de 5 % suite à la divulgation de ces données… Les investisseurs ont sans doute apprécié à leur juste valeur la bonne santé de GTA Online et parié que la (probable) déclinaison en ligne de GTA 6 s’annonçait tout aussi fructueuse.

Recall de Windows 11 encore épinglé pour ses failles de sécurité

16 avril 2026 à 07:13
A feature, not a bug
Recall de Windows 11 encore épinglé pour ses failles de sécurité

Microsoft pensait avoir réglé tous les problèmes de Recall, mais peut-être pas. Annoncée en juin 2024, la fonction IA de Windows 11 a subi pratiquement un an de retard pour boucher de sérieux trous de sécurité. Elle est de nouveau sous le feu des projecteurs suite à la découverte d’un chercheur.

Recall, alias « Retrouver », est une fonction des PC Copilot+ qui permet de remettre la main sur n’importe quel document, page web, application ou tout autre information, en piochant dans l’historique de l’utilisateur. Elle réalise des captures d’écran à intervalles réguliers (« quelques secondes », indique Microsoft). Avec l’aide de modèles IA, elle analyse ensuite les images pour en extraire toutes les données exploitables.

Un édifice sécuritaire aux pieds d’argile

La fonction devait être lancée en 2024, mais très rapidement Recall a été la cible de critiques de la part des défenseurs de la vie privée, mais aussi des chercheurs en sécurité. Microsoft a dû remettre l’ouvrage sur le métier et repartir de zéro. Le chantier a mis près d’un an pour être achevé.

Microsoft a profondément revu l’architecture de sécurité de la fonction. Les données sont désormais stockées dans une enclave sécurisée, isolée du reste du système, et chiffrées de bout en bout. L’accès est conditionné par une authentification Windows Hello, censée empêcher tout logiciel malveillant de profiter de la session de l’utilisateur pour accéder aux informations. 

Recall n’est par ailleurs plus activé par défaut, et exclut de sa base de données des informations sensibles comme les identifiants bancaires. Tout n’est pas parfait pour autant. Alexander Hagenah, chercheur en sécurité, avait démontré avec son outil – baptisé… TotalRecall, évidemment – qu’il était très simple de récupérer des informations sur n’importe quel PC avec Recall première génération.

Il récidive avec TotalRecall Reloaded, disponible sur GitHub : cette nouvelle version montre qu’il est possible d’injecter du code (une bibliothèque DLL) dans AIXHost.exe, le processus Windows chargé d’afficher la chronologie de Recall. Le programme est en mesure d’accéder aux données déchiffrées (captures d’écran, texte extrait par OCR, métadonnées) au moment où elles sont manipulées par le système.

L’attaque ne nécessite pas de droits d’administrateur, ni d’exploitation complexe. Il suffit d’un simple logiciel pour intercepter ces informations, à condition toutefois qu’une authentification Windows Hello ait eu lieu au préalable (empreinte digitale, scan facial, code de déverrouillage). Pour le chercheur, le système de protection mis en place par Microsoft est « réel », mais il s’arrête trop tôt.

TotalRecall Reloaded est également en mesure de récupérer la dernière capture d’écran réalisée par Recall, cette fois sans passer par Windows Hello, ou même d’effacer complètement l’historique.

« Lorsque vous utilisez Recall normalement, TotalRecall Reloaded laisse discrètement la porte ouverte derrière vous, puis extrait tout ce que la fonction a enregistré. C’est précisément ce type de scénario que l’architecture de Microsoft est censée empêcher. »

Le problème ne vient pas de l’enclave, qualifiée de « solide », ni du modèle d’authentification. Pour Alexander Hagenah, « ce n’est pas le chiffrement, ni l’enclave, ni l’authentification qui posent problème, mais le fait que les données déchiffrées soient transmises à un processus non protégé ». Le souci, c’est que le système transmet les données de Recall au processus AIXHost.exe qui ne bénéficie pas du même niveau de sécurité.

Il n’y a pas de vulnérabilité, selon Microsoft

Alexander Hagenah a alerté Microsoft début mars, mais l’éditeur a fermé le dossier en expliquant qu’il ne s’agissait pas d’une vulnérabilité. « Après un examen approfondi, nous avons déterminé que les modes d’accès observés sont conformes aux protections prévues et aux contrôles existants », détaille l’éditeur à The Verge. Ces modes « ne constituent pas un contournement d’une barrière de sécurité ni un accès non autorisé aux données. » 

Microsoft ajoute que la période d’autorisation pour accéder aux données de Recall est limitée dans le temps et que le système intègre des protections contre les requêtes répétées. Mais pour le chercheur, le délai d’expiration est neutralisé, et surtout « [le] principal problème reste le fait qu’ils affirment, dans leur annonce officielle, que l’enclave empêche un “malware latent de se greffer” — ce qui n’est clairement pas le cas. »

Pour Microsoft, il s’agit d’un comportement normal de Windows : un logiciel avec les droits utilisateur, ce qui est le cas après une authentification, peut injecter du code dans un autre logiciel. C’est une souplesse qui peut se justifier pour des besoins légitimes, mais cela ouvre aussi la porte à des abus potentiels. Et la nature même de Recall, qui collecte un grand nombre de données, en fait une cible particulièrement attractive.

Recall pourrait cependant faire l’objet de nouveaux et profonds changements. La fonction, « dans sa forme actuelle, a échoué », auraient affirmé des sources internes en février dernier. Microsoft n’envisagerait pas un abandon, mais une évolution du concept.

Recall de Windows 11 encore épinglé pour ses failles de sécurité

16 avril 2026 à 07:13
A feature, not a bug
Recall de Windows 11 encore épinglé pour ses failles de sécurité

Microsoft pensait avoir réglé tous les problèmes de Recall, mais peut-être pas. Annoncée en juin 2024, la fonction IA de Windows 11 a subi pratiquement un an de retard pour boucher de sérieux trous de sécurité. Elle est de nouveau sous le feu des projecteurs suite à la découverte d’un chercheur.

Recall, alias « Retrouver », est une fonction des PC Copilot+ qui permet de remettre la main sur n’importe quel document, page web, application ou tout autre information, en piochant dans l’historique de l’utilisateur. Elle réalise des captures d’écran à intervalles réguliers (« quelques secondes », indique Microsoft). Avec l’aide de modèles IA, elle analyse ensuite les images pour en extraire toutes les données exploitables.

Un édifice sécuritaire aux pieds d’argile

La fonction devait être lancée en 2024, mais très rapidement Recall a été la cible de critiques de la part des défenseurs de la vie privée, mais aussi des chercheurs en sécurité. Microsoft a dû remettre l’ouvrage sur le métier et repartir de zéro. Le chantier a mis près d’un an pour être achevé.

Microsoft a profondément revu l’architecture de sécurité de la fonction. Les données sont désormais stockées dans une enclave sécurisée, isolée du reste du système, et chiffrées de bout en bout. L’accès est conditionné par une authentification Windows Hello, censée empêcher tout logiciel malveillant de profiter de la session de l’utilisateur pour accéder aux informations. 

Recall n’est par ailleurs plus activé par défaut, et exclut de sa base de données des informations sensibles comme les identifiants bancaires. Tout n’est pas parfait pour autant. Alexander Hagenah, chercheur en sécurité, avait démontré avec son outil – baptisé… TotalRecall, évidemment – qu’il était très simple de récupérer des informations sur n’importe quel PC avec Recall première génération.

Il récidive avec TotalRecall Reloaded, disponible sur GitHub : cette nouvelle version montre qu’il est possible d’injecter du code (une bibliothèque DLL) dans AIXHost.exe, le processus Windows chargé d’afficher la chronologie de Recall. Le programme est en mesure d’accéder aux données déchiffrées (captures d’écran, texte extrait par OCR, métadonnées) au moment où elles sont manipulées par le système.

L’attaque ne nécessite pas de droits d’administrateur, ni d’exploitation complexe. Il suffit d’un simple logiciel pour intercepter ces informations, à condition toutefois qu’une authentification Windows Hello ait eu lieu au préalable (empreinte digitale, scan facial, code de déverrouillage). Pour le chercheur, le système de protection mis en place par Microsoft est « réel », mais il s’arrête trop tôt.

TotalRecall Reloaded est également en mesure de récupérer la dernière capture d’écran réalisée par Recall, cette fois sans passer par Windows Hello, ou même d’effacer complètement l’historique.

« Lorsque vous utilisez Recall normalement, TotalRecall Reloaded laisse discrètement la porte ouverte derrière vous, puis extrait tout ce que la fonction a enregistré. C’est précisément ce type de scénario que l’architecture de Microsoft est censée empêcher. »

Le problème ne vient pas de l’enclave, qualifiée de « solide », ni du modèle d’authentification. Pour Alexander Hagenah, « ce n’est pas le chiffrement, ni l’enclave, ni l’authentification qui posent problème, mais le fait que les données déchiffrées soient transmises à un processus non protégé ». Le souci, c’est que le système transmet les données de Recall au processus AIXHost.exe qui ne bénéficie pas du même niveau de sécurité.

Il n’y a pas de vulnérabilité, selon Microsoft

Alexander Hagenah a alerté Microsoft début mars, mais l’éditeur a fermé le dossier en expliquant qu’il ne s’agissait pas d’une vulnérabilité. « Après un examen approfondi, nous avons déterminé que les modes d’accès observés sont conformes aux protections prévues et aux contrôles existants », détaille l’éditeur à The Verge. Ces modes « ne constituent pas un contournement d’une barrière de sécurité ni un accès non autorisé aux données. » 

Microsoft ajoute que la période d’autorisation pour accéder aux données de Recall est limitée dans le temps et que le système intègre des protections contre les requêtes répétées. Mais pour le chercheur, le délai d’expiration est neutralisé, et surtout « [le] principal problème reste le fait qu’ils affirment, dans leur annonce officielle, que l’enclave empêche un “malware latent de se greffer” — ce qui n’est clairement pas le cas. »

Pour Microsoft, il s’agit d’un comportement normal de Windows : un logiciel avec les droits utilisateur, ce qui est le cas après une authentification, peut injecter du code dans un autre logiciel. C’est une souplesse qui peut se justifier pour des besoins légitimes, mais cela ouvre aussi la porte à des abus potentiels. Et la nature même de Recall, qui collecte un grand nombre de données, en fait une cible particulièrement attractive.

Recall pourrait cependant faire l’objet de nouveaux et profonds changements. La fonction, « dans sa forme actuelle, a échoué », auraient affirmé des sources internes en février dernier. Microsoft n’envisagerait pas un abandon, mais une évolution du concept.

Le fabricant de chaussures Allbirds change de pied et devient… un fournisseur d’IA

16 avril 2026 à 06:26
Coup de pompe
Le fabricant de chaussures Allbirds change de pied et devient… un fournisseur d’IA

Le 1er avril étant passé, on peut exclure la mauvaise blague. L’entreprise californienne Allbirds a décidé de changer de cœur de métier en devenant fournisseur d’infrastructures IA. De prime abord, rien de très surprenant au vu de la ruée vers l’or actuelle dans ce secteur. Sauf que Allbirds était depuis sa création en 2015 un fabricant de… chaussures.

L’entreprise est ainsi connue pour ses baskets Wool Runner, son design minimaliste et un positionnement écolo. Son introduction en Bourse de 2021 lui a permis d’atteindre des sommets, avec une capitalisation atteignant 4 milliards de dollars. La chute a été brutale et rapide, non seulement pour l’action, qui vivote depuis des années sous le seuil des 10 dollars, mais aussi pour les ventes qui ont commencé à reculer dès 2022.

Les chaussures mènent vraiment à tout

Ajoutez à cela une mutinerie des actionnaires en mai 2023 contre la stratégie de diversification de l’entreprise. La plainte n’a débouché sur rien de concret (elle a finalement été rejetée en février 2026), mais la confiance était irrémédiablement brisée. Tout comme l’activité du fabricant, qui à partir de 2023 a commencé à fermer des magasins. Il ne restait plus que 4 boutiques Allbirds aux États-Unis et au Royaume-Uni fin février.

À la fin du mois dernier, l’entreprise a cédé ses actifs à American Exchange Group, une société spécialisée dans les accessoires et les licences de marque, pour la modique somme de 39 millions de dollars. Très loin des sommets boursiers d’il y a quelques années… 

La coquille vide qu’est devenue Allbirds a donc décidé un pivot radical : passer des chaussures à la fourniture d’infrastructures de calcul pour l’IA ! La société, qui au passage change de nom pour devenir NewBird AI, va proposer des services de types « GPU-as-a-Service », autrement dit de la location de puissance de calcul histoire de profiter de la demande explosive actuelle.

L’action Allbirds devient un memestock

Rien à voir avec des baskets, donc. Et au passage, l’entreprise tourne le dos à ses engagements écolo. Les actionnaires vont en effet devoir se prononcer sur la suppression de toute référence à un objectif d’intérêt public en matière de protection de l’environnement… Une orientation effectivement difficile à concilier avec l’exploitation de centres de données.

Un accord avec un investisseur institutionnel (non cité) a été signé pour une ligne de financement de 50 millions de dollars, avec une finalisation attendue pour le deuxième trimestre. Au vu des prix actuels des serveurs et de la demande exponentielle en GPU, c’est presque de l’argent de poche qui ne permettra pas à NewBird d’aller très loin.

La société peut toutefois se réjouir d’avoir au moins ponctuellement trouvé de l’argent frais sur les marchés : l’annonce a en effet donné un sérieux coup d’accélérateur à l’action, qui a pris plus de 700 % à Wall Street ! Un vent spéculatif caractéristique de l’engouement autour de l’IA mais qui ne repose sur rien de tangible, faisant entrer l’action Allbirds dans la famille des memestocks (« actions mèmes »), l’équivalent boursier des memecoins du monde crypto.

L’embellie du cours risque donc de n’être que passagère, cette annonce ressemblant surtout à un coup pour grappiller l’argent fou qui circule dans l’industrie de l’IA. Dans ce domaine, Allbirds adapte à sa sauce la formule des entreprises de minage de bitcoins voulant surfer sur la hype IA et qui convertissent leurs infrastructures pour entraîner des modèles. Mais n’est-ce pas courir à sa perte ?

Le fabricant de chaussures Allbirds change de pied et devient… un fournisseur d’IA

16 avril 2026 à 06:26
Coup de pompe
Le fabricant de chaussures Allbirds change de pied et devient… un fournisseur d’IA

Le 1er avril étant passé, on peut exclure la mauvaise blague. L’entreprise californienne Allbirds a décidé de changer de cœur de métier en devenant fournisseur d’infrastructures IA. De prime abord, rien de très surprenant au vu de la ruée vers l’or actuelle dans ce secteur. Sauf que Allbirds était depuis sa création en 2015 un fabricant de… chaussures.

L’entreprise est ainsi connue pour ses baskets Wool Runner, son design minimaliste et un positionnement écolo. Son introduction en Bourse de 2021 lui a permis d’atteindre des sommets, avec une capitalisation atteignant 4 milliards de dollars. La chute a été brutale et rapide, non seulement pour l’action, qui vivote depuis des années sous le seuil des 10 dollars, mais aussi pour les ventes qui ont commencé à reculer dès 2022.

Les chaussures mènent vraiment à tout

Ajoutez à cela une mutinerie des actionnaires en mai 2023 contre la stratégie de diversification de l’entreprise. La plainte n’a débouché sur rien de concret (elle a finalement été rejetée en février 2026), mais la confiance était irrémédiablement brisée. Tout comme l’activité du fabricant, qui à partir de 2023 a commencé à fermer des magasins. Il ne restait plus que 4 boutiques Allbirds aux États-Unis et au Royaume-Uni fin février.

À la fin du mois dernier, l’entreprise a cédé ses actifs à American Exchange Group, une société spécialisée dans les accessoires et les licences de marque, pour la modique somme de 39 millions de dollars. Très loin des sommets boursiers d’il y a quelques années… 

La coquille vide qu’est devenue Allbirds a donc décidé un pivot radical : passer des chaussures à la fourniture d’infrastructures de calcul pour l’IA ! La société, qui au passage change de nom pour devenir NewBird AI, va proposer des services de types « GPU-as-a-Service », autrement dit de la location de puissance de calcul histoire de profiter de la demande explosive actuelle.

L’action Allbirds devient un memestock

Rien à voir avec des baskets, donc. Et au passage, l’entreprise tourne le dos à ses engagements écolo. Les actionnaires vont en effet devoir se prononcer sur la suppression de toute référence à un objectif d’intérêt public en matière de protection de l’environnement… Une orientation effectivement difficile à concilier avec l’exploitation de centres de données.

Un accord avec un investisseur institutionnel (non cité) a été signé pour une ligne de financement de 50 millions de dollars, avec une finalisation attendue pour le deuxième trimestre. Au vu des prix actuels des serveurs et de la demande exponentielle en GPU, c’est presque de l’argent de poche qui ne permettra pas à NewBird d’aller très loin.

La société peut toutefois se réjouir d’avoir au moins ponctuellement trouvé de l’argent frais sur les marchés : l’annonce a en effet donné un sérieux coup d’accélérateur à l’action, qui a pris plus de 700 % à Wall Street ! Un vent spéculatif caractéristique de l’engouement autour de l’IA mais qui ne repose sur rien de tangible, faisant entrer l’action Allbirds dans la famille des memestocks (« actions mèmes »), l’équivalent boursier des memecoins du monde crypto.

L’embellie du cours risque donc de n’être que passagère, cette annonce ressemblant surtout à un coup pour grappiller l’argent fou qui circule dans l’industrie de l’IA. Dans ce domaine, Allbirds adapte à sa sauce la formule des entreprises de minage de bitcoins voulant surfer sur la hype IA et qui convertissent leurs infrastructures pour entraîner des modèles. Mais n’est-ce pas courir à sa perte ?

Reçu — 15 avril 2026 Actualités numériques

☕️ Patch tuesday : Microsoft bouche 165 failles de sécurité

15 avril 2026 à 15:42


Puisqu’il ne reste plus de bugs (connus) dans Windows 11, les ingénieurs de Microsoft ont tout loisir de boucher les vulnérabilités dans leurs différents logiciels. Ils ne s’en privent pas : à l’échelle du vaste catalogue produit de l’éditeur, le dernier patch tuesday contient la bagatelle de 165 correctifs de sécurité. La volumétrie pour avril surpasse largement les mois précédents : Microsoft publiait 97 avis en mars, 61 en février, et 124 en janvier.

On dénombre dans le lot 8 vulnérabilités critiques : 7 permettent d’exécuter du code à distance, 1 est un déni de service, déchiffre Bleeping Computer. Le lot comprend aussi deux correctifs pour des failles « zero-day » : CVE-2026-32201 a déjà été exploitée dans des attaques, CVE-2026-33825 avait été rendue publique avant le correctif. 

La première zero-day, exploitée activement, concerne SharePoint Server, elle permet à un malandrin de se faire passer pour quelqu’un d’autre et d’accéder à des informations sensibles. La seconde, qui touche Microsoft Defender, permet une élévation de privilèges jusqu’au niveau le plus élevé sur Windows (SYSTEM). Le correctif est déployé automatiquement via une mise à jour de la plateforme de sécurité.

Plusieurs failles d’exécution de code à distance touchant Office (en particulier Word et Excel) sont également au menu de cette livraison. Les pirates peuvent exploiter ces failles dès que leurs victimes ouvrent des fichiers malveillants comme des pièces jointes. Il est (évidemment) fortement recommandé d’appliquer ces mises à jour sans tarder.

☕️ Patch tuesday : Microsoft bouche 165 failles de sécurité

15 avril 2026 à 15:42


Puisqu’il ne reste plus de bugs (connus) dans Windows 11, les ingénieurs de Microsoft ont tout loisir de boucher les vulnérabilités dans leurs différents logiciels. Ils ne s’en privent pas : à l’échelle du vaste catalogue produit de l’éditeur, le dernier patch tuesday contient la bagatelle de 165 correctifs de sécurité. La volumétrie pour avril surpasse largement les mois précédents : Microsoft publiait 97 avis en mars, 61 en février, et 124 en janvier.

On dénombre dans le lot 8 vulnérabilités critiques : 7 permettent d’exécuter du code à distance, 1 est un déni de service, déchiffre Bleeping Computer. Le lot comprend aussi deux correctifs pour des failles « zero-day » : CVE-2026-32201 a déjà été exploitée dans des attaques, CVE-2026-33825 avait été rendue publique avant le correctif. 

La première zero-day, exploitée activement, concerne SharePoint Server, elle permet à un malandrin de se faire passer pour quelqu’un d’autre et d’accéder à des informations sensibles. La seconde, qui touche Microsoft Defender, permet une élévation de privilèges jusqu’au niveau le plus élevé sur Windows (SYSTEM). Le correctif est déployé automatiquement via une mise à jour de la plateforme de sécurité.

Plusieurs failles d’exécution de code à distance touchant Office (en particulier Word et Excel) sont également au menu de cette livraison. Les pirates peuvent exploiter ces failles dès que leurs victimes ouvrent des fichiers malveillants comme des pièces jointes. Il est (évidemment) fortement recommandé d’appliquer ces mises à jour sans tarder.

❌