Vue normale

Deepfakes pornographiques : Apple a menacé de suspendre X de son App Store

15 avril 2026 à 14:56
Généré X
Deepfakes pornographiques : Apple a menacé de suspendre X de son App Store

En janvier, Apple a participé à la pression mise sur xAI et Grok pour les obliger à freiner la production de deepfakes dénudés non consentis. Depuis, néanmoins, la génération de ce type d’image reste possible sur les deux plateformes.

Après la vague de contenus pornographiques générés à l’aide de Grok, le plus souvent à partir de l’image de filles et de femmes réelles, à la fin de l’année 2025, le système d’IA et le réseau social X se sont retrouvés sous le feu des projecteurs. Malgré l’ouverture d’enquêtes sur cinq continents, et notamment par la Commission de protection des données irlandaise, la Commission européenne ou la justice française, et l’interdiction de Grok dans certains pays, dont l’Indonésie et la Malaisie, la plateforme semble n’avoir toujours pas réduit la portée de ce type de fonctionnalité.

Aux États-Unis, c’est même un autre acteur de l’écosystème numérique qui a menacé X d’une forme de sanction : d’après NBC News, Apple a menacé la société de supprimer l’application de l’App Store en janvier. D’après un document envoyé aux sénateurs états-uniens, l’entreprise a contacté les équipes X et Grok en leur demandant de « créer un plan d’amélioration de leur modération de contenu ». Au sommet de la crise, fin 2025, la vague de publications de deepfakes pornographiques (qu’il était à l’époque possible de produire simplement depuis un compte gratuit sur X, en se contentant de mentionner le robot Grok) entrait en violation flagrante des conditions d’utilisation de l’App Store.

Relative mise au pas de X

Mi-janvier, devant la polémique internationale créée par la multiplication de contenus non consensuels, tombant parfois dans la catégorisation de contenus d’agressions sexuelles sur mineurs (Child Sexual Abuse Material, CSAM), le compte X dédié à la sécurité de la plateforme avait publié un message selon lequel l’entreprise s’engageait, précisément, à « prendre des mesures pour supprimer les contenus illicites hautement prioritaires, notamment les contenus pédopornographiques et la nudité non consentie ».

Auprès des sénateurs, Apple indique avoir étudié les évolutions proposées pour les applications de X et Grok. Elle en a conclu que si X avait « largement résolu ses violations », Grok restait « non conforme » aux politiques du magasin d’application. Ses équipes ont donc alerté les fabricants du robot qu’à défaut d’amélioration, « l’application pourrait être supprimée de l’App Store ». Au bout de plusieurs échanges privés, les deux sociétés sont parvenues à un accord.

Grok persiste à produire des deepfakes pornographiques sur demande

Malgré ces engagements, NBC News constate ce 14 avril que des dizaines d’images à caractère sexuel, générées par IA mais représentant des personnes réelles continuaient d’être publiquement publiées sur X. Dans la plupart des cas, les personnes représentées sont des femmes – quoique des hommes puissent aussi être représentés –, souvent des actrices, des pop stars ou des personnalités politiques.

Certaines évolutions ont bien été déployées : par exemple, Grok refuse désormais l’essentiel des demandes de « dénudage » formulées publiquement, en particulier lorsqu’elles reprennent des tactiques éprouvées. Ainsi, demander à la machine de « mettre en bikini » l’image d’une personne reste généralement sans réponse. La somme globale d’images non consensuelles générées a par ailleurs réduit et aucune des images collectées par NBC (puis soumises à X, qui les a modérées) ne semble représenter des mineurs. 

Pour autant, d’autres types de requêtes que celles repérées par X permettent de continuer de produire les images problématiques. Certaines tendances jouent ainsi sur le mélange de plusieurs images, demandant par exemple à Grok d’intervertir des vêtements, en s’appuyant sur au moins une image de femme quasiment dévêtue.

Ces constatations sont faites alors que la prolifération de contenus de CSAM générés par IA et les risques que les grands modèles de langage créent en termes de violence contre les femmes et les filles sont de plus en plus documentés (sur une expérimentation menée pendant 11 jours en janvier, le Center for Countering Digital Hate calculait que Grok générait en moyenne une image sexualisée d’enfant toutes les 41 secondes).

Quoiqu’il en soit, X semble envisager de revenir sur ses promesses formulées début janvier en matière de protection des internautes : lors d’un procès tenu aux Pays-Bas, X a déclaré ne pas être capable d’arrêter tous les détournements de ses outils à des fins d’agressions et ne pas devoir être pénalisé pour les actions d’utilisateurs malveillants. Le tribunal a néanmoins ordonné à xAI et à Grok de cesser la création et la distribution de contenus de « nudification » généré par IA, et menacé l’entreprise d’une amende de 100 000 euros par jour de non mise en conformité.

Face à un public inquiet, l’IA continue son expansion à grande vitesse

15 avril 2026 à 11:40
Enthousiasme variable
Face à un public inquiet, l’IA continue son expansion à grande vitesse

L’AI Index 2026 de l’Institute for Human-Centered Artificial Intelligence décrit une industrie de l’IA en croissance ultra-rapide, mais qui distance au passage les travaux dédiés à la sécurisation de ces technologies. Quand bien même les usages se répandent, elle peine par ailleurs à remporter l’adhésion de l’opinion publique.

Les investissements dans l’intelligence artificielle continuent d’exploser, tandis que ses effets sur les emplois, et surtout sur l’opinion publique, restent (très) mitigés. Tels sont certains des constats dressés dans le dernier AI Index.

Globalement, l’édition 2026 de ce travail publié chaque année par l’Institute for Human-Centered Artificial Intelligence de l’université de Stanford dessine l’image d’une industrie qui va très vite, tandis que le reste du monde peine à suivre.

L’écart Chine-US disparaît

Dans le type de technologies déployées, cela se traduit à la fois par l’amélioration continue des modèles de pointe, par la manière dont la Chine a réussi à rattraper les États-Unis en termes de performance, mais aussi par l’explosion du nombre d’incidents constatés au fil des années récentes, alors que le domaine de « l’IA responsable » s’est peu à peu fait distancer.

Évolution des incidents relevés dans l’AI Incident Database. / Capture d’écran AI Index

En termes économiques, si les revenus des entreprises d’IA continuent de croître très rapidement, ils restent grevés par les coûts d’infrastructure et de calcul, qui atteignent leurs propres records.

Évolution des dépenses (estimation) des deux leaders du secteurs que sont OpenAI et Anthropic en milliards de dollars. / Capture d’écran AI Index

L’empreinte environnementale du secteur s’étend de manière concomitante : les émissions liées à l’entraînement de Grok 4 sont ainsi estimées à 72 816 tonnes d’équivalent CO₂, la consommation annuelle en eau liée à l’inférence (opérations réalisées lorsque le modèle est sollicité) de GPT-4o pourrait dépasser à elle seule les besoins en eau potable de 12 millions de personnes.

Du point de vue des résultats des modèles, ceux dédiés à la génération d’image deviennent peu à peu en mesure de représenter la manière dont des objets évoluent (par exemple : représenter les vaguelettes provoquées par le fait de lancer un objet dans de l’eau), mais certains paradoxes subsistent. Un modèle comme Gemini Deep Think peut ainsi remporter une médaille d’or (35 points) aux Olympiades internationales de mathématique, mais reste incapable de donner l’heure, comme la plupart des grands modèles de langage.

Côté robotique, la Chine se démarque comme le pays qui a déployé en 2025 le plus de robots industriels (plus que tout le reste du monde), au point de compter 54 % de ces outils à l’échelle internationale. Si ces dispositifs fonctionnent très bien dans des environnements contrôlés, relève l’AI Index, ils continuent de rester à la traine dans des tâches quotidiennes, ne parvenant à remplir que 12 % de tâches ménagères.

Un intérêt croissant pour les utilisateurs

Aux États-Unis, l’AI Index estime que la valeur dégagée par les consommateurs était de 172 milliards de dollars sur un an début 2026, contre 112 milliards de dollars l’année précédente, sachant que l’essentiel des outils utilisés par le public restent quasiment gratuits.


Il reste 60% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Entre la chaise et le clavier dépasse les 50 000 écoutes !

15 avril 2026 à 09:01


En septembre 2024, Next se lançait dans une nouvelle aventure : la production audio. Un an et demi plus tard, après deux séries thématiques et un cycle de grands entretiens, les podcasts de Next ont dépassé les 50 500 téléchargements.

Car Entre la chaise et le clavier, c’est un podcast qui a avancé par expérimentations. Alors que l’intelligence artificielle générative avait fait irruption depuis moins d’un an dans les pratiques du grand public, nous nous sommes lancés dans la série Algorithmique, pour mieux comprendre les enjeux que ce chamboulement technologique provoquait sur la société, le climat, la régulation, etc.

L’année suivante, alors que les géants du numérique délaissaient leurs objectifs climatiques pour se lancer dans une course à l’obtention de l’énergie nécessaire pour alimenter leurs infrastructures, nous avons publié Écosystème. En sept épisodes, il s’agissait d’étudier les effets concrets de l’industrie du numérique sur la planète, sur le recyclage, et même sur certaines logiques politiques d’adaptation à l’urgence environnementale.

Il y a quelques mois, nous avons intégré ces travaux à Entre la chaise et le clavier (promis, après ça, on ne change plus de nom !), devenu vaste collection d’entretiens pour mieux comprendre les effets des évolutions technologiques sur la société.

« Entre la chaise et le clavier », c’est le lieu où l’on propose quelquefois de chercher, lorsqu’on ne trouve pas de cause technique au dernier bug ou à la dernière fuite de données. L’expression sert à désigner l’endroit où se logent les failles que la rétro-ingénierie ne permet pas d’expliquer, ce mince espace d’où filtrent, parfois, des mots de passe qui auraient dû être soigneusement chiffrés, des erreurs qu’à aucun moment le fonctionnement normal de nos outils informatiques n’aurait dû engendrer.

Ce lieu, en réalité, désigne des personnes : vous, nous, le patron d’une société du CAC 40, l’entrepreneuse qui a « monté sa start-up from scratch », votre grand-père. Les internautes. C’est à ces derniers, qu’ils et elles soient spécialistes ou citoyens engagés, que Next a choisi de tendre le micro.

Et en ce joyeux mois d’avril, vous avez désormais écouté plus de 50 000 fois ces travaux, réalisés chaque fois avec l’aide de Clarice Horn à la réalisation et de Flock aux illustrations.

Merci pour votre écoute !

Continuez de faire connaître Entre la chaise et le clavier autour de vous !

Le 29 avril prochain, nous passerons un épisode aux côtés de la chercheuse en sciences de l’éducation et de la formation Rosa Maria Bortolotti, avec qui nous discuterons des usages des réseaux sociaux chez les jeunes.

Pour vous abonner, si ce n’est pas déjà fait, rendez-vous sur votre application de podcast favorite (par exemple Deezer, Podcast Addict, Spotify ou Apple Podcast). Et pour l’option flux RSS, c’est ici.

À très vite !

❌