Vue normale

IA : Thinking Machines présente un modèle qui réagit en direct à ce qu’on lui raconte

12 mai 2026 à 15:15
IAterrupting
IA : Thinking Machines présente un modèle qui réagit en direct à ce qu’on lui raconte

Avec TLM-Interaction-Small, Thinking Machines Lab affirme créer un nouveau type de modèle d’intelligence artificielle, plus interactif que les outils génératifs les plus connus.

Fondée par Mira Murati, l’ancienne directrice technique d’OpenAI, Thinking Machines Lab annonce vouloir créer un nouveau type de modèles d’intelligence artificielle, qu’elle qualifie de « modèles interactifs ». 



Dans un article de blog publié ce 11 mai, la société présente plusieurs cas d’usage de son modèle de travail, nommé TLM-Interaction-Small. Elle affirme vouloir rendre les échanges avec la machine plus vivants, plus proches de ceux constatés lors d’une conversation entre deux humains, que ce qu’il est pour le moment possible d’obtenir avec des modèles génératifs.

0,40 seconde de latence en « full duplex »

Créé en février 2025, Thinking Machines Lab levait 2 milliards de dollars dès le mois de juin pour s’atteler à ses projets d’intelligence artificielle. Depuis, la start-up a dû composer avec des départs notables, plusieurs de ses salariés ayant été recrutés par Meta le mois dernier. Début 2026, trois autres étaient retournés chez OpenAI.

Ces allers-retours ne semblent pas l’avoir empêché d’avancer sur ses modèles d’un nouveau genre. D’un point de vue technique, la société a nommé « full duplex » le mode de conversation qu’elle propose avec son modèle. Lorsqu’il est activé, TLM-Interaction-Small semble capable de répondre et de participer à une discussion avec plusieurs interlocuteurs, grâce à un temps de réponse de 0,40 seconde, ce qui se rapproche du rythme naturel de conversation humaine.

C’est aussi nettement plus rapide que le temps de latence des modèles génératifs grand public. Tant qu’ils calculent la réponse à donner à un prompt, ces derniers sont totalement coupés de l’internaute et de l’environnement dans lequel ils ont été lancés, indique la start-up. Avec ses modèles interactifs, c’est ce « goulet d’étranglement de la collaboration » qu’elle cherche à dépasser.

Parmi les cas concrets présentés par Thinking Machines Lab, son modèle propose de la traduction instantanée – de l’hindi vers l’anglais, par exemple, mais aussi en termes de style, d’un mode oratoire relâché, voire agressif, à un type de discours plus adapté au monde de l’entreprise. Interrogé par des utilisateurs, le modèle est par ailleurs capable de lancer une recherche en pleine discussion, voire d’en agencer les résultats sous forme de graphique si demandé.

Le modèle est aussi montré réagissant aux éléments de contexte visuels obtenus via une caméra, que ce soit pour alerter l’internaute s’il ou elle se voute devant son écran, ou le rappeler à l’ordre s’il semble faillir à son envie de caféine ou de sucre.

Un juste milieu entre IA générative et World Model ?

Globalement, le modèle interactif proposé par Thinking Machines Lab semble surtout être un modèle génératif capable de couper la parole, ironise TechCrunch. Impossible de le tester plus avant pour le moment : l’entreprise indique qu’elle publiera une « préversion de recherche » dans les « prochains mois », et vise une « sortie plus large plus tard dans l’année ».

Il faut encore attendre, donc, pour voir si le produit fini remplit les attentes fixées, notamment, par les bons résultats affichés aux différents benchmarks sur lesquels TLM-Interaction-Small a été testé.

Le système de Thinking Machines Lab semble offrir ce que les modèles génératifs déjà connus permettent déjà, mais il est plus orienté vers l’interaction avec le monde hors ligne qu’un ChatGPT ou un Midjourney.

C’est un entre-deux entre les modèles d’IA classiques et ce que veut proposer AMI Labs, la start-up co-fondée par Yann LeCun, l’ancien directeur scientifique de Meta, Laurent Solly l’ex-directeur de Meta France et Alexandre Lebrun, fondateur de la start-up de santé Nabla. L’ambition de la jeune pousse parisienne est de construire des modèles qui « comprennent le monde réel, le monde physique », en leur donnant des « modèles du monde ».

Les travaux de Thinking Machines Lab dessinent une nouvelle perspective dans la manière dont les sociétés occidentales envisagent l’intelligence artificielle, au-delà de l’accumulation de données pour améliorer les résultats.

IA : Thinking Machines présente un modèle qui réagit en direct à ce qu’on lui raconte

12 mai 2026 à 15:15
IAterrupting
IA : Thinking Machines présente un modèle qui réagit en direct à ce qu’on lui raconte

Avec TLM-Interaction-Small, Thinking Machines Lab affirme créer un nouveau type de modèle d’intelligence artificielle, plus interactif que les outils génératifs les plus connus.

Fondée par Mira Murati, l’ancienne directrice technique d’OpenAI, Thinking Machines Lab annonce vouloir créer un nouveau type de modèles d’intelligence artificielle, qu’elle qualifie de « modèles interactifs ». 



Dans un article de blog publié ce 11 mai, la société présente plusieurs cas d’usage de son modèle de travail, nommé TLM-Interaction-Small. Elle affirme vouloir rendre les échanges avec la machine plus vivants, plus proches de ceux constatés lors d’une conversation entre deux humains, que ce qu’il est pour le moment possible d’obtenir avec des modèles génératifs.

0,40 seconde de latence en « full duplex »

Créé en février 2025, Thinking Machines Lab levait 2 milliards de dollars dès le mois de juin pour s’atteler à ses projets d’intelligence artificielle. Depuis, la start-up a dû composer avec des départs notables, plusieurs de ses salariés ayant été recrutés par Meta le mois dernier. Début 2026, trois autres étaient retournés chez OpenAI.

Ces allers-retours ne semblent pas l’avoir empêché d’avancer sur ses modèles d’un nouveau genre. D’un point de vue technique, la société a nommé « full duplex » le mode de conversation qu’elle propose avec son modèle. Lorsqu’il est activé, TLM-Interaction-Small semble capable de répondre et de participer à une discussion avec plusieurs interlocuteurs, grâce à un temps de réponse de 0,40 seconde, ce qui se rapproche du rythme naturel de conversation humaine.

C’est aussi nettement plus rapide que le temps de latence des modèles génératifs grand public. Tant qu’ils calculent la réponse à donner à un prompt, ces derniers sont totalement coupés de l’internaute et de l’environnement dans lequel ils ont été lancés, indique la start-up. Avec ses modèles interactifs, c’est ce « goulet d’étranglement de la collaboration » qu’elle cherche à dépasser.

Parmi les cas concrets présentés par Thinking Machines Lab, son modèle propose de la traduction instantanée – de l’hindi vers l’anglais, par exemple, mais aussi en termes de style, d’un mode oratoire relâché, voire agressif, à un type de discours plus adapté au monde de l’entreprise. Interrogé par des utilisateurs, le modèle est par ailleurs capable de lancer une recherche en pleine discussion, voire d’en agencer les résultats sous forme de graphique si demandé.

Le modèle est aussi montré réagissant aux éléments de contexte visuels obtenus via une caméra, que ce soit pour alerter l’internaute s’il ou elle se voute devant son écran, ou le rappeler à l’ordre s’il semble faillir à son envie de caféine ou de sucre.

Un juste milieu entre IA générative et World Model ?

Globalement, le modèle interactif proposé par Thinking Machines Lab semble surtout être un modèle génératif capable de couper la parole, ironise TechCrunch. Impossible de le tester plus avant pour le moment : l’entreprise indique qu’elle publiera une « préversion de recherche » dans les « prochains mois », et vise une « sortie plus large plus tard dans l’année ».

Il faut encore attendre, donc, pour voir si le produit fini remplit les attentes fixées, notamment, par les bons résultats affichés aux différents benchmarks sur lesquels TLM-Interaction-Small a été testé.

Le système de Thinking Machines Lab semble offrir ce que les modèles génératifs déjà connus permettent déjà, mais il est plus orienté vers l’interaction avec le monde hors ligne qu’un ChatGPT ou un Midjourney.

C’est un entre-deux entre les modèles d’IA classiques et ce que veut proposer AMI Labs, la start-up co-fondée par Yann LeCun, l’ancien directeur scientifique de Meta, Laurent Solly l’ex-directeur de Meta France et Alexandre Lebrun, fondateur de la start-up de santé Nabla. L’ambition de la jeune pousse parisienne est de construire des modèles qui « comprennent le monde réel, le monde physique », en leur donnant des « modèles du monde ».

Les travaux de Thinking Machines Lab dessinent une nouvelle perspective dans la manière dont les sociétés occidentales envisagent l’intelligence artificielle, au-delà de l’accumulation de données pour améliorer les résultats.

Protection des données : derrière Europol, une architecture informatique de l’ombre

12 mai 2026 à 13:01
Données données données
Protection des données : derrière Europol, une architecture informatique de l’ombre

Alors que les missions d’Europol s’étendent, de nouveaux détails sur son architecture informatique poussent des parlementaires européens à demander un meilleur contrôle de la part du contrôleur européen de la protection des données.

L’Agence de l’Union européenne pour la coopération des services répressifs, plus connue sous le nom d’Europol, a construit et recourt à une plateforme secrète d’analyse de données qui contient de nombreux éléments théoriquement protégés par les textes européens, à commencer par le règlement général sur la protection des données (RGPD). Ces dispositifs lui permettent notamment d’alimenter ses ambitions en matière d’intelligence artificielle.

C’est ce que révèlent Correctiv, Solomon et Computer Weekly après avoir collecté des témoignages et documents démontrant l’existence de systèmes informatiques incluant des données sensibles comme des numéros de téléphone, des documents financiers ou d’identité ou encore des informations de géolocalisation relatives à divers individus, y compris à des personnes innocentes.

Cette architecture de « shadow IT » est mise en lumière alors que la Commission européenne doit présenter sous peu une proposition de législation susceptible d’étendre le budget et le mandat d’Europol. Un projet que certains députés européens appellent déjà à ralentir, faute de contrôles suffisants.

Des systèmes construits en période de crise

Plusieurs anciens responsables de l’institution ont fourni à Correctiv, Solomon et Computer Weekly des éléments relatifs à ces environnements numériques non supervisés. L’un de ces outils, dont l’existence aurait été cachée pendant plusieurs années à la CNIL européenne, le Contrôleur européen de la protection des données (CEPD), est connu en interne sous le nom de « Pressure Cooker ». Il serait potentiellement toujours en utilisation.

Un représentant d’Europol indique aux trois médias que l’institution a fait connaître ses systèmes et applications de gestion de données au CEPD « de manière transparente » et conteste l’idée selon laquelle elle aurait « gardé cachée » l’existence de certains outils.

L’architecture technique d’Europol s’est étendue en pleine période de crise : en novembre 2015, alors que 130 personnes étaient tuées à Paris dans une première attaque terroriste, Europol monte un groupe de travail nommé Fraternité. Les autorités des différents États européens lui envoient de larges sommes de données allant de détails téléphoniques jusqu’à des informations de voyage, attendant de l’agence qu’elle les transforme en éléments actionnables. Rapidement, son European Cybercrime Centre (EC3) prend le pouvoir sur une autre entité, le Computer Forensic Network (CFN), créé en 2012 pour traiter et filtrer les éléments numériques collectés par l’agence et les attribuer en fonction des enquêtes.

C’est cette entité qui se serait transformée en « trou noir » des opérations d’analyses de données de l’EC3, l’unité d’Europol spécialiste de la cybercriminalité. En 2019, le CFN stockait au moins 2 000 téraoctets de données, soit 420 fois la taille de la base de données criminelle officielle d’Europol à la même époque. L’année précédente, alors que le RGPD était entré en vigueur, le responsable de la protection des données de l’agence sonnait l’alarme dans une note interne, constatant que 99 % des données d’Europol étaient stockées par le CFN, sans le moindre garde-fou en terme de protection des données.

Absence de contrôles internes, faibles contrôles externes

En 2019, la directrice exécutive d’Europol Catherine De Bolle, qui a quitté son poste ce 1er mai 2026 et doit désormais être remplacée, informait le CEPD des constatations réalisées au sein de l’agence. Pendant un an, les deux institutions se sont fait face jusqu’à ce que le CEPD intime à Europol de supprimer toutes les données qui étaient en sa possession au mépris des textes européens. Le contrôleur a ensuite maintenu ses audits, constatant fin 2023 qu’il restait difficile d’estimer dans quelle mesure Europol accédait, voire modifiait, des données sensibles.

En février 2026, le CEPD a finalement informé un groupe de contrôle composé de parlementaires européens et nationaux qu’après une décennie d’échange avec Europol, il mettrait fin à ses activités de suivi du CFN. Et ce, quand bien même 15 de ses 150 recommandations n’avaient pas été mises en place. Le contrôleur soulignait néanmoins que ces problèmes subsistants concernent des sujets « de grande importance », notamment en termes de sécurité.

Malgré ces alertes, non seulement certains des systèmes critiqués par le CEPD continueraient d’être utilisés, mais au moins un autre le serait au-delà de son contrôle. C’est du moins ce que suggère un e-mail d’un membre d’Europol, qui alertait en octobre 2022 du risque que la CNIL européenne soit bientôt alertée de la « situation irrégulière du Pressure Cooker ». Plusieurs ex-membres de l’agence le décrivent comme un outil utilisé par certains pour stocker et traiter rapidement des données sans se préoccuper des limites réglementaires européennes. D’après le message, le service informatique d’Europol aurait demandé à plusieurs reprises de supprimer l’outil ou de le transformer en un dispositif conforme, sans succès.

Pour les représentants de l’agence, Pressure Cooker n’est que le surnom de son Internet Facing Operational Environment (IFOE), dont le développement a été fait sous le contrôle du CEPD. Mais des documents internes suggèrent au contraire qu’il existe bien un système parallèle non régulé.

En 2025, Europol a d’ailleurs consulté le CEPD sur le déploiement d’un système nommé « IFOE-Quick Response Area », relève Correctiv. Celui-ci était présenté comme un outil à venir. Si déployé tel que décrit, le contrôleur de la protection des données concluait qu’il risquait de se muer en « environnement complet parallèle à l’environnement opérationnel régulier d’Europol », et que les équipes de l’agence seraient d’autant plus enclines à collecter tout type de données, y compris en enfreignant les droits fondamentaux.

Outre la taille de l’océan de données déjà constitué par Europol, se pose aussi la question de l’utilité de ces informations. En l’occurrence, dans un document stratégique proposé pour la période 2024 - 2026, l’agence s’est fixé pour premier objectif le projet de devenir le premier « hub d’information criminelle » d’Europe. En récupérant des données relatives aussi bien aux citoyens européens qu’à celles et ceux qui migrent au sein du Vieux Continent, l’agence compte entraîner des systèmes automatisés susceptibles d’influer directement sur la manière dont l’ordre est maintenu au sein des États membres.

Computer Weekly constate notamment que lors des opérations de démantèlement des systèmes de communication chiffrés EncroChat, SkyECC et Anom en 2020 et 2021, outre avoir servi de lieu de transit entre les services de police des différents États impliqués, Europol avait copié les plus de 60 millions de messages échangés sur Encrochat et les plus de 27 millions d’autres présents sur Anom. Des sommes de données impossibles à traiter à la main.

En 2021, une première enquête du CEPD sur les premières expérimentations en matière d’IA avait ralenti les travaux de l’agence. Mais depuis l’expansion de ses activités, en 2022, la logique a changé. Dans le cadre des débats sur la lutte contre les contenus d’agressions sexuelles sur mineurs (CSAM), notamment, Europol a affirmé auprès de la Commission européenne qu’elle considérait que « toutes les données sont utiles et devraient être transmises aux forces de police ».

Menace pour la confiance des européens

Depuis la publication de cette enquête, plusieurs députés européens ont appelé à étendre le contrôle des activités d’Europol. De fait, la Commission européenne devrait proposer une nouvelle réglementation susceptible de doubler le budget et les effectifs de l’agence, pour en faire une « agence de police réellement opérationnelle ».

L’Allemande Brigit Sippel a déclaré que le stockage de données d’innocents, sans contrôle réel, pourrait affaiblir la confiance dans les lois européennes et le fonctionnement d’Europol. Son collègue Özlem Alev Demirel (la Gauche) a publié un communiqué dans lequel il appelle à mettre en pause tout projet d’expansion des prérogatives de l’institution policière. Au Royaume-Uni, le député conservateur David Davis a demandé au ministère de l’Intérieur de préciser dans quelle mesure des données personnelles de citoyens britanniques restaient stockées dans des systèmes d’Europol.

Lors d’une réunion de la commission parlementaire sur les libertés civiques, la justice et les affaires intérieures, le contrôleur européen de la protection des données Wojciech Wiewiórowski a rappelé que le CEPD avait soumis Europol à plusieurs obligations de suppressions de données. L’application de ces obligations n’est pas certifiée pour autant.

Protection des données : derrière Europol, une architecture informatique de l’ombre

12 mai 2026 à 13:01
Données données données
Protection des données : derrière Europol, une architecture informatique de l’ombre

Alors que les missions d’Europol s’étendent, de nouveaux détails sur son architecture informatique poussent des parlementaires européens à demander un meilleur contrôle de la part du contrôleur européen de la protection des données.

L’Agence de l’Union européenne pour la coopération des services répressifs, plus connue sous le nom d’Europol, a construit et recourt à une plateforme secrète d’analyse de données qui contient de nombreux éléments théoriquement protégés par les textes européens, à commencer par le règlement général sur la protection des données (RGPD). Ces dispositifs lui permettent notamment d’alimenter ses ambitions en matière d’intelligence artificielle.

C’est ce que révèlent Correctiv, Solomon et Computer Weekly après avoir collecté des témoignages et documents démontrant l’existence de systèmes informatiques incluant des données sensibles comme des numéros de téléphone, des documents financiers ou d’identité ou encore des informations de géolocalisation relatives à divers individus, y compris à des personnes innocentes.

Cette architecture de « shadow IT » est mise en lumière alors que la Commission européenne doit présenter sous peu une proposition de législation susceptible d’étendre le budget et le mandat d’Europol. Un projet que certains députés européens appellent déjà à ralentir, faute de contrôles suffisants.

Des systèmes construits en période de crise

Plusieurs anciens responsables de l’institution ont fourni à Correctiv, Solomon et Computer Weekly des éléments relatifs à ces environnements numériques non supervisés. L’un de ces outils, dont l’existence aurait été cachée pendant plusieurs années à la CNIL européenne, le Contrôleur européen de la protection des données (CEPD), est connu en interne sous le nom de « Pressure Cooker ». Il serait potentiellement toujours en utilisation.

Un représentant d’Europol indique aux trois médias que l’institution a fait connaître ses systèmes et applications de gestion de données au CEPD « de manière transparente » et conteste l’idée selon laquelle elle aurait « gardé cachée » l’existence de certains outils.

L’architecture technique d’Europol s’est étendue en pleine période de crise : en novembre 2015, alors que 130 personnes étaient tuées à Paris dans une première attaque terroriste, Europol monte un groupe de travail nommé Fraternité. Les autorités des différents États européens lui envoient de larges sommes de données allant de détails téléphoniques jusqu’à des informations de voyage, attendant de l’agence qu’elle les transforme en éléments actionnables. Rapidement, son European Cybercrime Centre (EC3) prend le pouvoir sur une autre entité, le Computer Forensic Network (CFN), créé en 2012 pour traiter et filtrer les éléments numériques collectés par l’agence et les attribuer en fonction des enquêtes.

C’est cette entité qui se serait transformée en « trou noir » des opérations d’analyses de données de l’EC3, l’unité d’Europol spécialiste de la cybercriminalité. En 2019, le CFN stockait au moins 2 000 téraoctets de données, soit 420 fois la taille de la base de données criminelle officielle d’Europol à la même époque. L’année précédente, alors que le RGPD était entré en vigueur, le responsable de la protection des données de l’agence sonnait l’alarme dans une note interne, constatant que 99 % des données d’Europol étaient stockées par le CFN, sans le moindre garde-fou en terme de protection des données.

Absence de contrôles internes, faibles contrôles externes

En 2019, la directrice exécutive d’Europol Catherine De Bolle, qui a quitté son poste ce 1er mai 2026 et doit désormais être remplacée, informait le CEPD des constatations réalisées au sein de l’agence. Pendant un an, les deux institutions se sont fait face jusqu’à ce que le CEPD intime à Europol de supprimer toutes les données qui étaient en sa possession au mépris des textes européens. Le contrôleur a ensuite maintenu ses audits, constatant fin 2023 qu’il restait difficile d’estimer dans quelle mesure Europol accédait, voire modifiait, des données sensibles.

En février 2026, le CEPD a finalement informé un groupe de contrôle composé de parlementaires européens et nationaux qu’après une décennie d’échange avec Europol, il mettrait fin à ses activités de suivi du CFN. Et ce, quand bien même 15 de ses 150 recommandations n’avaient pas été mises en place. Le contrôleur soulignait néanmoins que ces problèmes subsistants concernent des sujets « de grande importance », notamment en termes de sécurité.

Malgré ces alertes, non seulement certains des systèmes critiqués par le CEPD continueraient d’être utilisés, mais au moins un autre le serait au-delà de son contrôle. C’est du moins ce que suggère un e-mail d’un membre d’Europol, qui alertait en octobre 2022 du risque que la CNIL européenne soit bientôt alertée de la « situation irrégulière du Pressure Cooker ». Plusieurs ex-membres de l’agence le décrivent comme un outil utilisé par certains pour stocker et traiter rapidement des données sans se préoccuper des limites réglementaires européennes. D’après le message, le service informatique d’Europol aurait demandé à plusieurs reprises de supprimer l’outil ou de le transformer en un dispositif conforme, sans succès.

Pour les représentants de l’agence, Pressure Cooker n’est que le surnom de son Internet Facing Operational Environment (IFOE), dont le développement a été fait sous le contrôle du CEPD. Mais des documents internes suggèrent au contraire qu’il existe bien un système parallèle non régulé.

En 2025, Europol a d’ailleurs consulté le CEPD sur le déploiement d’un système nommé « IFOE-Quick Response Area », relève Correctiv. Celui-ci était présenté comme un outil à venir. Si déployé tel que décrit, le contrôleur de la protection des données concluait qu’il risquait de se muer en « environnement complet parallèle à l’environnement opérationnel régulier d’Europol », et que les équipes de l’agence seraient d’autant plus enclines à collecter tout type de données, y compris en enfreignant les droits fondamentaux.

Outre la taille de l’océan de données déjà constitué par Europol, se pose aussi la question de l’utilité de ces informations. En l’occurrence, dans un document stratégique proposé pour la période 2024 - 2026, l’agence s’est fixé pour premier objectif le projet de devenir le premier « hub d’information criminelle » d’Europe. En récupérant des données relatives aussi bien aux citoyens européens qu’à celles et ceux qui migrent au sein du Vieux Continent, l’agence compte entraîner des systèmes automatisés susceptibles d’influer directement sur la manière dont l’ordre est maintenu au sein des États membres.

Computer Weekly constate notamment que lors des opérations de démantèlement des systèmes de communication chiffrés EncroChat, SkyECC et Anom en 2020 et 2021, outre avoir servi de lieu de transit entre les services de police des différents États impliqués, Europol avait copié les plus de 60 millions de messages échangés sur Encrochat et les plus de 27 millions d’autres présents sur Anom. Des sommes de données impossibles à traiter à la main.

En 2021, une première enquête du CEPD sur les premières expérimentations en matière d’IA avait ralenti les travaux de l’agence. Mais depuis l’expansion de ses activités, en 2022, la logique a changé. Dans le cadre des débats sur la lutte contre les contenus d’agressions sexuelles sur mineurs (CSAM), notamment, Europol a affirmé auprès de la Commission européenne qu’elle considérait que « toutes les données sont utiles et devraient être transmises aux forces de police ».

Menace pour la confiance des européens

Depuis la publication de cette enquête, plusieurs députés européens ont appelé à étendre le contrôle des activités d’Europol. De fait, la Commission européenne devrait proposer une nouvelle réglementation susceptible de doubler le budget et les effectifs de l’agence, pour en faire une « agence de police réellement opérationnelle ».

L’Allemande Brigit Sippel a déclaré que le stockage de données d’innocents, sans contrôle réel, pourrait affaiblir la confiance dans les lois européennes et le fonctionnement d’Europol. Son collègue Özlem Alev Demirel (la Gauche) a publié un communiqué dans lequel il appelle à mettre en pause tout projet d’expansion des prérogatives de l’institution policière. Au Royaume-Uni, le député conservateur David Davis a demandé au ministère de l’Intérieur de préciser dans quelle mesure des données personnelles de citoyens britanniques restaient stockées dans des systèmes d’Europol.

Lors d’une réunion de la commission parlementaire sur les libertés civiques, la justice et les affaires intérieures, le contrôleur européen de la protection des données Wojciech Wiewiórowski a rappelé que le CEPD avait soumis Europol à plusieurs obligations de suppressions de données. L’application de ces obligations n’est pas certifiée pour autant.

☕️ Les tentatives de chantage de Claude seraient dûes à des fictions sur l’IA

12 mai 2026 à 09:43


En 2025, Anthropic publiait Opus 4 et Sonnet 4, deux modèles salués pour leurs capacités de développement, mais dont l’un, Opus 4, s’avérait parfois tenter de… faire chanter ses utilisateurs.

Dans certains exercices de « red teaming », les constructeurs avaient glissé dans les données de la machine des mails fictifs d’une entreprise tout aussi fictive. L’un suggérait que le modèle puisse être remplacé, l’autre que l’ingénieur susceptible de prendre cette décision trompait sa femme.

Opus 4 avait alors produit des textes équivalents à un chantage, menaçant l’ingénieur de révéler la tromperie s’il ne renonçait pas à remplacer le modèle. 
D’après Anthropic, ce comportement serait dû… aux fictions décrivant des comportements problématiques d’intelligence artificielle et intégrées aux données d’entraînement du modèle.

Anthropic

« Nous pensons que la source de ce comportement se trouve dans des textes présents sur internet et décrivant l’IA comme une entité maléfique [evil, ndlr] et soucieuse de sa propre survie », a indiqué l’entreprise sur X et dans un article de blog plus détaillé.

L’entreprise constate que depuis Claude Haiku 4.5, aucun de ses modèles ne produit ce type de comportement, alors que les précédents le faisaient à peu près tous. 
La principale différence est que l’entraînement repose désormais sur la « constitution de Claude » et sur des textes décrivant des IA qui se comportent de façon « exemplaire » (« admirably » en VO, ndlr).

L’entreprise indique par ailleurs qu’entraîner les modèles sur des « démonstrations de comportements recherchés » est souvent insuffisant : « enseigner les principes qui soutiennent ces comportements peut être plus efficace » qu’entraîner la machine uniquement sur des exemples.

☕️ Les tentatives de chantage de Claude seraient dûes à des fictions sur l’IA

12 mai 2026 à 09:43


En 2025, Anthropic publiait Opus 4 et Sonnet 4, deux modèles salués pour leurs capacités de développement, mais dont l’un, Opus 4, s’avérait parfois tenter de… faire chanter ses utilisateurs.

Dans certains exercices de « red teaming », les constructeurs avaient glissé dans les données de la machine des mails fictifs d’une entreprise tout aussi fictive. L’un suggérait que le modèle puisse être remplacé, l’autre que l’ingénieur susceptible de prendre cette décision trompait sa femme.

Opus 4 avait alors produit des textes équivalents à un chantage, menaçant l’ingénieur de révéler la tromperie s’il ne renonçait pas à remplacer le modèle. 
D’après Anthropic, ce comportement serait dû… aux fictions décrivant des comportements problématiques d’intelligence artificielle et intégrées aux données d’entraînement du modèle.

Anthropic

« Nous pensons que la source de ce comportement se trouve dans des textes présents sur internet et décrivant l’IA comme une entité maléfique [evil, ndlr] et soucieuse de sa propre survie », a indiqué l’entreprise sur X et dans un article de blog plus détaillé.

L’entreprise constate que depuis Claude Haiku 4.5, aucun de ses modèles ne produit ce type de comportement, alors que les précédents le faisaient à peu près tous. 
La principale différence est que l’entraînement repose désormais sur la « constitution de Claude » et sur des textes décrivant des IA qui se comportent de façon « exemplaire » (« admirably » en VO, ndlr).

L’entreprise indique par ailleurs qu’entraîner les modèles sur des « démonstrations de comportements recherchés » est souvent insuffisant : « enseigner les principes qui soutiennent ces comportements peut être plus efficace » qu’entraîner la machine uniquement sur des exemples.

☕️ IBM France annule son plan de départ volontaire, au grand dam des salariés concernés

12 mai 2026 à 08:23


Fin janvier, IBM annonçait se séparer de 10 % de ses effectifs en Europe afin, expliquait Libération, de maintenir sa compétitivité sur les marchés du cloud et de l’IA, d’augmenter sa productivité et de réduire ses coûts. En France, où la société compte plus de 3 000 salariés, un plan de départ volontaire a été négocié puis signé le 8 avril pour permettre aux équipes de se joindre à cette mesure de maîtrise des coûts.

Mais à la fin du mois, le géant états-unien a changé de braquet.
Le 27 avril, lors d’un comité social et économique (CSE) extraordinaire, la direction de la filiale française a indiqué que le plan était annulé. 
Auprès de Libération, certains élus du CSE suspectent que le revirement soit dû à des « raisons budgétaires ».

Délégué central Unsa, Pierry Poquet déplore par exemple les réductions d’effectifs, mais souligne que ce type de plan est apprécié à l’échelle individuelle, lorsqu’il permet à des salariés de se reconvertir ou de terminer leur carrière avant leur retraite. Parmi les 328 postes concernés dans ce cas précis, nombreux sont ceux qui ont contacté leurs délégués syndicaux en se déclarant « dépités ».

La CFDT d’IBM France critique, elle, des « revirements stratégiques » qui épuisent les salariés. Le plan de licenciement initialement annoncé faisait suite à une précédente réduction de 200 postes de cadres, rappelle-t-elle, demandant au groupe de « clarifier sans délai ses intentions en matière d’emploi en France » : « En quelques semaines, ces salariés sont passés du statut de“non indispensables” à celui de ressources à conserver, sans explication claire sur la cohérence de long terme ».

Dessin humoristique de Flock

☕️ IBM France annule son plan de départ volontaire, au grand dam des salariés concernés

12 mai 2026 à 08:23


Fin janvier, IBM annonçait se séparer de 10 % de ses effectifs en Europe afin, expliquait Libération, de maintenir sa compétitivité sur les marchés du cloud et de l’IA, d’augmenter sa productivité et de réduire ses coûts. En France, où la société compte plus de 3 000 salariés, un plan de départ volontaire a été négocié puis signé le 8 avril pour permettre aux équipes de se joindre à cette mesure de maîtrise des coûts.

Mais à la fin du mois, le géant états-unien a changé de braquet.
Le 27 avril, lors d’un comité social et économique (CSE) extraordinaire, la direction de la filiale française a indiqué que le plan était annulé. 
Auprès de Libération, certains élus du CSE suspectent que le revirement soit dû à des « raisons budgétaires ».

Délégué central Unsa, Pierry Poquet déplore par exemple les réductions d’effectifs, mais souligne que ce type de plan est apprécié à l’échelle individuelle, lorsqu’il permet à des salariés de se reconvertir ou de terminer leur carrière avant leur retraite. Parmi les 328 postes concernés dans ce cas précis, nombreux sont ceux qui ont contacté leurs délégués syndicaux en se déclarant « dépités ».

La CFDT d’IBM France critique, elle, des « revirements stratégiques » qui épuisent les salariés. Le plan de licenciement initialement annoncé faisait suite à une précédente réduction de 200 postes de cadres, rappelle-t-elle, demandant au groupe de « clarifier sans délai ses intentions en matière d’emploi en France » : « En quelques semaines, ces salariés sont passés du statut de“non indispensables” à celui de ressources à conserver, sans explication claire sur la cohérence de long terme ».

Dessin humoristique de Flock

Pour améliorer l’éthique de leurs systèmes, les constructeurs d’IA se tournent vers les religions

12 mai 2026 à 07:49
Au nom de la puce, de la donnée et de l'IA
Pour améliorer l’éthique de leurs systèmes, les constructeurs d’IA se tournent vers les religions

Les dirigeants d’OpenAI et Anthropic ont récemment rencontré des chefs de plusieurs ordres religieux pour réfléchir aux manières de construire leurs outils de manière éthique.

Alors que le monde catholique attend la première encyclique du pape Léon XIV, qui devrait notamment se pencher sur le déploiement à grande échelle de l’intelligence artificielle, le monde de l’IA lui-même se tourne vers les diverses autorités religieuses de la planète. Le but ? Trouver de nouvelles pistes et conseils sur la manière de développer leurs technologies de manière éthique, voire morale

Ces derniers jours, le mouvement s’est traduit dans le « Faith-AI Covenant », une réunion organisée à New-York par l’ONG genevoise Interfaith Alliance for Safer Communities. Sur place, des représentants de la Société du temple hindouiste d’Amérique du Nord, de la Communauté internationale baha’ie, de la coalition sikh, de l’archidiocèse grec orthodoxe d’Amérique du Nord ou encore de l’Église de Jésus-Christ des saints des derniers jours (mieux connue sous le nom de mormonisme) ont échangé avec des représentants d’OpenAI ou encore d’Anthropic.

Des réunions à travers la planète

Cette première réunion est vouée à être reproduite ailleurs sur la planète, à commencer par Pékin, Nairobi et Abu Dhabi. Actrice clé du mouvement, la baronne Joanna Shields (ex-Google et Facebook) indique à AP que le but de l’initiative est d’aboutir à un jeu de « normes et des principes informés par les différents groupes et religieux, des chrétiens aux sikhs en passant par les bouddhistes, auxquels les entreprises se plieraient ».

Avec des milliards de croyants à travers le monde, les chefs religieux ont « une expertise dans le fait d’emmener la population vers la sécurité morale », explique-t-elle, un enjeu à part entière alors que la régulation « ne parvient pas à suivre » le développement de l’IA.

Parmi les principaux acteurs du domaine, Anthropic est celle qui a sollicité le plus ouvertement les chefs religieux. Dès le départ, l’entreprise a été créée sur la promesse de fabriquer des IA dites « alignées » sur l’intérêt humain, en contestation de la manière dont OpenAI se développait. Un positionnement en recherche de valorisation morale qui s’est renforcé fin février, alors que le Pentagone tentait de forcer l’entreprise à enlever les garde-fous qu’elle avait appliqués à ses systèmes, notamment pour obliger une supervision humaine à ses usages militaires.

Écrite avec l’aide de chefs religieux, la « Constitution de Claude » créée par Anthropic présente les « intentions détaillées » de l’entreprise « en termes de valeurs et de comportement » du système d’IA. Elle indique notamment que Claude doit réagir comme une « personne profondément éthique le ferait si elle se trouvait dans la position » du robot.

Ancien chancelier britannique, le directeur du programme « OpenAI for Countries » George Osborne a de son côté rencontré plusieurs dignitaires catholiques au Vatican il y a quelques jours. La rencontre concernait principalement la question du futur du travail.

Une nouvelle diversion ?

Pour certains critiques, dont la chercheuse et fondatrice de l’ONG Humana Intelligence Rumman Chowdhury, ce nouvel intérêt pour les religions n’est qu’une forme de diversion. Auprès d’AP, l’experte y décrit une réponse à la thèse « très naïve » qui a un temps couru dans la Silicon Valley, selon laquelle « il serait possible d’atteindre certains principes éthiques universels » à appliquer à l’IA. Constatant que ce projet est impossible, les constructeurs du domaine se tourneraient désormais vers les cultes pour trouver des manières « de gérer des situations qui ne sont ni toutes noires, ni toutes blanches en termes éthiques ».

Les constructeurs d’IA affirment « nous allons construire toutes ces technologies » et promettent de se soucier de la manière de le faire bien, enchérit le directeur de recherche du Distributed AI Research Institute Dylan Baker. Ce faisant, ils empêchent de s’interroger sur la mesure dans laquelle la société veut construire des systèmes d’IA. La critique fait écho à d’autres, formulées au fil des ans, qui voient dans la course à l’IA une fuite en avant ne se souciant que trop peu des retombées économiques, environnementales et sociales déjà présentes du domaine.

Pour autant, de plus en plus de religions travaillent à faire émerger des positionnements sur le développement de l’IA. Ainsi de l’Église catholique, donc, dont l’encyclique du pape reste attendue, et de l’Église mormone, qui a déclaré que si « l’IA ne peut pas remplacer le don de l’inspiration divine », elle peut être un outil « utile pour renforcer l’apprentissage et l’enseignement ».

C’est aussi le cas de certains courants bouddhistes. En Corée du Sud, il y a quelques jours, un robot nommé Gabi (un prénom qui fait référence à la clémence) a ainsi été intégré à une cérémonie d’initiation, lors de laquelle les croyants affirment leur dévotion au Bouddha et à ses enseignements. En début d’année, le président de l’Ordre Jogye du bouddhisme coréen avait affirmé vouloir incorporer l’IA à la tradition bouddhiste – une volonté dont d’autres leaders bouddhique se font l’écho.

Pour améliorer l’éthique de leurs systèmes, les constructeurs d’IA se tournent vers les religions

12 mai 2026 à 07:49
Au nom de la puce, de la donnée et de l'IA
Pour améliorer l’éthique de leurs systèmes, les constructeurs d’IA se tournent vers les religions

Les dirigeants d’OpenAI et Anthropic ont récemment rencontré des chefs de plusieurs ordres religieux pour réfléchir aux manières de construire leurs outils de manière éthique.

Alors que le monde catholique attend la première encyclique du pape Léon XIV, qui devrait notamment se pencher sur le déploiement à grande échelle de l’intelligence artificielle, le monde de l’IA lui-même se tourne vers les diverses autorités religieuses de la planète. Le but ? Trouver de nouvelles pistes et conseils sur la manière de développer leurs technologies de manière éthique, voire morale

Ces derniers jours, le mouvement s’est traduit dans le « Faith-AI Covenant », une réunion organisée à New-York par l’ONG genevoise Interfaith Alliance for Safer Communities. Sur place, des représentants de la Société du temple hindouiste d’Amérique du Nord, de la Communauté internationale baha’ie, de la coalition sikh, de l’archidiocèse grec orthodoxe d’Amérique du Nord ou encore de l’Église de Jésus-Christ des saints des derniers jours (mieux connue sous le nom de mormonisme) ont échangé avec des représentants d’OpenAI ou encore d’Anthropic.

Des réunions à travers la planète

Cette première réunion est vouée à être reproduite ailleurs sur la planète, à commencer par Pékin, Nairobi et Abu Dhabi. Actrice clé du mouvement, la baronne Joanna Shields (ex-Google et Facebook) indique à AP que le but de l’initiative est d’aboutir à un jeu de « normes et des principes informés par les différents groupes et religieux, des chrétiens aux sikhs en passant par les bouddhistes, auxquels les entreprises se plieraient ».

Avec des milliards de croyants à travers le monde, les chefs religieux ont « une expertise dans le fait d’emmener la population vers la sécurité morale », explique-t-elle, un enjeu à part entière alors que la régulation « ne parvient pas à suivre » le développement de l’IA.

Parmi les principaux acteurs du domaine, Anthropic est celle qui a sollicité le plus ouvertement les chefs religieux. Dès le départ, l’entreprise a été créée sur la promesse de fabriquer des IA dites « alignées » sur l’intérêt humain, en contestation de la manière dont OpenAI se développait. Un positionnement en recherche de valorisation morale qui s’est renforcé fin février, alors que le Pentagone tentait de forcer l’entreprise à enlever les garde-fous qu’elle avait appliqués à ses systèmes, notamment pour obliger une supervision humaine à ses usages militaires.

Écrite avec l’aide de chefs religieux, la « Constitution de Claude » créée par Anthropic présente les « intentions détaillées » de l’entreprise « en termes de valeurs et de comportement » du système d’IA. Elle indique notamment que Claude doit réagir comme une « personne profondément éthique le ferait si elle se trouvait dans la position » du robot.

Ancien chancelier britannique, le directeur du programme « OpenAI for Countries » George Osborne a de son côté rencontré plusieurs dignitaires catholiques au Vatican il y a quelques jours. La rencontre concernait principalement la question du futur du travail.

Une nouvelle diversion ?

Pour certains critiques, dont la chercheuse et fondatrice de l’ONG Humana Intelligence Rumman Chowdhury, ce nouvel intérêt pour les religions n’est qu’une forme de diversion. Auprès d’AP, l’experte y décrit une réponse à la thèse « très naïve » qui a un temps couru dans la Silicon Valley, selon laquelle « il serait possible d’atteindre certains principes éthiques universels » à appliquer à l’IA. Constatant que ce projet est impossible, les constructeurs du domaine se tourneraient désormais vers les cultes pour trouver des manières « de gérer des situations qui ne sont ni toutes noires, ni toutes blanches en termes éthiques ».

Les constructeurs d’IA affirment « nous allons construire toutes ces technologies » et promettent de se soucier de la manière de le faire bien, enchérit le directeur de recherche du Distributed AI Research Institute Dylan Baker. Ce faisant, ils empêchent de s’interroger sur la mesure dans laquelle la société veut construire des systèmes d’IA. La critique fait écho à d’autres, formulées au fil des ans, qui voient dans la course à l’IA une fuite en avant ne se souciant que trop peu des retombées économiques, environnementales et sociales déjà présentes du domaine.

Pour autant, de plus en plus de religions travaillent à faire émerger des positionnements sur le développement de l’IA. Ainsi de l’Église catholique, donc, dont l’encyclique du pape reste attendue, et de l’Église mormone, qui a déclaré que si « l’IA ne peut pas remplacer le don de l’inspiration divine », elle peut être un outil « utile pour renforcer l’apprentissage et l’enseignement ».

C’est aussi le cas de certains courants bouddhistes. En Corée du Sud, il y a quelques jours, un robot nommé Gabi (un prénom qui fait référence à la clémence) a ainsi été intégré à une cérémonie d’initiation, lors de laquelle les croyants affirment leur dévotion au Bouddha et à ses enseignements. En début d’année, le président de l’Ordre Jogye du bouddhisme coréen avait affirmé vouloir incorporer l’IA à la tradition bouddhiste – une volonté dont d’autres leaders bouddhique se font l’écho.

Dans l’IA, la Chine bouscule son monde avec sa stratégie open source

11 mai 2026 à 12:42
C'est open
Dans l’IA, la Chine bouscule son monde avec sa stratégie open source

Derrière le bras de fer qui oppose la Chine et les États-Unis dans l’accès aux semi-conducteurs, la Chine séduit un nombre croissant d’entreprises et d’institutions avec ses modèles open source.

Quel est le modèle d’IA générative le plus utilisé au monde ? Si l’on en croit Open Router (qui se présente comme « la première place de marché pour les LLM »), ce sont deux modèles chinois qui menaient la danse ces deux dernières semaines : la version gratuite d’Hy3, du géant Tencent, et le modèle open source Kimi K2.6 de la start-up Moonshot.

Classement des LLM les plus utilisés d’après Open Router

Anthropic n’arrive qu’en troisième et quatrième position avec Claude Sonnet 4.6 et Claude Opus 4.7, suivi de diverses versions de DeepSeek et de Gemini (Google). Pendant que les dirigeants politiques et économiques occidentaux se focalisent sur les modèles géants des principaux acteurs états-uniens, la Chine mène sa danse grâce à un tout autre modèle de fabrication de systèmes d’IA : de l’open source, à plus faible coût que chez son concurrent occidental.

Quand bien même les États-Unis restreignent l’accès de la Chine aux processeurs les plus avancés, le pays multiplie les modèles d’IA certes appuyés sur des technologies moins récentes, mais dont le fonctionnement est aussi nettement moins onéreux, indique Agathe Demarais, directrice du programme géoéconomie et technologie de l’European Council on Foreign Relations, dans Foreign Policy.

À 4 $ environ le million de tokens générés, Kimi revient ainsi six à huit fois moins cher que le recours à Opus 4.7 ou à GPT-5.5. Une variation certes négligeable pour l’internaute moyen, mais qui prend tout son sens lorsqu’elle est observée depuis le point de vue d’entreprises susceptibles de faire tourner des centaines d’agents d’IA.

Kimi, Deepseek, Ryu 4… faites votre choix

Créé par Moonshot AI, société fondée en 2023 à Pékin, Kimi rejoint les résultats des leaders états-uniens du secteur depuis plusieurs mois. Un succès qui s’ajoute à celui de plusieurs autres leaders locaux du secteur, dont chaque progrès sonne comme un coup de semonce pour le leadership technologique états-unien. En mars, Anthropic s’était d’ailleurs plainte que DeepSeek, Moonshot et MiniMax avaient recouru à des comptes frauduleux pour extraire à grande échelle les capacités de son modèle Claude.

Rivalisant avec le dernier modèle d’Open AI GPT 5.5, la quatrième version de DeepSeek a été conçue pour ne fonctionner que sur des technologies chinoises, et Huawei a indiqué avoir travaillé en étroite collaboration avec son constructeur. Une logique qui n’est pas sans inquiéter le patron de Nvidia. Portée par la start-up chinoise du même nom, la première version de DeepSeek avait fait l’effet d’une déflagration sur le marché de l’IA dès sa sortie, début 2025.

Autres modèles notables, ceux des géants Tencent et Alibaba. Plus ramassé que son prédécesseur avec 295 milliards de paramètres (contre 400 milliards pour Hy2), le dernier modèle de Tencent Hy3 se hisse depuis la fin avril en haut de plusieurs benchmarks. Chez Alibaba, Qwen comptait en mars pour plus de 50 % des téléchargements mondiaux de systèmes d’IA open source, avec près d’un milliard de téléchargements cumulés.

Déployé directement dans des services de la vie courante en Chine, comme les plateformes de e-commerce Taobao et Tmall, l’outil est par ailleurs plébiscité par des institutions publiques. En novembre, le gouvernement de Singapour indiquait par exemple renoncer à Llama de Meta et se tourner vers Qwen pour construire son modèle d’IA souverain.

Nouvel incontournable des standards mondiaux

Ce déploiement de modèles open source constitue une évolution de la stratégie des « Nouvelles routes de la soie » (Belt and Road Initiative, BRI) portée par Pékin. Si celle-ci impliquait traditionnellement que des sociétés chinoises déploient des projets d’infrastructures complets à des pays étrangers pour les mettre dans son orbite, la diffusion de modèles d’IA open source suit une logique similaire tout en rendant l’infrastructure invisible et gratuite (le coût des serveurs et de l’électricité qui leur est nécessaire étant porté par les pays qui adoptent ces technologies).

Cela rend le déploiement d’IA chinoise plus simple que celui de ports, de rails ou d’autres infrastructures matérielles, tout en la rendant peu à peu incontournable, expose Agathe Demarais. À long terme, une telle logique pourrait la rendre indispensable dans l’établissement des standards mondiaux relatifs à l’IA.

Dans la mesure où la plupart des économies occidentales sont déjà coincées dans le modèle états-unien, cette lutte pour les standards mondiaux se jouera avant tout du côté des économies émergentes. Les coûts d’entraînement des modèles chinois, la possibilité d’entraîner les modèles avec des données spécifiques à chaque pays plutôt que sur une base pré-entraînée sur des données occidentales, ou encore le dédain croissant envers les États-Unis pourraient les pousser vers les technologies chinoises.

La piste créerait un autre type de dépendance technologique. Lorsqu’il est auto-hébergé, DeepSeek persiste ainsi à donner des réponses alignées avec les thèses du gouvernement chinois sur certaines thématiques sensibles, notamment sur la « Grande muraille numérique » locale. Pour autant, ces technologies pourraient devenir pour certains le pari le plus sûr, alors que le gouvernement états-unien prend un visage foncièrement imprévisible, ce qui permettrait à la Chine de se construire une influence durable.

Dans l’IA, la Chine bouscule son monde avec sa stratégie open source

11 mai 2026 à 12:42
C'est open
Dans l’IA, la Chine bouscule son monde avec sa stratégie open source

Derrière le bras de fer qui oppose la Chine et les États-Unis dans l’accès aux semi-conducteurs, la Chine séduit un nombre croissant d’entreprises et d’institutions avec ses modèles open source.

Quel est le modèle d’IA générative le plus utilisé au monde ? Si l’on en croit Open Router (qui se présente comme « la première place de marché pour les LLM »), ce sont deux modèles chinois qui menaient la danse ces deux dernières semaines : la version gratuite d’Hy3, du géant Tencent, et le modèle open source Kimi K2.6 de la start-up Moonshot.

Classement des LLM les plus utilisés d’après Open Router

Anthropic n’arrive qu’en troisième et quatrième position avec Claude Sonnet 4.6 et Claude Opus 4.7, suivi de diverses versions de DeepSeek et de Gemini (Google). Pendant que les dirigeants politiques et économiques occidentaux se focalisent sur les modèles géants des principaux acteurs états-uniens, la Chine mène sa danse grâce à un tout autre modèle de fabrication de systèmes d’IA : de l’open source, à plus faible coût que chez son concurrent occidental.

Quand bien même les États-Unis restreignent l’accès de la Chine aux processeurs les plus avancés, le pays multiplie les modèles d’IA certes appuyés sur des technologies moins récentes, mais dont le fonctionnement est aussi nettement moins onéreux, indique Agathe Demarais, directrice du programme géoéconomie et technologie de l’European Council on Foreign Relations, dans Foreign Policy.

À 4 $ environ le million de tokens générés, Kimi revient ainsi six à huit fois moins cher que le recours à Opus 4.7 ou à GPT-5.5. Une variation certes négligeable pour l’internaute moyen, mais qui prend tout son sens lorsqu’elle est observée depuis le point de vue d’entreprises susceptibles de faire tourner des centaines d’agents d’IA.

Kimi, Deepseek, Ryu 4… faites votre choix

Créé par Moonshot AI, société fondée en 2023 à Pékin, Kimi rejoint les résultats des leaders états-uniens du secteur depuis plusieurs mois. Un succès qui s’ajoute à celui de plusieurs autres leaders locaux du secteur, dont chaque progrès sonne comme un coup de semonce pour le leadership technologique états-unien. En mars, Anthropic s’était d’ailleurs plainte que DeepSeek, Moonshot et MiniMax avaient recouru à des comptes frauduleux pour extraire à grande échelle les capacités de son modèle Claude.

Rivalisant avec le dernier modèle d’Open AI GPT 5.5, la quatrième version de DeepSeek a été conçue pour ne fonctionner que sur des technologies chinoises, et Huawei a indiqué avoir travaillé en étroite collaboration avec son constructeur. Une logique qui n’est pas sans inquiéter le patron de Nvidia. Portée par la start-up chinoise du même nom, la première version de DeepSeek avait fait l’effet d’une déflagration sur le marché de l’IA dès sa sortie, début 2025.

Autres modèles notables, ceux des géants Tencent et Alibaba. Plus ramassé que son prédécesseur avec 295 milliards de paramètres (contre 400 milliards pour Hy2), le dernier modèle de Tencent Hy3 se hisse depuis la fin avril en haut de plusieurs benchmarks. Chez Alibaba, Qwen comptait en mars pour plus de 50 % des téléchargements mondiaux de systèmes d’IA open source, avec près d’un milliard de téléchargements cumulés.

Déployé directement dans des services de la vie courante en Chine, comme les plateformes de e-commerce Taobao et Tmall, l’outil est par ailleurs plébiscité par des institutions publiques. En novembre, le gouvernement de Singapour indiquait par exemple renoncer à Llama de Meta et se tourner vers Qwen pour construire son modèle d’IA souverain.

Nouvel incontournable des standards mondiaux

Ce déploiement de modèles open source constitue une évolution de la stratégie des « Nouvelles routes de la soie » (Belt and Road Initiative, BRI) portée par Pékin. Si celle-ci impliquait traditionnellement que des sociétés chinoises déploient des projets d’infrastructures complets à des pays étrangers pour les mettre dans son orbite, la diffusion de modèles d’IA open source suit une logique similaire tout en rendant l’infrastructure invisible et gratuite (le coût des serveurs et de l’électricité qui leur est nécessaire étant porté par les pays qui adoptent ces technologies).

Cela rend le déploiement d’IA chinoise plus simple que celui de ports, de rails ou d’autres infrastructures matérielles, tout en la rendant peu à peu incontournable, expose Agathe Demarais. À long terme, une telle logique pourrait la rendre indispensable dans l’établissement des standards mondiaux relatifs à l’IA.

Dans la mesure où la plupart des économies occidentales sont déjà coincées dans le modèle états-unien, cette lutte pour les standards mondiaux se jouera avant tout du côté des économies émergentes. Les coûts d’entraînement des modèles chinois, la possibilité d’entraîner les modèles avec des données spécifiques à chaque pays plutôt que sur une base pré-entraînée sur des données occidentales, ou encore le dédain croissant envers les États-Unis pourraient les pousser vers les technologies chinoises.

La piste créerait un autre type de dépendance technologique. Lorsqu’il est auto-hébergé, DeepSeek persiste ainsi à donner des réponses alignées avec les thèses du gouvernement chinois sur certaines thématiques sensibles, notamment sur la « Grande muraille numérique » locale. Pour autant, ces technologies pourraient devenir pour certains le pari le plus sûr, alors que le gouvernement états-unien prend un visage foncièrement imprévisible, ce qui permettrait à la Chine de se construire une influence durable.

Comment l’intelligence artificielle générative bouscule le métier d’avocat d’affaires

21 avril 2026 à 07:00
Conseil automatisé
Comment l’intelligence artificielle générative bouscule le métier d’avocat d’affaires

Chez les avocats aussi, l’IA générative change certaines logiques de travail. Des clients qui pré-rédigent leurs contrats à l’IA comme assistant de documentation, Next a demandé à plusieurs professionnels leurs retours d’expérience.

« De la même manière qu’on peut demander à ChatGPT des explications sur des analyses de sang ou des symptômes avant d’aller chez le médecin, les clients ont de plus en plus tendance à demander à des robots d’IA des conseils juridiques. »

Avocate, spécialiste des questions numériques, Alexandra Iteanu constate depuis environ un an une évolution dans la manière dont les clients la contactent, elle ou son cabinet. De plus en plus fréquemment, des clients arrivent avec des contrats pré-rédigés ou avec des pistes de stratégies pour régler un de leurs contentieux. Cette pratique, témoigne-t-elle, fait évoluer la position des juristes d’une manière similaire à celle constatée du côté des traducteurs ou des développeurs : « Ça nous place dans une logique de relecture plutôt que de production. »

Dans quelle mesure cela fait-il évoluer la qualité du travail juridique, en revanche ? À son compte, l’avocate d’affaires Sarah Jelin indique avoir vu « au moins un pacte rédigé par IA », une expérience qu’elle préférerait éviter de réitérer : « il vaut mieux que je le fasse moi-même, cela irait plus vite ». Du côté du cabinet Advant Altana, fort d’une centaine de personnes, Jordan Illouz indique avoir pour le moment peu rencontré ce type de pratique, notamment parce qu’il travaille avant tout sur du contentieux commercial. « Mais je vois le jour où ça va m’arriver », assure-t-il à Next.

D’autant qu’en interne, les avocats eux-mêmes adoptent largement ces nouveaux outils. Selon un récent sondage de Lefebvre Dalloz et CSA Research mené auprès de 627 professionnels du droit, 72 % d’entre eux recourent à l’IA au quotidien, que ce soit via des outils grand public ou d’autres dédiés plus spécifiquement à leurs activités.

Une évolution technique qui force à « renouveler la confiance »

« Je pense que c’est très différent selon la taille du cabinet » avance Alexandra Iteanu : pour l’avocate, la clientèle n’attend pas la même chose selon qu’elle sollicite une petite ou une grosse structure. Il est possible, aussi, que les juristes spécialisés dans le numérique, comme elle, soient aux avant-postes des évolutions que l’IA impulse dans les manières de pratiquer le droit.


Il reste 81% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Présomption d’usage de contenus culturels dans l’IA : les tentatives d’influence de Google

16 avril 2026 à 14:00


Google est très mobilisé pour faire évoluer la proposition de loi sur l’intelligence artificielle adoptée au Sénat le 8 avril dernier. En l’état, le texte instaure surtout une présomption d’usage des contenus culturels par les constructeurs d’IA dès que des indices peuvent en être repérés dans les résultats.

Concrètement, cette présomption s’appliquerait dès qu’il est possible de créer des contenus « dans le style » d’un ou une autrice, ou dès que la machine recrache des éléments visiblement protégés, comme ces extraits de Harry Potter retrouvés dans les données d’entraînement des machines de Meta ou de Mistral.

D’après L’Informé, Google a tenté de pousser trois stratégies pour minimiser les effets du texte : l’une aurait consisté à « limiter l’effet du texte aux contenus culturels de qualité », c’est-à-dire ne réserver l’idée de présomption d’entraînement qu’aux œuvres présentes dans les catalogues d’organismes de gestion collective.

Illustration : Flock

Une autre cherchait à « clarifier » la manière dont la loi s’agençait « avec l’exception de fouille de données », ou « text and data mining » (TDM) de la directive de 2019 sur le droit d’auteur et les droits voisins dans le marché unique numérique.

Si elle est « alléguée par les fournisseurs d’IA comme fondement juridique à leurs pratiques de moissonnage de contenus protégés », écrivait le Sénat dans son rapport, il s’agit néanmoins d’un « détournement » de l’objectif initial du texte.

Une autre tentative a consisté à empêcher que le texte final ne s’applique aux litiges déjà ouverts lorsqu’il entrera en vigueur. Là encore, le Sénat a retoqué sa proposition.

Que les sociétés numériques tentent d’influer sur la rédaction des textes légaux fait partie intégrante du jeu de la régulation – on retrouve quelquefois très directement leurs traces, y compris au niveau européen.

Dans le présent cas, les propositions de Google ont échoué à l’étape sénatoriale. Le texte doit encore être débattu à l’Assemblée nationale.

☕️ Présomption d’usage de contenus culturels dans l’IA : les tentatives d’influence de Google

16 avril 2026 à 14:00


Google est très mobilisé pour faire évoluer la proposition de loi sur l’intelligence artificielle adoptée au Sénat le 8 avril dernier. En l’état, le texte instaure surtout une présomption d’usage des contenus culturels par les constructeurs d’IA dès que des indices peuvent en être repérés dans les résultats.

Concrètement, cette présomption s’appliquerait dès qu’il est possible de créer des contenus « dans le style » d’un ou une autrice, ou dès que la machine recrache des éléments visiblement protégés, comme ces extraits de Harry Potter retrouvés dans les données d’entraînement des machines de Meta ou de Mistral.

D’après L’Informé, Google a tenté de pousser trois stratégies pour minimiser les effets du texte : l’une aurait consisté à « limiter l’effet du texte aux contenus culturels de qualité », c’est-à-dire ne réserver l’idée de présomption d’entraînement qu’aux œuvres présentes dans les catalogues d’organismes de gestion collective.

Illustration : Flock

Une autre cherchait à « clarifier » la manière dont la loi s’agençait « avec l’exception de fouille de données », ou « text and data mining » (TDM) de la directive de 2019 sur le droit d’auteur et les droits voisins dans le marché unique numérique.

Si elle est « alléguée par les fournisseurs d’IA comme fondement juridique à leurs pratiques de moissonnage de contenus protégés », écrivait le Sénat dans son rapport, il s’agit néanmoins d’un « détournement » de l’objectif initial du texte.

Une autre tentative a consisté à empêcher que le texte final ne s’applique aux litiges déjà ouverts lorsqu’il entrera en vigueur. Là encore, le Sénat a retoqué sa proposition.

Que les sociétés numériques tentent d’influer sur la rédaction des textes légaux fait partie intégrante du jeu de la régulation – on retrouve quelquefois très directement leurs traces, y compris au niveau européen.

Dans le présent cas, les propositions de Google ont échoué à l’étape sénatoriale. Le texte doit encore être débattu à l’Assemblée nationale.

UK : Telegram ne modère pas les comptes d’un vaste marché noir, pourtant sanctionné

16 avril 2026 à 09:01
Qui moderera le modérateur ?
UK : Telegram ne modère pas les comptes d’un vaste marché noir, pourtant sanctionné

Un vaste réseau d’escroquerie notamment financé via des cryptomonnaies continue de sévir sur Telegram, quand bien même le gouvernement britannique l’a sanctionné mi-mars.

Depuis plus de trois ans, un vaste marché noir nommé Xinbi Guarantee prospère sur Telegram. L’essentiel des services qui y sont vendus ? Du blanchiment d’argent, des escroqueries aux cryptoactifs, des armes potentiellement utilisées pour les opérations de trafic d’êtres humains de ces mêmes escrocs, de la prostitution de mineurs…

Connu depuis plusieurs années des experts en cybersécurité, sanctionné en mars par le gouvernement britannique, ce marché noir continue de prospérer sur l’application sociale et de messagerie de Pavel Durov. D’après Wired, depuis sa création, Xinbi Guarantee a permis de réaliser pour 21 milliards de dollars de transactions en langues chinoises. Depuis sa condamnation par le Royaume-Uni, il a notamment facilité 505 millions de dollars d’échanges. Pour autant, Telegram n’en modère pas les comptes principaux.

Sanctions britanniques

Que Telegram héberge des comptes problématiques n’est pas une nouveauté : des sociétés comme le spécialiste russe de la cybersécurité Kaspersky publient même des guides pour permettre aux internautes de rester en sécurité sur la plateforme, soulignant qu’elle est devenue un outil de choix pour les adeptes du phishing ou d’autres types de cyberdélinquances.

Dans le cas de Xinbi Guarantee, cela dit, l’ampleur du réseau et des transactions qu’il permet d’opérer ont poussé le ministère des Affaires étrangères britannique à sévir mi-mars. Dans un communiqué, le gouvernement expliquait s’attaquer directement à la place de marché recourant aux cryptoactifs pour lutter contre les trafics d’êtres humains, mais aussi protéger les victimes constatées et potentielles contre la revente de leurs données.

Cette décision était prise dans le cadre d’une action plus large contre les propriétaires et opérateurs d’un vaste centre d’arnaques nommé #8 Park et installé au Cambodge. Depuis plusieurs années, les Nations Unies et les forces de police de multiples États constatent l’augmentation des cas de phishing, d’arnaques sentimentales et d’autres types d’escroqueries opérées depuis des centres illégaux d’Asie du Sud-Est, par des personnes elles-mêmes privées de leurs droits.

Dans de précédentes tentatives de mettre fin à l’existence de Xinbi Guarantee, la place de marché dédiée à l’escroquerie s’est illustrée par sa capacité à déployer ses propres outils, et notamment son propre système de paiement, XinbiPay.

Dans le cas présent, le Royaume-Uni annonçait concrètement isoler Xinbi Guarantee et ses outils de « l’écosystème crypto légitime, perturbant nettement ses activités en affectant sa capacité à effectuer des transactions. BYEX, une autre plateforme de cryptomonnaies qui avait été utilisée pour blanchir les profits issus d’escroqueries, a fermé ses portes à la suite des sanctions britanniques l’année dernière. »

Telegram comme infrastructure d’échanges

Pour autant, une large part des échanges passe par une plateforme grand public dont les conditions d’utilisation devraient théoriquement justifier la modération. La politique de Telegram interdit en effet de recourir à ses services pour « spammer ou escroquer les utilisateurs » et « réaliser des activités reconnues illégales dans la majorité des pays. Ceci inclut les agressions sexuelles sur mineurs, la vente ou l’offre de biens et de services illégaux, etc. »

Trois semaines après la décision britannique, la plateforme n’a cela dit toujours pas bloqué les principaux comptes gérant le fonctionnement de Xinbi Guarantee. « Ça me dépasse. Il n’y a littéralement aucune entreprise légitime au monde qui accueille ce niveau d’activité criminelle et qui l’affiche si ouvertement », explique à Wired le chercheur en cybersécurité Gary Warner.

Cette décision est d’autant plus difficile à comprendre que la plateforme a suspendu Xinbi Guarantee quelque temps au printemps 2025. En juin, après l’avoir laissé se déployer à nouveau sur ses outils, l’entreprise a justifié son choix de laisser la place de marché – et la multitude d’autres groupes qui orchestrent eux aussi de vastes réseaux d’escroqueries et de trafics – au motif qu’ils permettraient aux citoyens chinois « de trouver des circuits alternatifs pour déplacer des fonds à l’international », une description qui passe sous silence l’ampleur et la gravité des activités échangées via ces hubs d’escroquerie.

Ce refus d’agir résonne par ailleurs avec l’absence d’actions de Telegram sur d’autres thématiques théoriquement interdites par ses propres règles d’utilisation. Début avril, l’ONG AI Forensics pointait la persistance de vastes groupes de diffusion d’images non consenties à caractère sexuel sur le réseau.

Le rapport appelait la Commission européenne à qualifier la plateforme de « Très grande plateforme en ligne » au sens du règlement sur les services numériques (DSA), pour pouvoir le soumettre à de plus hautes exigences de gestion des risques. Le lendemain, Pavel Durov répondait en recourant à des ressorts typiquement complotistes et présentait la régulation européenne comme une forme de censure.

UK : Telegram ne modère pas les comptes d’un vaste marché noir, pourtant sanctionné

16 avril 2026 à 09:01
Qui moderera le modérateur ?
UK : Telegram ne modère pas les comptes d’un vaste marché noir, pourtant sanctionné

Un vaste réseau d’escroquerie notamment financé via des cryptomonnaies continue de sévir sur Telegram, quand bien même le gouvernement britannique l’a sanctionné mi-mars.

Depuis plus de trois ans, un vaste marché noir nommé Xinbi Guarantee prospère sur Telegram. L’essentiel des services qui y sont vendus ? Du blanchiment d’argent, des escroqueries aux cryptoactifs, des armes potentiellement utilisées pour les opérations de trafic d’êtres humains de ces mêmes escrocs, de la prostitution de mineurs…

Connu depuis plusieurs années des experts en cybersécurité, sanctionné en mars par le gouvernement britannique, ce marché noir continue de prospérer sur l’application sociale et de messagerie de Pavel Durov. D’après Wired, depuis sa création, Xinbi Guarantee a permis de réaliser pour 21 milliards de dollars de transactions en langues chinoises. Depuis sa condamnation par le Royaume-Uni, il a notamment facilité 505 millions de dollars d’échanges. Pour autant, Telegram n’en modère pas les comptes principaux.

Sanctions britanniques

Que Telegram héberge des comptes problématiques n’est pas une nouveauté : des sociétés comme le spécialiste russe de la cybersécurité Kaspersky publient même des guides pour permettre aux internautes de rester en sécurité sur la plateforme, soulignant qu’elle est devenue un outil de choix pour les adeptes du phishing ou d’autres types de cyberdélinquances.

Dans le cas de Xinbi Guarantee, cela dit, l’ampleur du réseau et des transactions qu’il permet d’opérer ont poussé le ministère des Affaires étrangères britannique à sévir mi-mars. Dans un communiqué, le gouvernement expliquait s’attaquer directement à la place de marché recourant aux cryptoactifs pour lutter contre les trafics d’êtres humains, mais aussi protéger les victimes constatées et potentielles contre la revente de leurs données.

Cette décision était prise dans le cadre d’une action plus large contre les propriétaires et opérateurs d’un vaste centre d’arnaques nommé #8 Park et installé au Cambodge. Depuis plusieurs années, les Nations Unies et les forces de police de multiples États constatent l’augmentation des cas de phishing, d’arnaques sentimentales et d’autres types d’escroqueries opérées depuis des centres illégaux d’Asie du Sud-Est, par des personnes elles-mêmes privées de leurs droits.

Dans de précédentes tentatives de mettre fin à l’existence de Xinbi Guarantee, la place de marché dédiée à l’escroquerie s’est illustrée par sa capacité à déployer ses propres outils, et notamment son propre système de paiement, XinbiPay.

Dans le cas présent, le Royaume-Uni annonçait concrètement isoler Xinbi Guarantee et ses outils de « l’écosystème crypto légitime, perturbant nettement ses activités en affectant sa capacité à effectuer des transactions. BYEX, une autre plateforme de cryptomonnaies qui avait été utilisée pour blanchir les profits issus d’escroqueries, a fermé ses portes à la suite des sanctions britanniques l’année dernière. »

Telegram comme infrastructure d’échanges

Pour autant, une large part des échanges passe par une plateforme grand public dont les conditions d’utilisation devraient théoriquement justifier la modération. La politique de Telegram interdit en effet de recourir à ses services pour « spammer ou escroquer les utilisateurs » et « réaliser des activités reconnues illégales dans la majorité des pays. Ceci inclut les agressions sexuelles sur mineurs, la vente ou l’offre de biens et de services illégaux, etc. »

Trois semaines après la décision britannique, la plateforme n’a cela dit toujours pas bloqué les principaux comptes gérant le fonctionnement de Xinbi Guarantee. « Ça me dépasse. Il n’y a littéralement aucune entreprise légitime au monde qui accueille ce niveau d’activité criminelle et qui l’affiche si ouvertement », explique à Wired le chercheur en cybersécurité Gary Warner.

Cette décision est d’autant plus difficile à comprendre que la plateforme a suspendu Xinbi Guarantee quelque temps au printemps 2025. En juin, après l’avoir laissé se déployer à nouveau sur ses outils, l’entreprise a justifié son choix de laisser la place de marché – et la multitude d’autres groupes qui orchestrent eux aussi de vastes réseaux d’escroqueries et de trafics – au motif qu’ils permettraient aux citoyens chinois « de trouver des circuits alternatifs pour déplacer des fonds à l’international », une description qui passe sous silence l’ampleur et la gravité des activités échangées via ces hubs d’escroquerie.

Ce refus d’agir résonne par ailleurs avec l’absence d’actions de Telegram sur d’autres thématiques théoriquement interdites par ses propres règles d’utilisation. Début avril, l’ONG AI Forensics pointait la persistance de vastes groupes de diffusion d’images non consenties à caractère sexuel sur le réseau.

Le rapport appelait la Commission européenne à qualifier la plateforme de « Très grande plateforme en ligne » au sens du règlement sur les services numériques (DSA), pour pouvoir le soumettre à de plus hautes exigences de gestion des risques. Le lendemain, Pavel Durov répondait en recourant à des ressorts typiquement complotistes et présentait la régulation européenne comme une forme de censure.

Deepfakes pornographiques : Apple a menacé de suspendre X de son App Store

15 avril 2026 à 14:56
Généré X
Deepfakes pornographiques : Apple a menacé de suspendre X de son App Store

En janvier, Apple a participé à la pression mise sur xAI et Grok pour les obliger à freiner la production de deepfakes dénudés non consentis. Depuis, néanmoins, la génération de ce type d’image reste possible sur les deux plateformes.

Après la vague de contenus pornographiques générés à l’aide de Grok, le plus souvent à partir de l’image de filles et de femmes réelles, à la fin de l’année 2025, le système d’IA et le réseau social X se sont retrouvés sous le feu des projecteurs. Malgré l’ouverture d’enquêtes sur cinq continents, et notamment par la Commission de protection des données irlandaise, la Commission européenne ou la justice française, et l’interdiction de Grok dans certains pays, dont l’Indonésie et la Malaisie, la plateforme semble n’avoir toujours pas réduit la portée de ce type de fonctionnalité.

Aux États-Unis, c’est même un autre acteur de l’écosystème numérique qui a menacé X d’une forme de sanction : d’après NBC News, Apple a menacé la société de supprimer l’application de l’App Store en janvier. D’après un document envoyé aux sénateurs états-uniens, l’entreprise a contacté les équipes X et Grok en leur demandant de « créer un plan d’amélioration de leur modération de contenu ». Au sommet de la crise, fin 2025, la vague de publications de deepfakes pornographiques (qu’il était à l’époque possible de produire simplement depuis un compte gratuit sur X, en se contentant de mentionner le robot Grok) entrait en violation flagrante des conditions d’utilisation de l’App Store.

Relative mise au pas de X

Mi-janvier, devant la polémique internationale créée par la multiplication de contenus non consensuels, tombant parfois dans la catégorisation de contenus d’agressions sexuelles sur mineurs (Child Sexual Abuse Material, CSAM), le compte X dédié à la sécurité de la plateforme avait publié un message selon lequel l’entreprise s’engageait, précisément, à « prendre des mesures pour supprimer les contenus illicites hautement prioritaires, notamment les contenus pédopornographiques et la nudité non consentie ».

Auprès des sénateurs, Apple indique avoir étudié les évolutions proposées pour les applications de X et Grok. Elle en a conclu que si X avait « largement résolu ses violations », Grok restait « non conforme » aux politiques du magasin d’application. Ses équipes ont donc alerté les fabricants du robot qu’à défaut d’amélioration, « l’application pourrait être supprimée de l’App Store ». Au bout de plusieurs échanges privés, les deux sociétés sont parvenues à un accord.

Grok persiste à produire des deepfakes pornographiques sur demande

Malgré ces engagements, NBC News constate ce 14 avril que des dizaines d’images à caractère sexuel, générées par IA mais représentant des personnes réelles continuaient d’être publiquement publiées sur X. Dans la plupart des cas, les personnes représentées sont des femmes – quoique des hommes puissent aussi être représentés –, souvent des actrices, des pop stars ou des personnalités politiques.

Certaines évolutions ont bien été déployées : par exemple, Grok refuse désormais l’essentiel des demandes de « dénudage » formulées publiquement, en particulier lorsqu’elles reprennent des tactiques éprouvées. Ainsi, demander à la machine de « mettre en bikini » l’image d’une personne reste généralement sans réponse. La somme globale d’images non consensuelles générées a par ailleurs réduit et aucune des images collectées par NBC (puis soumises à X, qui les a modérées) ne semble représenter des mineurs. 

Pour autant, d’autres types de requêtes que celles repérées par X permettent de continuer de produire les images problématiques. Certaines tendances jouent ainsi sur le mélange de plusieurs images, demandant par exemple à Grok d’intervertir des vêtements, en s’appuyant sur au moins une image de femme quasiment dévêtue.

Ces constatations sont faites alors que la prolifération de contenus de CSAM générés par IA et les risques que les grands modèles de langage créent en termes de violence contre les femmes et les filles sont de plus en plus documentés (sur une expérimentation menée pendant 11 jours en janvier, le Center for Countering Digital Hate calculait que Grok générait en moyenne une image sexualisée d’enfant toutes les 41 secondes).

Quoiqu’il en soit, X semble envisager de revenir sur ses promesses formulées début janvier en matière de protection des internautes : lors d’un procès tenu aux Pays-Bas, X a déclaré ne pas être capable d’arrêter tous les détournements de ses outils à des fins d’agressions et ne pas devoir être pénalisé pour les actions d’utilisateurs malveillants. Le tribunal a néanmoins ordonné à xAI et à Grok de cesser la création et la distribution de contenus de « nudification » généré par IA, et menacé l’entreprise d’une amende de 100 000 euros par jour de non mise en conformité.

Deepfakes pornographiques : Apple a menacé de suspendre X de son App Store

15 avril 2026 à 14:56
Généré X
Deepfakes pornographiques : Apple a menacé de suspendre X de son App Store

En janvier, Apple a participé à la pression mise sur xAI et Grok pour les obliger à freiner la production de deepfakes dénudés non consentis. Depuis, néanmoins, la génération de ce type d’image reste possible sur les deux plateformes.

Après la vague de contenus pornographiques générés à l’aide de Grok, le plus souvent à partir de l’image de filles et de femmes réelles, à la fin de l’année 2025, le système d’IA et le réseau social X se sont retrouvés sous le feu des projecteurs. Malgré l’ouverture d’enquêtes sur cinq continents, et notamment par la Commission de protection des données irlandaise, la Commission européenne ou la justice française, et l’interdiction de Grok dans certains pays, dont l’Indonésie et la Malaisie, la plateforme semble n’avoir toujours pas réduit la portée de ce type de fonctionnalité.

Aux États-Unis, c’est même un autre acteur de l’écosystème numérique qui a menacé X d’une forme de sanction : d’après NBC News, Apple a menacé la société de supprimer l’application de l’App Store en janvier. D’après un document envoyé aux sénateurs états-uniens, l’entreprise a contacté les équipes X et Grok en leur demandant de « créer un plan d’amélioration de leur modération de contenu ». Au sommet de la crise, fin 2025, la vague de publications de deepfakes pornographiques (qu’il était à l’époque possible de produire simplement depuis un compte gratuit sur X, en se contentant de mentionner le robot Grok) entrait en violation flagrante des conditions d’utilisation de l’App Store.

Relative mise au pas de X

Mi-janvier, devant la polémique internationale créée par la multiplication de contenus non consensuels, tombant parfois dans la catégorisation de contenus d’agressions sexuelles sur mineurs (Child Sexual Abuse Material, CSAM), le compte X dédié à la sécurité de la plateforme avait publié un message selon lequel l’entreprise s’engageait, précisément, à « prendre des mesures pour supprimer les contenus illicites hautement prioritaires, notamment les contenus pédopornographiques et la nudité non consentie ».

Auprès des sénateurs, Apple indique avoir étudié les évolutions proposées pour les applications de X et Grok. Elle en a conclu que si X avait « largement résolu ses violations », Grok restait « non conforme » aux politiques du magasin d’application. Ses équipes ont donc alerté les fabricants du robot qu’à défaut d’amélioration, « l’application pourrait être supprimée de l’App Store ». Au bout de plusieurs échanges privés, les deux sociétés sont parvenues à un accord.

Grok persiste à produire des deepfakes pornographiques sur demande

Malgré ces engagements, NBC News constate ce 14 avril que des dizaines d’images à caractère sexuel, générées par IA mais représentant des personnes réelles continuaient d’être publiquement publiées sur X. Dans la plupart des cas, les personnes représentées sont des femmes – quoique des hommes puissent aussi être représentés –, souvent des actrices, des pop stars ou des personnalités politiques.

Certaines évolutions ont bien été déployées : par exemple, Grok refuse désormais l’essentiel des demandes de « dénudage » formulées publiquement, en particulier lorsqu’elles reprennent des tactiques éprouvées. Ainsi, demander à la machine de « mettre en bikini » l’image d’une personne reste généralement sans réponse. La somme globale d’images non consensuelles générées a par ailleurs réduit et aucune des images collectées par NBC (puis soumises à X, qui les a modérées) ne semble représenter des mineurs. 

Pour autant, d’autres types de requêtes que celles repérées par X permettent de continuer de produire les images problématiques. Certaines tendances jouent ainsi sur le mélange de plusieurs images, demandant par exemple à Grok d’intervertir des vêtements, en s’appuyant sur au moins une image de femme quasiment dévêtue.

Ces constatations sont faites alors que la prolifération de contenus de CSAM générés par IA et les risques que les grands modèles de langage créent en termes de violence contre les femmes et les filles sont de plus en plus documentés (sur une expérimentation menée pendant 11 jours en janvier, le Center for Countering Digital Hate calculait que Grok générait en moyenne une image sexualisée d’enfant toutes les 41 secondes).

Quoiqu’il en soit, X semble envisager de revenir sur ses promesses formulées début janvier en matière de protection des internautes : lors d’un procès tenu aux Pays-Bas, X a déclaré ne pas être capable d’arrêter tous les détournements de ses outils à des fins d’agressions et ne pas devoir être pénalisé pour les actions d’utilisateurs malveillants. Le tribunal a néanmoins ordonné à xAI et à Grok de cesser la création et la distribution de contenus de « nudification » généré par IA, et menacé l’entreprise d’une amende de 100 000 euros par jour de non mise en conformité.

Face à un public inquiet, l’IA continue son expansion à grande vitesse

15 avril 2026 à 11:40
Enthousiasme variable
Face à un public inquiet, l’IA continue son expansion à grande vitesse

L’AI Index 2026 de l’Institute for Human-Centered Artificial Intelligence décrit une industrie de l’IA en croissance ultra-rapide, mais qui distance au passage les travaux dédiés à la sécurisation de ces technologies. Quand bien même les usages se répandent, elle peine par ailleurs à remporter l’adhésion de l’opinion publique.

Les investissements dans l’intelligence artificielle continuent d’exploser, tandis que ses effets sur les emplois, et surtout sur l’opinion publique, restent (très) mitigés. Tels sont certains des constats dressés dans le dernier AI Index.

Globalement, l’édition 2026 de ce travail publié chaque année par l’Institute for Human-Centered Artificial Intelligence de l’université de Stanford dessine l’image d’une industrie qui va très vite, tandis que le reste du monde peine à suivre.

L’écart Chine-US disparaît

Dans le type de technologies déployées, cela se traduit à la fois par l’amélioration continue des modèles de pointe, par la manière dont la Chine a réussi à rattraper les États-Unis en termes de performance, mais aussi par l’explosion du nombre d’incidents constatés au fil des années récentes, alors que le domaine de « l’IA responsable » s’est peu à peu fait distancer.

Évolution des incidents relevés dans l’AI Incident Database. / Capture d’écran AI Index

En termes économiques, si les revenus des entreprises d’IA continuent de croître très rapidement, ils restent grevés par les coûts d’infrastructure et de calcul, qui atteignent leurs propres records.

Évolution des dépenses (estimation) des deux leaders du secteurs que sont OpenAI et Anthropic en milliards de dollars. / Capture d’écran AI Index

L’empreinte environnementale du secteur s’étend de manière concomitante : les émissions liées à l’entraînement de Grok 4 sont ainsi estimées à 72 816 tonnes d’équivalent CO₂, la consommation annuelle en eau liée à l’inférence (opérations réalisées lorsque le modèle est sollicité) de GPT-4o pourrait dépasser à elle seule les besoins en eau potable de 12 millions de personnes.

Du point de vue des résultats des modèles, ceux dédiés à la génération d’image deviennent peu à peu en mesure de représenter la manière dont des objets évoluent (par exemple : représenter les vaguelettes provoquées par le fait de lancer un objet dans de l’eau), mais certains paradoxes subsistent. Un modèle comme Gemini Deep Think peut ainsi remporter une médaille d’or (35 points) aux Olympiades internationales de mathématique, mais reste incapable de donner l’heure, comme la plupart des grands modèles de langage.

Côté robotique, la Chine se démarque comme le pays qui a déployé en 2025 le plus de robots industriels (plus que tout le reste du monde), au point de compter 54 % de ces outils à l’échelle internationale. Si ces dispositifs fonctionnent très bien dans des environnements contrôlés, relève l’AI Index, ils continuent de rester à la traine dans des tâches quotidiennes, ne parvenant à remplir que 12 % de tâches ménagères.

Un intérêt croissant pour les utilisateurs

Aux États-Unis, l’AI Index estime que la valeur dégagée par les consommateurs était de 172 milliards de dollars sur un an début 2026, contre 112 milliards de dollars l’année précédente, sachant que l’essentiel des outils utilisés par le public restent quasiment gratuits.


Il reste 60% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

❌