Vue normale

Reçu — 21 avril 2026 Actualités numériques

Comment l’intelligence artificielle générative bouscule le métier d’avocat d’affaires

21 avril 2026 à 07:00
Conseil automatisé
Comment l’intelligence artificielle générative bouscule le métier d’avocat d’affaires

Chez les avocats aussi, l’IA générative change certaines logiques de travail. Des clients qui pré-rédigent leurs contrats à l’IA comme assistant de documentation, Next a demandé à plusieurs professionnels leurs retours d’expérience.

« De la même manière qu’on peut demander à ChatGPT des explications sur des analyses de sang ou des symptômes avant d’aller chez le médecin, les clients ont de plus en plus tendance à demander à des robots d’IA des conseils juridiques. »

Avocate, spécialiste des questions numériques, Alexandra Iteanu constate depuis environ un an une évolution dans la manière dont les clients la contactent, elle ou son cabinet. De plus en plus fréquemment, des clients arrivent avec des contrats pré-rédigés ou avec des pistes de stratégies pour régler un de leurs contentieux. Cette pratique, témoigne-t-elle, fait évoluer la position des juristes d’une manière similaire à celle constatée du côté des traducteurs ou des développeurs : « Ça nous place dans une logique de relecture plutôt que de production. »

Dans quelle mesure cela fait-il évoluer la qualité du travail juridique, en revanche ? À son compte, l’avocate d’affaires Sarah Jelin indique avoir vu « au moins un pacte rédigé par IA », une expérience qu’elle préférerait éviter de réitérer : « il vaut mieux que je le fasse moi-même, cela irait plus vite ». Du côté du cabinet Advant Altana, fort d’une centaine de personnes, Jordan Illouz indique avoir pour le moment peu rencontré ce type de pratique, notamment parce qu’il travaille avant tout sur du contentieux commercial. « Mais je vois le jour où ça va m’arriver », assure-t-il à Next.

D’autant qu’en interne, les avocats eux-mêmes adoptent largement ces nouveaux outils. Selon un récent sondage de Lefebvre Dalloz et CSA Research mené auprès de 627 professionnels du droit, 72 % d’entre eux recourent à l’IA au quotidien, que ce soit via des outils grand public ou d’autres dédiés plus spécifiquement à leurs activités.

Une évolution technique qui force à « renouveler la confiance »

« Je pense que c’est très différent selon la taille du cabinet » avance Alexandra Iteanu : pour l’avocate, la clientèle n’attend pas la même chose selon qu’elle sollicite une petite ou une grosse structure. Il est possible, aussi, que les juristes spécialisés dans le numérique, comme elle, soient aux avant-postes des évolutions que l’IA impulse dans les manières de pratiquer le droit.


Il reste 81% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Reçu — 16 avril 2026 Actualités numériques

☕️ Présomption d’usage de contenus culturels dans l’IA : les tentatives d’influence de Google

16 avril 2026 à 14:00


Google est très mobilisé pour faire évoluer la proposition de loi sur l’intelligence artificielle adoptée au Sénat le 8 avril dernier. En l’état, le texte instaure surtout une présomption d’usage des contenus culturels par les constructeurs d’IA dès que des indices peuvent en être repérés dans les résultats.

Concrètement, cette présomption s’appliquerait dès qu’il est possible de créer des contenus « dans le style » d’un ou une autrice, ou dès que la machine recrache des éléments visiblement protégés, comme ces extraits de Harry Potter retrouvés dans les données d’entraînement des machines de Meta ou de Mistral.

D’après L’Informé, Google a tenté de pousser trois stratégies pour minimiser les effets du texte : l’une aurait consisté à « limiter l’effet du texte aux contenus culturels de qualité », c’est-à-dire ne réserver l’idée de présomption d’entraînement qu’aux œuvres présentes dans les catalogues d’organismes de gestion collective.

Illustration : Flock

Une autre cherchait à « clarifier » la manière dont la loi s’agençait « avec l’exception de fouille de données », ou « text and data mining » (TDM) de la directive de 2019 sur le droit d’auteur et les droits voisins dans le marché unique numérique.

Si elle est « alléguée par les fournisseurs d’IA comme fondement juridique à leurs pratiques de moissonnage de contenus protégés », écrivait le Sénat dans son rapport, il s’agit néanmoins d’un « détournement » de l’objectif initial du texte.

Une autre tentative a consisté à empêcher que le texte final ne s’applique aux litiges déjà ouverts lorsqu’il entrera en vigueur. Là encore, le Sénat a retoqué sa proposition.

Que les sociétés numériques tentent d’influer sur la rédaction des textes légaux fait partie intégrante du jeu de la régulation – on retrouve quelquefois très directement leurs traces, y compris au niveau européen.

Dans le présent cas, les propositions de Google ont échoué à l’étape sénatoriale. Le texte doit encore être débattu à l’Assemblée nationale.

☕️ Présomption d’usage de contenus culturels dans l’IA : les tentatives d’influence de Google

16 avril 2026 à 14:00


Google est très mobilisé pour faire évoluer la proposition de loi sur l’intelligence artificielle adoptée au Sénat le 8 avril dernier. En l’état, le texte instaure surtout une présomption d’usage des contenus culturels par les constructeurs d’IA dès que des indices peuvent en être repérés dans les résultats.

Concrètement, cette présomption s’appliquerait dès qu’il est possible de créer des contenus « dans le style » d’un ou une autrice, ou dès que la machine recrache des éléments visiblement protégés, comme ces extraits de Harry Potter retrouvés dans les données d’entraînement des machines de Meta ou de Mistral.

D’après L’Informé, Google a tenté de pousser trois stratégies pour minimiser les effets du texte : l’une aurait consisté à « limiter l’effet du texte aux contenus culturels de qualité », c’est-à-dire ne réserver l’idée de présomption d’entraînement qu’aux œuvres présentes dans les catalogues d’organismes de gestion collective.

Illustration : Flock

Une autre cherchait à « clarifier » la manière dont la loi s’agençait « avec l’exception de fouille de données », ou « text and data mining » (TDM) de la directive de 2019 sur le droit d’auteur et les droits voisins dans le marché unique numérique.

Si elle est « alléguée par les fournisseurs d’IA comme fondement juridique à leurs pratiques de moissonnage de contenus protégés », écrivait le Sénat dans son rapport, il s’agit néanmoins d’un « détournement » de l’objectif initial du texte.

Une autre tentative a consisté à empêcher que le texte final ne s’applique aux litiges déjà ouverts lorsqu’il entrera en vigueur. Là encore, le Sénat a retoqué sa proposition.

Que les sociétés numériques tentent d’influer sur la rédaction des textes légaux fait partie intégrante du jeu de la régulation – on retrouve quelquefois très directement leurs traces, y compris au niveau européen.

Dans le présent cas, les propositions de Google ont échoué à l’étape sénatoriale. Le texte doit encore être débattu à l’Assemblée nationale.

UK : Telegram ne modère pas les comptes d’un vaste marché noir, pourtant sanctionné

16 avril 2026 à 09:01
Qui moderera le modérateur ?
UK : Telegram ne modère pas les comptes d’un vaste marché noir, pourtant sanctionné

Un vaste réseau d’escroquerie notamment financé via des cryptomonnaies continue de sévir sur Telegram, quand bien même le gouvernement britannique l’a sanctionné mi-mars.

Depuis plus de trois ans, un vaste marché noir nommé Xinbi Guarantee prospère sur Telegram. L’essentiel des services qui y sont vendus ? Du blanchiment d’argent, des escroqueries aux cryptoactifs, des armes potentiellement utilisées pour les opérations de trafic d’êtres humains de ces mêmes escrocs, de la prostitution de mineurs…

Connu depuis plusieurs années des experts en cybersécurité, sanctionné en mars par le gouvernement britannique, ce marché noir continue de prospérer sur l’application sociale et de messagerie de Pavel Durov. D’après Wired, depuis sa création, Xinbi Guarantee a permis de réaliser pour 21 milliards de dollars de transactions en langues chinoises. Depuis sa condamnation par le Royaume-Uni, il a notamment facilité 505 millions de dollars d’échanges. Pour autant, Telegram n’en modère pas les comptes principaux.

Sanctions britanniques

Que Telegram héberge des comptes problématiques n’est pas une nouveauté : des sociétés comme le spécialiste russe de la cybersécurité Kaspersky publient même des guides pour permettre aux internautes de rester en sécurité sur la plateforme, soulignant qu’elle est devenue un outil de choix pour les adeptes du phishing ou d’autres types de cyberdélinquances.

Dans le cas de Xinbi Guarantee, cela dit, l’ampleur du réseau et des transactions qu’il permet d’opérer ont poussé le ministère des Affaires étrangères britannique à sévir mi-mars. Dans un communiqué, le gouvernement expliquait s’attaquer directement à la place de marché recourant aux cryptoactifs pour lutter contre les trafics d’êtres humains, mais aussi protéger les victimes constatées et potentielles contre la revente de leurs données.

Cette décision était prise dans le cadre d’une action plus large contre les propriétaires et opérateurs d’un vaste centre d’arnaques nommé #8 Park et installé au Cambodge. Depuis plusieurs années, les Nations Unies et les forces de police de multiples États constatent l’augmentation des cas de phishing, d’arnaques sentimentales et d’autres types d’escroqueries opérées depuis des centres illégaux d’Asie du Sud-Est, par des personnes elles-mêmes privées de leurs droits.

Dans de précédentes tentatives de mettre fin à l’existence de Xinbi Guarantee, la place de marché dédiée à l’escroquerie s’est illustrée par sa capacité à déployer ses propres outils, et notamment son propre système de paiement, XinbiPay.

Dans le cas présent, le Royaume-Uni annonçait concrètement isoler Xinbi Guarantee et ses outils de « l’écosystème crypto légitime, perturbant nettement ses activités en affectant sa capacité à effectuer des transactions. BYEX, une autre plateforme de cryptomonnaies qui avait été utilisée pour blanchir les profits issus d’escroqueries, a fermé ses portes à la suite des sanctions britanniques l’année dernière. »

Telegram comme infrastructure d’échanges

Pour autant, une large part des échanges passe par une plateforme grand public dont les conditions d’utilisation devraient théoriquement justifier la modération. La politique de Telegram interdit en effet de recourir à ses services pour « spammer ou escroquer les utilisateurs » et « réaliser des activités reconnues illégales dans la majorité des pays. Ceci inclut les agressions sexuelles sur mineurs, la vente ou l’offre de biens et de services illégaux, etc. »

Trois semaines après la décision britannique, la plateforme n’a cela dit toujours pas bloqué les principaux comptes gérant le fonctionnement de Xinbi Guarantee. « Ça me dépasse. Il n’y a littéralement aucune entreprise légitime au monde qui accueille ce niveau d’activité criminelle et qui l’affiche si ouvertement », explique à Wired le chercheur en cybersécurité Gary Warner.

Cette décision est d’autant plus difficile à comprendre que la plateforme a suspendu Xinbi Guarantee quelque temps au printemps 2025. En juin, après l’avoir laissé se déployer à nouveau sur ses outils, l’entreprise a justifié son choix de laisser la place de marché – et la multitude d’autres groupes qui orchestrent eux aussi de vastes réseaux d’escroqueries et de trafics – au motif qu’ils permettraient aux citoyens chinois « de trouver des circuits alternatifs pour déplacer des fonds à l’international », une description qui passe sous silence l’ampleur et la gravité des activités échangées via ces hubs d’escroquerie.

Ce refus d’agir résonne par ailleurs avec l’absence d’actions de Telegram sur d’autres thématiques théoriquement interdites par ses propres règles d’utilisation. Début avril, l’ONG AI Forensics pointait la persistance de vastes groupes de diffusion d’images non consenties à caractère sexuel sur le réseau.

Le rapport appelait la Commission européenne à qualifier la plateforme de « Très grande plateforme en ligne » au sens du règlement sur les services numériques (DSA), pour pouvoir le soumettre à de plus hautes exigences de gestion des risques. Le lendemain, Pavel Durov répondait en recourant à des ressorts typiquement complotistes et présentait la régulation européenne comme une forme de censure.

UK : Telegram ne modère pas les comptes d’un vaste marché noir, pourtant sanctionné

16 avril 2026 à 09:01
Qui moderera le modérateur ?
UK : Telegram ne modère pas les comptes d’un vaste marché noir, pourtant sanctionné

Un vaste réseau d’escroquerie notamment financé via des cryptomonnaies continue de sévir sur Telegram, quand bien même le gouvernement britannique l’a sanctionné mi-mars.

Depuis plus de trois ans, un vaste marché noir nommé Xinbi Guarantee prospère sur Telegram. L’essentiel des services qui y sont vendus ? Du blanchiment d’argent, des escroqueries aux cryptoactifs, des armes potentiellement utilisées pour les opérations de trafic d’êtres humains de ces mêmes escrocs, de la prostitution de mineurs…

Connu depuis plusieurs années des experts en cybersécurité, sanctionné en mars par le gouvernement britannique, ce marché noir continue de prospérer sur l’application sociale et de messagerie de Pavel Durov. D’après Wired, depuis sa création, Xinbi Guarantee a permis de réaliser pour 21 milliards de dollars de transactions en langues chinoises. Depuis sa condamnation par le Royaume-Uni, il a notamment facilité 505 millions de dollars d’échanges. Pour autant, Telegram n’en modère pas les comptes principaux.

Sanctions britanniques

Que Telegram héberge des comptes problématiques n’est pas une nouveauté : des sociétés comme le spécialiste russe de la cybersécurité Kaspersky publient même des guides pour permettre aux internautes de rester en sécurité sur la plateforme, soulignant qu’elle est devenue un outil de choix pour les adeptes du phishing ou d’autres types de cyberdélinquances.

Dans le cas de Xinbi Guarantee, cela dit, l’ampleur du réseau et des transactions qu’il permet d’opérer ont poussé le ministère des Affaires étrangères britannique à sévir mi-mars. Dans un communiqué, le gouvernement expliquait s’attaquer directement à la place de marché recourant aux cryptoactifs pour lutter contre les trafics d’êtres humains, mais aussi protéger les victimes constatées et potentielles contre la revente de leurs données.

Cette décision était prise dans le cadre d’une action plus large contre les propriétaires et opérateurs d’un vaste centre d’arnaques nommé #8 Park et installé au Cambodge. Depuis plusieurs années, les Nations Unies et les forces de police de multiples États constatent l’augmentation des cas de phishing, d’arnaques sentimentales et d’autres types d’escroqueries opérées depuis des centres illégaux d’Asie du Sud-Est, par des personnes elles-mêmes privées de leurs droits.

Dans de précédentes tentatives de mettre fin à l’existence de Xinbi Guarantee, la place de marché dédiée à l’escroquerie s’est illustrée par sa capacité à déployer ses propres outils, et notamment son propre système de paiement, XinbiPay.

Dans le cas présent, le Royaume-Uni annonçait concrètement isoler Xinbi Guarantee et ses outils de « l’écosystème crypto légitime, perturbant nettement ses activités en affectant sa capacité à effectuer des transactions. BYEX, une autre plateforme de cryptomonnaies qui avait été utilisée pour blanchir les profits issus d’escroqueries, a fermé ses portes à la suite des sanctions britanniques l’année dernière. »

Telegram comme infrastructure d’échanges

Pour autant, une large part des échanges passe par une plateforme grand public dont les conditions d’utilisation devraient théoriquement justifier la modération. La politique de Telegram interdit en effet de recourir à ses services pour « spammer ou escroquer les utilisateurs » et « réaliser des activités reconnues illégales dans la majorité des pays. Ceci inclut les agressions sexuelles sur mineurs, la vente ou l’offre de biens et de services illégaux, etc. »

Trois semaines après la décision britannique, la plateforme n’a cela dit toujours pas bloqué les principaux comptes gérant le fonctionnement de Xinbi Guarantee. « Ça me dépasse. Il n’y a littéralement aucune entreprise légitime au monde qui accueille ce niveau d’activité criminelle et qui l’affiche si ouvertement », explique à Wired le chercheur en cybersécurité Gary Warner.

Cette décision est d’autant plus difficile à comprendre que la plateforme a suspendu Xinbi Guarantee quelque temps au printemps 2025. En juin, après l’avoir laissé se déployer à nouveau sur ses outils, l’entreprise a justifié son choix de laisser la place de marché – et la multitude d’autres groupes qui orchestrent eux aussi de vastes réseaux d’escroqueries et de trafics – au motif qu’ils permettraient aux citoyens chinois « de trouver des circuits alternatifs pour déplacer des fonds à l’international », une description qui passe sous silence l’ampleur et la gravité des activités échangées via ces hubs d’escroquerie.

Ce refus d’agir résonne par ailleurs avec l’absence d’actions de Telegram sur d’autres thématiques théoriquement interdites par ses propres règles d’utilisation. Début avril, l’ONG AI Forensics pointait la persistance de vastes groupes de diffusion d’images non consenties à caractère sexuel sur le réseau.

Le rapport appelait la Commission européenne à qualifier la plateforme de « Très grande plateforme en ligne » au sens du règlement sur les services numériques (DSA), pour pouvoir le soumettre à de plus hautes exigences de gestion des risques. Le lendemain, Pavel Durov répondait en recourant à des ressorts typiquement complotistes et présentait la régulation européenne comme une forme de censure.

Reçu — 15 avril 2026 Actualités numériques

Deepfakes pornographiques : Apple a menacé de suspendre X de son App Store

15 avril 2026 à 14:56
Généré X
Deepfakes pornographiques : Apple a menacé de suspendre X de son App Store

En janvier, Apple a participé à la pression mise sur xAI et Grok pour les obliger à freiner la production de deepfakes dénudés non consentis. Depuis, néanmoins, la génération de ce type d’image reste possible sur les deux plateformes.

Après la vague de contenus pornographiques générés à l’aide de Grok, le plus souvent à partir de l’image de filles et de femmes réelles, à la fin de l’année 2025, le système d’IA et le réseau social X se sont retrouvés sous le feu des projecteurs. Malgré l’ouverture d’enquêtes sur cinq continents, et notamment par la Commission de protection des données irlandaise, la Commission européenne ou la justice française, et l’interdiction de Grok dans certains pays, dont l’Indonésie et la Malaisie, la plateforme semble n’avoir toujours pas réduit la portée de ce type de fonctionnalité.

Aux États-Unis, c’est même un autre acteur de l’écosystème numérique qui a menacé X d’une forme de sanction : d’après NBC News, Apple a menacé la société de supprimer l’application de l’App Store en janvier. D’après un document envoyé aux sénateurs états-uniens, l’entreprise a contacté les équipes X et Grok en leur demandant de « créer un plan d’amélioration de leur modération de contenu ». Au sommet de la crise, fin 2025, la vague de publications de deepfakes pornographiques (qu’il était à l’époque possible de produire simplement depuis un compte gratuit sur X, en se contentant de mentionner le robot Grok) entrait en violation flagrante des conditions d’utilisation de l’App Store.

Relative mise au pas de X

Mi-janvier, devant la polémique internationale créée par la multiplication de contenus non consensuels, tombant parfois dans la catégorisation de contenus d’agressions sexuelles sur mineurs (Child Sexual Abuse Material, CSAM), le compte X dédié à la sécurité de la plateforme avait publié un message selon lequel l’entreprise s’engageait, précisément, à « prendre des mesures pour supprimer les contenus illicites hautement prioritaires, notamment les contenus pédopornographiques et la nudité non consentie ».

Auprès des sénateurs, Apple indique avoir étudié les évolutions proposées pour les applications de X et Grok. Elle en a conclu que si X avait « largement résolu ses violations », Grok restait « non conforme » aux politiques du magasin d’application. Ses équipes ont donc alerté les fabricants du robot qu’à défaut d’amélioration, « l’application pourrait être supprimée de l’App Store ». Au bout de plusieurs échanges privés, les deux sociétés sont parvenues à un accord.

Grok persiste à produire des deepfakes pornographiques sur demande

Malgré ces engagements, NBC News constate ce 14 avril que des dizaines d’images à caractère sexuel, générées par IA mais représentant des personnes réelles continuaient d’être publiquement publiées sur X. Dans la plupart des cas, les personnes représentées sont des femmes – quoique des hommes puissent aussi être représentés –, souvent des actrices, des pop stars ou des personnalités politiques.

Certaines évolutions ont bien été déployées : par exemple, Grok refuse désormais l’essentiel des demandes de « dénudage » formulées publiquement, en particulier lorsqu’elles reprennent des tactiques éprouvées. Ainsi, demander à la machine de « mettre en bikini » l’image d’une personne reste généralement sans réponse. La somme globale d’images non consensuelles générées a par ailleurs réduit et aucune des images collectées par NBC (puis soumises à X, qui les a modérées) ne semble représenter des mineurs. 

Pour autant, d’autres types de requêtes que celles repérées par X permettent de continuer de produire les images problématiques. Certaines tendances jouent ainsi sur le mélange de plusieurs images, demandant par exemple à Grok d’intervertir des vêtements, en s’appuyant sur au moins une image de femme quasiment dévêtue.

Ces constatations sont faites alors que la prolifération de contenus de CSAM générés par IA et les risques que les grands modèles de langage créent en termes de violence contre les femmes et les filles sont de plus en plus documentés (sur une expérimentation menée pendant 11 jours en janvier, le Center for Countering Digital Hate calculait que Grok générait en moyenne une image sexualisée d’enfant toutes les 41 secondes).

Quoiqu’il en soit, X semble envisager de revenir sur ses promesses formulées début janvier en matière de protection des internautes : lors d’un procès tenu aux Pays-Bas, X a déclaré ne pas être capable d’arrêter tous les détournements de ses outils à des fins d’agressions et ne pas devoir être pénalisé pour les actions d’utilisateurs malveillants. Le tribunal a néanmoins ordonné à xAI et à Grok de cesser la création et la distribution de contenus de « nudification » généré par IA, et menacé l’entreprise d’une amende de 100 000 euros par jour de non mise en conformité.

Deepfakes pornographiques : Apple a menacé de suspendre X de son App Store

15 avril 2026 à 14:56
Généré X
Deepfakes pornographiques : Apple a menacé de suspendre X de son App Store

En janvier, Apple a participé à la pression mise sur xAI et Grok pour les obliger à freiner la production de deepfakes dénudés non consentis. Depuis, néanmoins, la génération de ce type d’image reste possible sur les deux plateformes.

Après la vague de contenus pornographiques générés à l’aide de Grok, le plus souvent à partir de l’image de filles et de femmes réelles, à la fin de l’année 2025, le système d’IA et le réseau social X se sont retrouvés sous le feu des projecteurs. Malgré l’ouverture d’enquêtes sur cinq continents, et notamment par la Commission de protection des données irlandaise, la Commission européenne ou la justice française, et l’interdiction de Grok dans certains pays, dont l’Indonésie et la Malaisie, la plateforme semble n’avoir toujours pas réduit la portée de ce type de fonctionnalité.

Aux États-Unis, c’est même un autre acteur de l’écosystème numérique qui a menacé X d’une forme de sanction : d’après NBC News, Apple a menacé la société de supprimer l’application de l’App Store en janvier. D’après un document envoyé aux sénateurs états-uniens, l’entreprise a contacté les équipes X et Grok en leur demandant de « créer un plan d’amélioration de leur modération de contenu ». Au sommet de la crise, fin 2025, la vague de publications de deepfakes pornographiques (qu’il était à l’époque possible de produire simplement depuis un compte gratuit sur X, en se contentant de mentionner le robot Grok) entrait en violation flagrante des conditions d’utilisation de l’App Store.

Relative mise au pas de X

Mi-janvier, devant la polémique internationale créée par la multiplication de contenus non consensuels, tombant parfois dans la catégorisation de contenus d’agressions sexuelles sur mineurs (Child Sexual Abuse Material, CSAM), le compte X dédié à la sécurité de la plateforme avait publié un message selon lequel l’entreprise s’engageait, précisément, à « prendre des mesures pour supprimer les contenus illicites hautement prioritaires, notamment les contenus pédopornographiques et la nudité non consentie ».

Auprès des sénateurs, Apple indique avoir étudié les évolutions proposées pour les applications de X et Grok. Elle en a conclu que si X avait « largement résolu ses violations », Grok restait « non conforme » aux politiques du magasin d’application. Ses équipes ont donc alerté les fabricants du robot qu’à défaut d’amélioration, « l’application pourrait être supprimée de l’App Store ». Au bout de plusieurs échanges privés, les deux sociétés sont parvenues à un accord.

Grok persiste à produire des deepfakes pornographiques sur demande

Malgré ces engagements, NBC News constate ce 14 avril que des dizaines d’images à caractère sexuel, générées par IA mais représentant des personnes réelles continuaient d’être publiquement publiées sur X. Dans la plupart des cas, les personnes représentées sont des femmes – quoique des hommes puissent aussi être représentés –, souvent des actrices, des pop stars ou des personnalités politiques.

Certaines évolutions ont bien été déployées : par exemple, Grok refuse désormais l’essentiel des demandes de « dénudage » formulées publiquement, en particulier lorsqu’elles reprennent des tactiques éprouvées. Ainsi, demander à la machine de « mettre en bikini » l’image d’une personne reste généralement sans réponse. La somme globale d’images non consensuelles générées a par ailleurs réduit et aucune des images collectées par NBC (puis soumises à X, qui les a modérées) ne semble représenter des mineurs. 

Pour autant, d’autres types de requêtes que celles repérées par X permettent de continuer de produire les images problématiques. Certaines tendances jouent ainsi sur le mélange de plusieurs images, demandant par exemple à Grok d’intervertir des vêtements, en s’appuyant sur au moins une image de femme quasiment dévêtue.

Ces constatations sont faites alors que la prolifération de contenus de CSAM générés par IA et les risques que les grands modèles de langage créent en termes de violence contre les femmes et les filles sont de plus en plus documentés (sur une expérimentation menée pendant 11 jours en janvier, le Center for Countering Digital Hate calculait que Grok générait en moyenne une image sexualisée d’enfant toutes les 41 secondes).

Quoiqu’il en soit, X semble envisager de revenir sur ses promesses formulées début janvier en matière de protection des internautes : lors d’un procès tenu aux Pays-Bas, X a déclaré ne pas être capable d’arrêter tous les détournements de ses outils à des fins d’agressions et ne pas devoir être pénalisé pour les actions d’utilisateurs malveillants. Le tribunal a néanmoins ordonné à xAI et à Grok de cesser la création et la distribution de contenus de « nudification » généré par IA, et menacé l’entreprise d’une amende de 100 000 euros par jour de non mise en conformité.

Face à un public inquiet, l’IA continue son expansion à grande vitesse

15 avril 2026 à 11:40
Enthousiasme variable
Face à un public inquiet, l’IA continue son expansion à grande vitesse

L’AI Index 2026 de l’Institute for Human-Centered Artificial Intelligence décrit une industrie de l’IA en croissance ultra-rapide, mais qui distance au passage les travaux dédiés à la sécurisation de ces technologies. Quand bien même les usages se répandent, elle peine par ailleurs à remporter l’adhésion de l’opinion publique.

Les investissements dans l’intelligence artificielle continuent d’exploser, tandis que ses effets sur les emplois, et surtout sur l’opinion publique, restent (très) mitigés. Tels sont certains des constats dressés dans le dernier AI Index.

Globalement, l’édition 2026 de ce travail publié chaque année par l’Institute for Human-Centered Artificial Intelligence de l’université de Stanford dessine l’image d’une industrie qui va très vite, tandis que le reste du monde peine à suivre.

L’écart Chine-US disparaît

Dans le type de technologies déployées, cela se traduit à la fois par l’amélioration continue des modèles de pointe, par la manière dont la Chine a réussi à rattraper les États-Unis en termes de performance, mais aussi par l’explosion du nombre d’incidents constatés au fil des années récentes, alors que le domaine de « l’IA responsable » s’est peu à peu fait distancer.

Évolution des incidents relevés dans l’AI Incident Database. / Capture d’écran AI Index

En termes économiques, si les revenus des entreprises d’IA continuent de croître très rapidement, ils restent grevés par les coûts d’infrastructure et de calcul, qui atteignent leurs propres records.

Évolution des dépenses (estimation) des deux leaders du secteurs que sont OpenAI et Anthropic en milliards de dollars. / Capture d’écran AI Index

L’empreinte environnementale du secteur s’étend de manière concomitante : les émissions liées à l’entraînement de Grok 4 sont ainsi estimées à 72 816 tonnes d’équivalent CO₂, la consommation annuelle en eau liée à l’inférence (opérations réalisées lorsque le modèle est sollicité) de GPT-4o pourrait dépasser à elle seule les besoins en eau potable de 12 millions de personnes.

Du point de vue des résultats des modèles, ceux dédiés à la génération d’image deviennent peu à peu en mesure de représenter la manière dont des objets évoluent (par exemple : représenter les vaguelettes provoquées par le fait de lancer un objet dans de l’eau), mais certains paradoxes subsistent. Un modèle comme Gemini Deep Think peut ainsi remporter une médaille d’or (35 points) aux Olympiades internationales de mathématique, mais reste incapable de donner l’heure, comme la plupart des grands modèles de langage.

Côté robotique, la Chine se démarque comme le pays qui a déployé en 2025 le plus de robots industriels (plus que tout le reste du monde), au point de compter 54 % de ces outils à l’échelle internationale. Si ces dispositifs fonctionnent très bien dans des environnements contrôlés, relève l’AI Index, ils continuent de rester à la traine dans des tâches quotidiennes, ne parvenant à remplir que 12 % de tâches ménagères.

Un intérêt croissant pour les utilisateurs

Aux États-Unis, l’AI Index estime que la valeur dégagée par les consommateurs était de 172 milliards de dollars sur un an début 2026, contre 112 milliards de dollars l’année précédente, sachant que l’essentiel des outils utilisés par le public restent quasiment gratuits.


Il reste 60% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Entre la chaise et le clavier dépasse les 50 000 écoutes !

15 avril 2026 à 09:01


En septembre 2024, Next se lançait dans une nouvelle aventure : la production audio. Un an et demi plus tard, après deux séries thématiques et un cycle de grands entretiens, les podcasts de Next ont dépassé les 50 500 téléchargements.

Car Entre la chaise et le clavier, c’est un podcast qui a avancé par expérimentations. Alors que l’intelligence artificielle générative avait fait irruption depuis moins d’un an dans les pratiques du grand public, nous nous sommes lancés dans la série Algorithmique, pour mieux comprendre les enjeux que ce chamboulement technologique provoquait sur la société, le climat, la régulation, etc.

L’année suivante, alors que les géants du numérique délaissaient leurs objectifs climatiques pour se lancer dans une course à l’obtention de l’énergie nécessaire pour alimenter leurs infrastructures, nous avons publié Écosystème. En sept épisodes, il s’agissait d’étudier les effets concrets de l’industrie du numérique sur la planète, sur le recyclage, et même sur certaines logiques politiques d’adaptation à l’urgence environnementale.

Il y a quelques mois, nous avons intégré ces travaux à Entre la chaise et le clavier (promis, après ça, on ne change plus de nom !), devenu vaste collection d’entretiens pour mieux comprendre les effets des évolutions technologiques sur la société.

« Entre la chaise et le clavier », c’est le lieu où l’on propose quelquefois de chercher, lorsqu’on ne trouve pas de cause technique au dernier bug ou à la dernière fuite de données. L’expression sert à désigner l’endroit où se logent les failles que la rétro-ingénierie ne permet pas d’expliquer, ce mince espace d’où filtrent, parfois, des mots de passe qui auraient dû être soigneusement chiffrés, des erreurs qu’à aucun moment le fonctionnement normal de nos outils informatiques n’aurait dû engendrer.

Ce lieu, en réalité, désigne des personnes : vous, nous, le patron d’une société du CAC 40, l’entrepreneuse qui a « monté sa start-up from scratch », votre grand-père. Les internautes. C’est à ces derniers, qu’ils et elles soient spécialistes ou citoyens engagés, que Next a choisi de tendre le micro.

Et en ce joyeux mois d’avril, vous avez désormais écouté plus de 50 000 fois ces travaux, réalisés chaque fois avec l’aide de Clarice Horn à la réalisation et de Flock aux illustrations.

Merci pour votre écoute !

Continuez de faire connaître Entre la chaise et le clavier autour de vous !

Le 29 avril prochain, nous passerons un épisode aux côtés de la chercheuse en sciences de l’éducation et de la formation Rosa Maria Bortolotti, avec qui nous discuterons des usages des réseaux sociaux chez les jeunes.

Pour vous abonner, si ce n’est pas déjà fait, rendez-vous sur votre application de podcast favorite (par exemple Deezer, Podcast Addict, Spotify ou Apple Podcast). Et pour l’option flux RSS, c’est ici.

À très vite !

☕️ Entre la chaise et le clavier dépasse les 50 000 écoutes !

15 avril 2026 à 09:01


En septembre 2024, Next se lançait dans une nouvelle aventure : la production audio. Un an et demi plus tard, après deux séries thématiques et un cycle de grands entretiens, les podcasts de Next ont dépassé les 50 500 téléchargements.

Car Entre la chaise et le clavier, c’est un podcast qui a avancé par expérimentations. Alors que l’intelligence artificielle générative avait fait irruption depuis moins d’un an dans les pratiques du grand public, nous nous sommes lancés dans la série Algorithmique, pour mieux comprendre les enjeux que ce chamboulement technologique provoquait sur la société, le climat, la régulation, etc.

L’année suivante, alors que les géants du numérique délaissaient leurs objectifs climatiques pour se lancer dans une course à l’obtention de l’énergie nécessaire pour alimenter leurs infrastructures, nous avons publié Écosystème. En sept épisodes, il s’agissait d’étudier les effets concrets de l’industrie du numérique sur la planète, sur le recyclage, et même sur certaines logiques politiques d’adaptation à l’urgence environnementale.

Il y a quelques mois, nous avons intégré ces travaux à Entre la chaise et le clavier (promis, après ça, on ne change plus de nom !), devenu vaste collection d’entretiens pour mieux comprendre les effets des évolutions technologiques sur la société.

« Entre la chaise et le clavier », c’est le lieu où l’on propose quelquefois de chercher, lorsqu’on ne trouve pas de cause technique au dernier bug ou à la dernière fuite de données. L’expression sert à désigner l’endroit où se logent les failles que la rétro-ingénierie ne permet pas d’expliquer, ce mince espace d’où filtrent, parfois, des mots de passe qui auraient dû être soigneusement chiffrés, des erreurs qu’à aucun moment le fonctionnement normal de nos outils informatiques n’aurait dû engendrer.

Ce lieu, en réalité, désigne des personnes : vous, nous, le patron d’une société du CAC 40, l’entrepreneuse qui a « monté sa start-up from scratch », votre grand-père. Les internautes. C’est à ces derniers, qu’ils et elles soient spécialistes ou citoyens engagés, que Next a choisi de tendre le micro.

Et en ce joyeux mois d’avril, vous avez désormais écouté plus de 50 000 fois ces travaux, réalisés chaque fois avec l’aide de Clarice Horn à la réalisation et de Flock aux illustrations.

Merci pour votre écoute !

Continuez de faire connaître Entre la chaise et le clavier autour de vous !

Le 29 avril prochain, nous passerons un épisode aux côtés de la chercheuse en sciences de l’éducation et de la formation Rosa Maria Bortolotti, avec qui nous discuterons des usages des réseaux sociaux chez les jeunes.

Pour vous abonner, si ce n’est pas déjà fait, rendez-vous sur votre application de podcast favorite (par exemple Deezer, Podcast Addict, Spotify ou Apple Podcast). Et pour l’option flux RSS, c’est ici.

À très vite !

Reçu — 14 avril 2026 Actualités numériques

☕️ Vie privée : 75 associations alertent Meta sur les risques que créent ses smart glass

14 avril 2026 à 14:07


Plus de soixante-dix associations dédiées à la défense des libertés numériques ou à la lutte pour les droits des femmes et des minorités se sont associées pour signer une lettre ouverte à destination de Mark Zuckerberg. 


En jeu : les risques que ses smart glass font peser sur la vie privée d’une large part de la population, en particulier « les victimes de violences conjugales, les cibles de harceleurs et d’agresseurs sexuels, les minorités religieuses, les personnes de couleurs, les personnes LGBTQ+, ainsi que les femmes et les enfants, entre autres ».

Le groupement d’ONG appelle l’entreprise à renoncer à son projet de déployer de la reconnaissance faciale dans les dispositifs issus de la collaboration entre Ray-Ban et Meta.

Garantir la possibilité, pour les citoyens, d’évoluer « sans craindre les stalkers (harceleurs), les arnaqueurs, les agresseurs, les agents fédéraux et les activistes issus de tout l’échiquier politique » n’est pas une simple « préférence de vie privée », écrivent-ils. « Il s’agit d’un prérequis pour une société libre et sécurisée. »

Meta travaille sur la piste de déployer de la reconnaissance faciale dans les lunettes depuis plusieurs mois, sous la forme d’une fonctionnalité baptisée Name Tag.

D’après des documents obtenus par le New York Times, les équipes de son Reality Labs envisageaient de déployer l’outil « au cours d’une période de contexte politique dynamique, pendant laquelle les divers groupes de la société civile susceptibles de nous attaquer auront concentré leurs ressources sur d’autres préoccupations ».

À l’étape de l’entraînement de ses systèmes, des employés de Sama, société spécialiste dans la sous-traitance d’entraînement de systèmes d’IA, ont notamment témoigné avoir dû traiter des images de personnes ne se sachant pas nécessairement filmées, que ce soit parce que des lunettes avaient été laissées dans une chambre à coucher, ou parce qu’une personne les portait pendant un rapport sexuel.

Dans un communiqué transmis par e-mail, un porte-parole de Meta a déclaré à Engadget que « Nos concurrents proposent ce type de produit de reconnaissance faciale, ce qui n’est pas notre cas. Si nous devions lancer une telle fonctionnalité, nous adopterions une approche très réfléchie avant de la déployer. »

☕️ Vie privée : 75 associations alertent Meta sur les risques que créent ses smart glass

14 avril 2026 à 14:07


Plus de soixante-dix associations dédiées à la défense des libertés numériques ou à la lutte pour les droits des femmes et des minorités se sont associées pour signer une lettre ouverte à destination de Mark Zuckerberg. 


En jeu : les risques que ses smart glass font peser sur la vie privée d’une large part de la population, en particulier « les victimes de violences conjugales, les cibles de harceleurs et d’agresseurs sexuels, les minorités religieuses, les personnes de couleurs, les personnes LGBTQ+, ainsi que les femmes et les enfants, entre autres ».

Le groupement d’ONG appelle l’entreprise à renoncer à son projet de déployer de la reconnaissance faciale dans les dispositifs issus de la collaboration entre Ray-Ban et Meta.

Garantir la possibilité, pour les citoyens, d’évoluer « sans craindre les stalkers (harceleurs), les arnaqueurs, les agresseurs, les agents fédéraux et les activistes issus de tout l’échiquier politique » n’est pas une simple « préférence de vie privée », écrivent-ils. « Il s’agit d’un prérequis pour une société libre et sécurisée. »

Meta travaille sur la piste de déployer de la reconnaissance faciale dans les lunettes depuis plusieurs mois, sous la forme d’une fonctionnalité baptisée Name Tag.

D’après des documents obtenus par le New York Times, les équipes de son Reality Labs envisageaient de déployer l’outil « au cours d’une période de contexte politique dynamique, pendant laquelle les divers groupes de la société civile susceptibles de nous attaquer auront concentré leurs ressources sur d’autres préoccupations ».

À l’étape de l’entraînement de ses systèmes, des employés de Sama, société spécialiste dans la sous-traitance d’entraînement de systèmes d’IA, ont notamment témoigné avoir dû traiter des images de personnes ne se sachant pas nécessairement filmées, que ce soit parce que des lunettes avaient été laissées dans une chambre à coucher, ou parce qu’une personne les portait pendant un rapport sexuel.

Dans un communiqué transmis par e-mail, un porte-parole de Meta a déclaré à Engadget que « Nos concurrents proposent ce type de produit de reconnaissance faciale, ce qui n’est pas notre cas. Si nous devions lancer une telle fonctionnalité, nous adopterions une approche très réfléchie avant de la déployer. »

Datacenters : 12 associations alertent sur la loi de simplification et la souveraineté

14 avril 2026 à 12:07
Hémicycle de vie des innovations technologiques
Datacenters : 12 associations alertent sur la loi de simplification et la souveraineté

Les conclusions de la Commission mixte paritaire sur la loi de simplification de la vie économique sont débattues cet après-midi à l’Assemblée et demain au Sénat. Douze associations critiquent de nouveau son article 15, dédié à faciliter l’implantation de centres de données.

Après deux ans d’allers-retours, la loi sur la simplification de la vie économique est de nouveau étudiée par le Parlement, à l’Assemblée nationale ce 14 avril, au Sénat le 15 avril. Régulièrement présenté comme « fourre-tout », le texte concerne notamment, en son article 15, l’industrie des centres de données. 



Alors que le gouvernement appelle depuis plus d’un an à multiplier les projets d’infrastructures, notamment au motif que l’énergie française est décarbonée (c’est-à-dire issue du nucléaire) et abondante, l’article 15 du projet de loi viendrait faciliter les installations en accordant le statut de « projet d’intérêt national majeur » (PINM) aux data centers.

En amont des débats que les députés entretiendront mardi après-midi, douze associations de défense des droits numériques et de défense de l’environnement dont la Quadrature du Net, Data for Good, Les amis de la terre ou encore Le nuage était sous nos pieds critiquent un projet qu’ils estiment « piétiner [le] droit environnemental et notre démocratie » et « consacrer [la] vassalisation numérique » de la France.

Simplification ou vassalisation ?

Créé en 2023, le statut de PINM a été introduit dans le code de l’urbanisme pour faciliter l’implantation de projets industriels, notamment en accélérant les procédures. Du côté du lobby des centres de données France Datacenter, elle est attendue « de pied ferme ».

Pour le groupe d’associations, néanmoins, une telle simplification desservirait l’intérêt général dans la mesure où les opérateurs « captent et monopolisent des investissements publics grandissants, à la fois du national et des collectivités locales, et bénéficient au surplus d’une fiscalité avantageuse », tandis que les collectivités « doivent prendre à leur charge les travaux complexes requis par l’implantation des centres de données », sans toujours avoir les outils nécessaires.

Ils contestent, aussi, l’intérêt de la multiplication des centres de données pour la souveraineté numérique française. « Supprimer les gardes-fous environnementaux et la démocratie locale viendra aider les acteurs déjà dominants sur le marché, c’est-à-dire surtout les acteurs des big tech américaines » écrivent les signataires.

Et de s’inquiéter de voir les législateurs adopter une telle stratégie, alors même que les sanctions prises par les États-Unis à l’encontre du juge de la Cour Pénale Internationale Nicolas Guillou illustrent très concrètement les risques que pose la dépendance aux outils et sociétés états-uniennes.

Impacts énergétiques pas si absents

Depuis le départ, l’un des enjeux du débat sur cet article concerne les impacts environnementaux des centres de données. Concrètement, si adopté, l’octroi du statut de PINM aux centres de données leur permettrait notamment de déroger aux obligations de protection des espèces protégées. Avec leur installation, il simplifierait aussi la multiplication de leurs autres impacts environnementaux, pour le moment principalement cantonnés, en France, à d’éventuelles artificialisations de sols, à des pollutions visuelles ou sonores, et à des rejets de chaleurs.

Mais même en termes d’énergie, les effets concrets de la multiplication de centres de données pourraient évoluer si leur nombre accentue la pression déjà mise sur le réseau électrique. Certains opérateurs se rapprochent en effet du réseau français de distribution de gaz (GRDF) pour s’y approvisionner en énergie. « Nous sommes régulièrement sollicités par des opérateurs (…) pour explorer des solutions de raccordement au réseau gazier, expliquait ainsi la directrice de GRDF Laurence Poirier-Dietz à Reporterre début avril. Parce que les délais annoncés sur le réseau électrique — parfois cinq à sept ans — ne sont pas compatibles avec leurs calendriers. »

« C’est une aberration », admettait-elle, aussi bien d’un point de vue environnemental qu’écologique. Pour autant, ces requêtes sont faites : « Il ne s’agit pas d’un phénomène marginal. »

Datacenters : 12 associations alertent sur la loi de simplification et la souveraineté

14 avril 2026 à 12:07
Hémicycle de vie des innovations technologiques
Datacenters : 12 associations alertent sur la loi de simplification et la souveraineté

Les conclusions de la Commission mixte paritaire sur la loi de simplification de la vie économique sont débattues cet après-midi à l’Assemblée et demain au Sénat. Douze associations critiquent de nouveau son article 15, dédié à faciliter l’implantation de centres de données.

Après deux ans d’allers-retours, la loi sur la simplification de la vie économique est de nouveau étudiée par le Parlement, à l’Assemblée nationale ce 14 avril, au Sénat le 15 avril. Régulièrement présenté comme « fourre-tout », le texte concerne notamment, en son article 15, l’industrie des centres de données. 



Alors que le gouvernement appelle depuis plus d’un an à multiplier les projets d’infrastructures, notamment au motif que l’énergie française est décarbonée (c’est-à-dire issue du nucléaire) et abondante, l’article 15 du projet de loi viendrait faciliter les installations en accordant le statut de « projet d’intérêt national majeur » (PINM) aux data centers.

En amont des débats que les députés entretiendront mardi après-midi, douze associations de défense des droits numériques et de défense de l’environnement dont la Quadrature du Net, Data for Good, Les amis de la terre ou encore Le nuage était sous nos pieds critiquent un projet qu’ils estiment « piétiner [le] droit environnemental et notre démocratie » et « consacrer [la] vassalisation numérique » de la France.

Simplification ou vassalisation ?

Créé en 2023, le statut de PINM a été introduit dans le code de l’urbanisme pour faciliter l’implantation de projets industriels, notamment en accélérant les procédures. Du côté du lobby des centres de données France Datacenter, elle est attendue « de pied ferme ».

Pour le groupe d’associations, néanmoins, une telle simplification desservirait l’intérêt général dans la mesure où les opérateurs « captent et monopolisent des investissements publics grandissants, à la fois du national et des collectivités locales, et bénéficient au surplus d’une fiscalité avantageuse », tandis que les collectivités « doivent prendre à leur charge les travaux complexes requis par l’implantation des centres de données », sans toujours avoir les outils nécessaires.

Ils contestent, aussi, l’intérêt de la multiplication des centres de données pour la souveraineté numérique française. « Supprimer les gardes-fous environnementaux et la démocratie locale viendra aider les acteurs déjà dominants sur le marché, c’est-à-dire surtout les acteurs des big tech américaines » écrivent les signataires.

Et de s’inquiéter de voir les législateurs adopter une telle stratégie, alors même que les sanctions prises par les États-Unis à l’encontre du juge de la Cour Pénale Internationale Nicolas Guillou illustrent très concrètement les risques que pose la dépendance aux outils et sociétés états-uniennes.

Impacts énergétiques pas si absents

Depuis le départ, l’un des enjeux du débat sur cet article concerne les impacts environnementaux des centres de données. Concrètement, si adopté, l’octroi du statut de PINM aux centres de données leur permettrait notamment de déroger aux obligations de protection des espèces protégées. Avec leur installation, il simplifierait aussi la multiplication de leurs autres impacts environnementaux, pour le moment principalement cantonnés, en France, à d’éventuelles artificialisations de sols, à des pollutions visuelles ou sonores, et à des rejets de chaleurs.

Mais même en termes d’énergie, les effets concrets de la multiplication de centres de données pourraient évoluer si leur nombre accentue la pression déjà mise sur le réseau électrique. Certains opérateurs se rapprochent en effet du réseau français de distribution de gaz (GRDF) pour s’y approvisionner en énergie. « Nous sommes régulièrement sollicités par des opérateurs (…) pour explorer des solutions de raccordement au réseau gazier, expliquait ainsi la directrice de GRDF Laurence Poirier-Dietz à Reporterre début avril. Parce que les délais annoncés sur le réseau électrique — parfois cinq à sept ans — ne sont pas compatibles avec leurs calendriers. »

« C’est une aberration », admettait-elle, aussi bien d’un point de vue environnemental qu’écologique. Pour autant, ces requêtes sont faites : « Il ne s’agit pas d’un phénomène marginal. »

Attaqué par deux fois, Sam Altman n’en défend pas moins la « démocratisation de l’IA »

14 avril 2026 à 08:37
Pas aligné
Attaqué par deux fois, Sam Altman n’en défend pas moins la « démocratisation de l’IA »

La maison de Sam Altman a été attaquée au cocktail Molotov et à l’arme à feu les 11 et 12 avril, dans un contexte de divergence croissante entre le grand public et les promoteurs de l’IA sur ce que l’industrie peut apporter à la société.

Le domicile de Sam Altman a été attaqué par deux fois ces derniers jours. Le 11 avril, à 3h45 du matin, une personne a lancé un cocktail Molotov contre sa maison de San Francisco. Le 12 avril, nouvelle attaque à 1 h 40 du matin : elle impliquerait deux hommes au volant d’une berline Honda, dont l’un aurait tiré sur la façade.

Les différents assaillants ont rapidement été arrêtés et le premier d’entre eux, Daniel Alejandro Moreno-Gama, risque désormais des poursuites pour avoir tenté de tuer Sam Altman. Si les motivations des deux autres, arrêtés le 12 au matin, ne sont pas connues, Daniel Alejandro Moreno-Gama s’est en effet largement exprimé en ligne sur ses inquiétudes relatives au développement de l’intelligence artificielle.

La police de San Francisco a par ailleurs trouvé chez lui un document titré « Dernier avertissement », dans lequel il argumente en faveur de l’assassinat des PDG d’entreprises spécialisées dans l’IA et de leurs investisseurs.

Un agresseur inquiet des effets de l’IA sur l’humanité

De fait, Daniel Alejandro Moreno-Gama a été arrêté près du siège d’OpenAI, auquel il menaçait de mettre le feu après son lancer de cocktail Molotov. En ligne, l’homme de 20 ans a notamment publié à plusieurs reprises sur ses inquiétudes relatives à l’IA, notamment sur son Substack et dans le groupe Discord de l’association PauseAI, qui milite dans plusieurs pays du monde pour empêcher le développement des modèles d’IA les plus puissants afin de protéger la population.


Il reste 69% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Reçu — 13 avril 2026 Actualités numériques

☕️ Pris à partie, le CNC a finalement gelé son fonds d’aide à la création de contenu


13 avril 2026 à 15:08


La polémique a commencé fin mars.
 Sollicitée pour siéger au sein du jury d’une dizaine de personnes du « fonds d’aide à la création sur les plateformes sociales » du CNC, qui finance des projets de création numérique à hauteur de 3 millions d’euros par an, la vidéaste Ultia a détaillé dans l’un de ses streams la manière dont elle envisageait les dossiers qu’il lui serait donné d’évaluer. 


Le lendemain, alors que certains de ses propos étaient « clippés », c’est-à-dire extraits et republiés sur X par le compte @TwitchGauchiste, la streameuse et le CNC ont été pris à partie, et Ultia suspendue de ses fonctions au bout d’une demi-journée.

Mais le débat n’a pas cessé, la droite et l’extrême-droite accusant notamment le CNC de financer des créateurs trop à gauche.

Le 8 avril, le CNC a annoncé suspendre le Fonds. Le président de l’institution explique que des menaces rendent impossible au jury « de délibérer sereinement sur les projets qui lui ont été soumis ».

Illustration : Flock

L’Union des métiers de l’influence et des créateurs de contenu critique cette décision, qu’elle qualifie auprès de France Culture de « coup d’arrêt pour de nombreux créateurs de contenu qui ont besoin de dispositifs de soutien pour développer leurs projets ». Le fonds est l’une des seules subventions d’État accessibles aux créateurs de contenus numériques.

☕️ Pris à partie, le CNC a finalement gelé son fonds d’aide à la création de contenu


13 avril 2026 à 15:08


La polémique a commencé fin mars.
 Sollicitée pour siéger au sein du jury d’une dizaine de personnes du « fonds d’aide à la création sur les plateformes sociales » du CNC, qui finance des projets de création numérique à hauteur de 3 millions d’euros par an, la vidéaste Ultia a détaillé dans l’un de ses streams la manière dont elle envisageait les dossiers qu’il lui serait donné d’évaluer. 


Le lendemain, alors que certains de ses propos étaient « clippés », c’est-à-dire extraits et republiés sur X par le compte @TwitchGauchiste, la streameuse et le CNC ont été pris à partie, et Ultia suspendue de ses fonctions au bout d’une demi-journée.

Mais le débat n’a pas cessé, la droite et l’extrême-droite accusant notamment le CNC de financer des créateurs trop à gauche.

Le 8 avril, le CNC a annoncé suspendre le Fonds. Le président de l’institution explique que des menaces rendent impossible au jury « de délibérer sereinement sur les projets qui lui ont été soumis ».

Illustration : Flock

L’Union des métiers de l’influence et des créateurs de contenu critique cette décision, qu’elle qualifie auprès de France Culture de « coup d’arrêt pour de nombreux créateurs de contenu qui ont besoin de dispositifs de soutien pour développer leurs projets ». Le fonds est l’une des seules subventions d’État accessibles aux créateurs de contenus numériques.

L’Electronic Frontier Foundation quitte X, qui ne lui permet plus d’atteindre son audience

13 avril 2026 à 14:34
To quit or not to quit
L’Electronic Frontier Foundation quitte X, qui ne lui permet plus d’atteindre son audience

Avec son départ de X, l’Electronic Frontier Foundation vient illustrer à nouveau la transformation de fond qui s’est opérée sur la plateforme sociale, dont le nouveau modèle d’affaires qui fait la part belle aux créateurs de contenus implique aussi de chasser des comptes automatisés au contenu de faible qualité.

Depuis son rachat par Elon Musk, Twitter a changé de nom, modifié ses logiques de vérification des comptes, de fonctionnement algorithmique… En définitive, la plateforme a cessé de fournir à certains de ses usagers historiques le service qu’elle leur proposait initialement, à savoir diffuser leurs messages auprès de leur communauté d’abonnés.

C’est du moins de cette manière que l’Electronic Frontier Foundation expliquait le 9 avril sa décision de quitter X. Dans un communiqué, l’ONG de protection des libertés numériques explique qu’en 2018, elle publiait de 5 à 10 tweets par jour, ce qui lui permettait d’engranger de 50 à 100 millions d’impressions chaque mois.

En 2024, les 2 500 tweets publiés sur X atteignaient 2 millions d’impressions par mois. Un an plus tard, l’EFF indique que sur une année complète de publications à un rythme ralenti, ses 1 500 tweets lui ont rapporté environ 13 millions d’impressions en 12 mois. « Pour le dire clairement, une publication sur X rapporte aujourd’hui moins de 3 % des vues qu’un tweet permettait d’obtenir il y a 7 ans », écrit l’ONG.

Si de nombreux départs ont été par le passé motivés par le positionnement d’Elon Musk ou la part belle laissée aux contenus les plus virulents, le témoignage de l’ONG vient aussi illustrer les effets des évolutions du fonctionnement de X, alors que d’autres acteurs parviennent à faire de leurs comptes de réelles sources de visibilité et de revenus. Devant la prolifération de contenus clickbait, X en est même venu à sévir.

Recomposition des usages

Avec un compte payant et l’aide de divers outils d’automatisation, certains se vantent au contraire d’enregistrer des revenus non négligeables. Le compte @BrivaelFr, du cofondateur de la société de vidéos générées par IA Argil, avançait par exemple le 11 avril avoir obtenu plus de 1 000 $ en deux semaines. Au milieu de ses publications et republications, il explique d’ailleurs régulièrement recourir à divers outils d’automatisation, depuis la fin du mois de mars, pour accélérer la gestion de son compte et « produire de l’or ».

Tous ces éléments ne sont que des symptômes de la refonte profonde des usages de X, motivés par les réorganisations de la plateforme au fil des dernières années. Changeant l’utilité des coches (initialement créées pour aider à repérer les comptes légitimes d’institutions ou de personnalités), modifiant le partage des revenus publicitaires puis enjoignant à l’abonnement au compte Premium, X a fait fuir une partie de ses utilisateurs, que ce soit pour la faible qualité des contenus qui y étaient désormais les plus ouvertement promus, ou parce qu’il a cessé de mettre en avant les messages intégrant des liens vers des publications externes. La plateforme a aussi attiré des créatrices et créateurs de contenus d’un nouveau genre.

Réduction de la rémunération de certains comptes automatisés

Mais la ligne de crête est fine, entre automatisation de compte et spam pur et simple. Le jour même, le directeur de produit de X Nikita Bier précisait par exemple que tous les comptes consistant à agréger les contenus d’autres créatrices et créateurs « ont vu leurs rémunérations réduites à 60 % lors de ce cycle », et qu’ils se verront appliquer une réduction de 20 % de leurs rémunérations sur le prochain trimestre.

Pour le cadre de X : « Une chose est désormais évidente : inonder le fil d’actualité de 100 partages volés et de titres racoleurs au quotidien a évincé les véritables créateurs et freiné la croissance de nouveaux auteurs. » Il indique qu’une prochaine mesure de ce type se penchera sur les comptes qui publient systématiquement leurs tweets avec des gimmicks racoleurs, comme la mention « 🚨BREAKING ».

Depuis son rachat par Elon Musk, le réseau social a perdu des utilisateurs. En octobre 2025, il comptait 14, 4 millions de visiteurs uniques en France, contre 19,1 millions en octobre 2017. L’EFF indique quitter X aussi bien pour les raisons mathématiques de faible diffusion de ses contenus que pour des raisons politiques, notamment parce que son dirigeant a licencié toutes les équipes qui veillaient jusque-là à la protection des droits des utilisateurs et s’étaient battues contre la censure que certains régimes autoritaires cherchaient à imposer.

Elle explique rester sur d’autres plateformes dont les pratiques pourraient être critiquées, comme TikTok, YouTube ou les plateformes de Meta, parce que le public qu’elle vise s’y trouve, et que « les personnes qui se trouvent sur ces plateformes méritent d’accéder à de l’information, elles aussi ».

L’Electronic Frontier Foundation quitte X, qui ne lui permet plus d’atteindre son audience

13 avril 2026 à 14:34
To quit or not to quit
L’Electronic Frontier Foundation quitte X, qui ne lui permet plus d’atteindre son audience

Avec son départ de X, l’Electronic Frontier Foundation vient illustrer à nouveau la transformation de fond qui s’est opérée sur la plateforme sociale, dont le nouveau modèle d’affaires qui fait la part belle aux créateurs de contenus implique aussi de chasser des comptes automatisés au contenu de faible qualité.

Depuis son rachat par Elon Musk, Twitter a changé de nom, modifié ses logiques de vérification des comptes, de fonctionnement algorithmique… En définitive, la plateforme a cessé de fournir à certains de ses usagers historiques le service qu’elle leur proposait initialement, à savoir diffuser leurs messages auprès de leur communauté d’abonnés.

C’est du moins de cette manière que l’Electronic Frontier Foundation expliquait le 9 avril sa décision de quitter X. Dans un communiqué, l’ONG de protection des libertés numériques explique qu’en 2018, elle publiait de 5 à 10 tweets par jour, ce qui lui permettait d’engranger de 50 à 100 millions d’impressions chaque mois.

En 2024, les 2 500 tweets publiés sur X atteignaient 2 millions d’impressions par mois. Un an plus tard, l’EFF indique que sur une année complète de publications à un rythme ralenti, ses 1 500 tweets lui ont rapporté environ 13 millions d’impressions en 12 mois. « Pour le dire clairement, une publication sur X rapporte aujourd’hui moins de 3 % des vues qu’un tweet permettait d’obtenir il y a 7 ans », écrit l’ONG.

Si de nombreux départs ont été par le passé motivés par le positionnement d’Elon Musk ou la part belle laissée aux contenus les plus virulents, le témoignage de l’ONG vient aussi illustrer les effets des évolutions du fonctionnement de X, alors que d’autres acteurs parviennent à faire de leurs comptes de réelles sources de visibilité et de revenus. Devant la prolifération de contenus clickbait, X en est même venu à sévir.

Recomposition des usages

Avec un compte payant et l’aide de divers outils d’automatisation, certains se vantent au contraire d’enregistrer des revenus non négligeables. Le compte @BrivaelFr, du cofondateur de la société de vidéos générées par IA Argil, avançait par exemple le 11 avril avoir obtenu plus de 1 000 $ en deux semaines. Au milieu de ses publications et republications, il explique d’ailleurs régulièrement recourir à divers outils d’automatisation, depuis la fin du mois de mars, pour accélérer la gestion de son compte et « produire de l’or ».

Tous ces éléments ne sont que des symptômes de la refonte profonde des usages de X, motivés par les réorganisations de la plateforme au fil des dernières années. Changeant l’utilité des coches (initialement créées pour aider à repérer les comptes légitimes d’institutions ou de personnalités), modifiant le partage des revenus publicitaires puis enjoignant à l’abonnement au compte Premium, X a fait fuir une partie de ses utilisateurs, que ce soit pour la faible qualité des contenus qui y étaient désormais les plus ouvertement promus, ou parce qu’il a cessé de mettre en avant les messages intégrant des liens vers des publications externes. La plateforme a aussi attiré des créatrices et créateurs de contenus d’un nouveau genre.

Réduction de la rémunération de certains comptes automatisés

Mais la ligne de crête est fine, entre automatisation de compte et spam pur et simple. Le jour même, le directeur de produit de X Nikita Bier précisait par exemple que tous les comptes consistant à agréger les contenus d’autres créatrices et créateurs « ont vu leurs rémunérations réduites à 60 % lors de ce cycle », et qu’ils se verront appliquer une réduction de 20 % de leurs rémunérations sur le prochain trimestre.

Pour le cadre de X : « Une chose est désormais évidente : inonder le fil d’actualité de 100 partages volés et de titres racoleurs au quotidien a évincé les véritables créateurs et freiné la croissance de nouveaux auteurs. » Il indique qu’une prochaine mesure de ce type se penchera sur les comptes qui publient systématiquement leurs tweets avec des gimmicks racoleurs, comme la mention « 🚨BREAKING ».

Depuis son rachat par Elon Musk, le réseau social a perdu des utilisateurs. En octobre 2025, il comptait 14, 4 millions de visiteurs uniques en France, contre 19,1 millions en octobre 2017. L’EFF indique quitter X aussi bien pour les raisons mathématiques de faible diffusion de ses contenus que pour des raisons politiques, notamment parce que son dirigeant a licencié toutes les équipes qui veillaient jusque-là à la protection des droits des utilisateurs et s’étaient battues contre la censure que certains régimes autoritaires cherchaient à imposer.

Elle explique rester sur d’autres plateformes dont les pratiques pourraient être critiquées, comme TikTok, YouTube ou les plateformes de Meta, parce que le public qu’elle vise s’y trouve, et que « les personnes qui se trouvent sur ces plateformes méritent d’accéder à de l’information, elles aussi ».

Reçu — 9 avril 2026 Actualités numériques

Face à la guerre informationnelle, le monde des médias cherche ses repères

9 avril 2026 à 16:13
« Ne sous-estimez pas la menace ! »
Face à la guerre informationnelle, le monde des médias cherche ses repères

Réunis à Tours pour les Assises du journalisme, journalistes et autres professionnels des médias ont débattu avec chercheurs, juristes et le public des manières de faire face à la dégradation accélérée de l’espace informationnel.

« Nous avons le sentiment d’être pris entre le marteau russe et l’enclume des États-Unis. » C’est par ces mots que Jean-Marc Four, directeur de Radio France Internationale (France Médias Monde), a résumé la situation face à laquelle se trouve la station de radio publique, qui diffuse « en 17 langues » et touche « chaque semaine plus de 100 millions de personnes dans le monde ».

Ce 8 avril, aux Assises du journalisme de Tours, Jean-Marc Four participait aux côtés d’une quinzaine d’experts des enjeux de l’information et de ses manipulations à un vaste débat sur « le journalisme face à la guerre informationnelle ». Et les constats qui y ont été dressés, comme le vocable employé le laisse deviner, intiment à l’adaptation rapide.

La veille, Donald Trump lançait un ultimatum à l’Iran, menaçant d’ « anéantir la civilisation iranienne » si le détroit d’Ormuz n’était pas rouvert dans la nuit. S’appuyant sur cet exemple, la chercheuse à l’institut de recherche stratégique à l’école militaire (IRSEM) Maud Quessard soulignait que pour les armées, il est évident depuis longtemps que la guerre n’est plus seulement physique, mais aussi numérique et informationnelle. Elle rappelait aussi que le paysage informationnel peut servir à « gagner la guerre sans la faire », en particulier « dans le cadre de guerres non ouvertes ». Ce mécanisme peut même passer par la manipulation des perceptions, pour « amplifier la perception des conflits en cours ».

En d’autres termes, lors de ces discussions comme de celles qui réunissaient professionnels de l’information et public tourangeau, la veille, pour un échange titré « la vérité selon Trump et ses conséquences », l’ambiance des Assises était à la recherche de nouveaux repères.

Soirée d’ouverture des Assises du journalisme : « La vérité selon Trump et ses conséquences » / Mathilde Saliou

La tâche n’est pas simple : au monde médiatique de trouver des manières de traiter l’information au mieux, dans un contexte toujours plus dégradé économiquement (y compris sous la pression de l’IA), tout en s’équipant face aux menaces croissantes que posent, pour le débat public, les tentatives d’ingérences étrangères et les manipulations réalisées depuis le territoire national. Au passage, au monde médiatique aussi (avec l’aide d’autres écosystèmes) de sensibiliser le grand public à l’état du conflit informationnel en cours.

Nécessaire autocritique médiatique

Soulignant « l’accélération technologique » qu’incarne notamment l’intelligence artificielle, notamment parce qu’elle permet de « fabriquer du faux plus vrai que vrai », le directeur de la publication de Ouest France François-Xavier Lefranc appelle les professions journalistiques et médiatiques à « faire leur autocritique ».


Il reste 62% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

❌