Vue lecture

Deep learning sur des photos d’enfants autistes : des articles scientifiques rétractés

Ethique en toc
Deep learning sur des photos d’enfants autistes : des articles scientifiques rétractés

Plusieurs recherches incluant l’entrainement de réseaux de neurones font l’objet d’une attention particulière, parfois plusieurs années après leur publication. En cause l’utilisation d’une base de données de photos posant des problèmes éthiques concernant le consentement des enfants ayant des troubles autistiques concernés. L’éditeur Springer Nature est en train de rétracter des dizaines d’articles scientifiques.

Des dizaines d’articles scientifiques sont actuellement scrutés, notamment par l’éditeur scientifique Springer Nature, pour une éventuelle rétraction. Certains, comme cette meta analyse sur les approches utilisant le deep learning pour prédire l’autisme publiée en 2024, ont déjà fait l’objet d’une rétractation récemment.

Des travaux scientifiques qui soulèvent des questions éthiques

Les chercheurs et éditeurs auraient pu commencer par interroger le bien-fondé de mettre en place une reconnaissance de traits autistiques sur le visage d’enfants en utilisant le deep learning. La littérature scientifique montre que ces questions n’ont pas arrêté nombre de chercheurs.

Mais une nouvelle question éthique apparait, mise au grand jour par The Transmitter. Ce média spécialisé en neurosciences vient de découvrir que plusieurs dizaines d’articles scientifiques sur le sujet s’appuient, en fait, sur une base de données de visages d’enfants créée en 2019 par Gerald Piosenka, un ingénieur à la retraite. Celui-ci l’avait mise en ligne sur la plateforme Kaggle rachetée en 2017 par Google, qui permet à la communauté des machine learning et deep learning de partager des données, codes, modèles, etc.

L’utilisation d’une base de données créée sans le consentement des enfants

Cette base de données contient plus de 2 900 photos d’enfants, dont la moitié est étiquetée en tant qu’autistes. Comme l’a repéré The Transmitter, Gerald Piosenka explique dans un commentaire posté en 2022 que Kaggle a supprimé la base de données parce qu’elle ne respectait pas ses conditions d’utilisation. Mais l’ingénieur l’a remis rapidement en ligne via Google Drive.

Dans la description de la base, Gerald Piosenka explique la manière dont il a procédé pour la créer : « J’ai cherché partout une base de données contenant des images faciales d’enfants autistes. À ma connaissance, il n’en existe aucune. J’ai donc dû développer cette base de données à partir de recherches sur Internet. J’ai principalement trouvé ces images sur des sites web consacrés à l’autisme. En général, j’ai dû télécharger une image particulière, qui était souvent une photo de groupe, puis recadrer manuellement l’image pour ne garder que le visage de l’enfant ».

Questionné par un utilisateur de Kaggle sur l’exclusion de certaines photos pour des questions de vie privée et sur l’obtention du consentement, Gerald Piosenka a répondu que « toutes les images ont été recueillies à partir de sites Web accessibles au public et de recherches Google. Aucune restriction en matière de confidentialité n’a été violée » et a justifié sa démarche en affirmant que sa motivation était « altruiste » et qu’ « en matière d’éthique, comment peut-on être plus éthique que d’essayer de favoriser le dépistage précoce et le traitement de l’autisme chez les enfants » sans prendre en compte le signalement sur le besoin de consentement.

Près de 40 articles scientifiques sont étudiés par Springer Nature pour une éventuelle rétractation selon un des conseillers en intégrité de la recherche de l’éditeur interrogé par The Transmitter. Le média a, de son côté, recensé au moins 90 articles (publiés aussi par d’autres éditeurs comme Wiley, IEEE, Elsevier, MDPI ou encore Cell Press) qui citent une version de la base de données.

  •  

Deep learning sur des photos d’enfants autistes : des articles scientifiques rétractés

Ethique en toc
Deep learning sur des photos d’enfants autistes : des articles scientifiques rétractés

Plusieurs recherches incluant l’entrainement de réseaux de neurones font l’objet d’une attention particulière, parfois plusieurs années après leur publication. En cause l’utilisation d’une base de données de photos posant des problèmes éthiques concernant le consentement des enfants ayant des troubles autistiques concernés. L’éditeur Springer Nature est en train de rétracter des dizaines d’articles scientifiques.

Des dizaines d’articles scientifiques sont actuellement scrutés, notamment par l’éditeur scientifique Springer Nature, pour une éventuelle rétraction. Certains, comme cette meta analyse sur les approches utilisant le deep learning pour prédire l’autisme publiée en 2024, ont déjà fait l’objet d’une rétractation récemment.

Des travaux scientifiques qui soulèvent des questions éthiques

Les chercheurs et éditeurs auraient pu commencer par interroger le bien-fondé de mettre en place une reconnaissance de traits autistiques sur le visage d’enfants en utilisant le deep learning. La littérature scientifique montre que ces questions n’ont pas arrêté nombre de chercheurs.

Mais une nouvelle question éthique apparait, mise au grand jour par The Transmitter. Ce média spécialisé en neurosciences vient de découvrir que plusieurs dizaines d’articles scientifiques sur le sujet s’appuient, en fait, sur une base de données de visages d’enfants créée en 2019 par Gerald Piosenka, un ingénieur à la retraite. Celui-ci l’avait mise en ligne sur la plateforme Kaggle rachetée en 2017 par Google, qui permet à la communauté des machine learning et deep learning de partager des données, codes, modèles, etc.

L’utilisation d’une base de données créée sans le consentement des enfants

Cette base de données contient plus de 2 900 photos d’enfants, dont la moitié est étiquetée en tant qu’autistes. Comme l’a repéré The Transmitter, Gerald Piosenka explique dans un commentaire posté en 2022 que Kaggle a supprimé la base de données parce qu’elle ne respectait pas ses conditions d’utilisation. Mais l’ingénieur l’a remis rapidement en ligne via Google Drive.

Dans la description de la base, Gerald Piosenka explique la manière dont il a procédé pour la créer : « J’ai cherché partout une base de données contenant des images faciales d’enfants autistes. À ma connaissance, il n’en existe aucune. J’ai donc dû développer cette base de données à partir de recherches sur Internet. J’ai principalement trouvé ces images sur des sites web consacrés à l’autisme. En général, j’ai dû télécharger une image particulière, qui était souvent une photo de groupe, puis recadrer manuellement l’image pour ne garder que le visage de l’enfant ».

Questionné par un utilisateur de Kaggle sur l’exclusion de certaines photos pour des questions de vie privée et sur l’obtention du consentement, Gerald Piosenka a répondu que « toutes les images ont été recueillies à partir de sites Web accessibles au public et de recherches Google. Aucune restriction en matière de confidentialité n’a été violée » et a justifié sa démarche en affirmant que sa motivation était « altruiste » et qu’ « en matière d’éthique, comment peut-on être plus éthique que d’essayer de favoriser le dépistage précoce et le traitement de l’autisme chez les enfants » sans prendre en compte le signalement sur le besoin de consentement.

Près de 40 articles scientifiques sont étudiés par Springer Nature pour une éventuelle rétractation selon un des conseillers en intégrité de la recherche de l’éditeur interrogé par The Transmitter. Le média a, de son côté, recensé au moins 90 articles (publiés aussi par d’autres éditeurs comme Wiley, IEEE, Elsevier, MDPI ou encore Cell Press) qui citent une version de la base de données.

  •  

☕️ Bruxelles soupçonne Google de pratiques anticoncurrentielles concernant l’IA

La Commission européenne a ouvert une enquête sur les pratiques de Google sur le marché de l’IA qui pourraient être considérées comme anticoncurrentielles.

Dans un communiqué publié sur son site, elle explique que « l’enquête examinera notamment si Google fausse la concurrence en imposant des conditions générales abusives aux éditeurs et aux créateurs de contenu, ou en s’octroyant un accès privilégié à ce contenu, désavantageant ainsi les développeurs de modèles d’IA concurrents ».

Sont notamment concernés les résumés d’AI Overviews (accessibles dans de nombreux pays, notamment européens, mais pas en France) et l’utilisation des vidéos postées sur YouTube.

La Commission pointe le fait que Google se sert de contenus publiés sur le web pour son service AI Overviews et pour le mode IA de son moteur de recherche « sans rémunération appropriée pour les éditeurs et sans leur offrir la possibilité de refuser une telle utilisation de leurs contenus ». Elle explique qu’elle va enquêter pour déterminer dans quelle mesure ces outils de Google s’appuient sur ces contenus.

En juillet dernier, le réseau nommé « Alliance internationale des éditeurs indépendants » portait plainte devant la Commission contre Google pour ces mêmes raisons.

Mais la Commission va aussi chercher à savoir si Google utilise les vidéos uploadées par les utilisateurs de YouTube pour entrainer ses modèles d’IA sans leur consentement et sans compensation.

« Google ne rémunère pas les créateurs de contenu YouTube pour leur contenu et ne leur permet pas non plus de télécharger leur contenu sur YouTube sans autoriser Google à utiliser ces données. Parallèlement, les développeurs concurrents de modèles d’IA sont empêchés par les politiques de YouTube d’utiliser le contenu YouTube pour entraîner leurs propres modèles d’IA », affirme l’institution.

« Si elles sont avérées, les pratiques faisant l’objet de l’enquête pourraient enfreindre les règles de concurrence de l’UE qui interdisent l’abus de position dominante », prévient Bruxelles.

« Une société libre et démocratique repose sur la diversité des médias, le libre accès à l’information et un paysage créatif dynamique. Ces valeurs sont au cœur de notre identité européenne », affirme Teresa Ribera, commissaire européenne à la Concurrence. « L’IA apporte des innovations remarquables et de nombreux avantages aux citoyens et aux entreprises à travers l’Europe, mais ces progrès ne peuvent se faire au détriment des principes qui sont au cœur de nos sociétés », ajoute-t-elle.

Se prononçant sur la plainte des éditeurs, Google affirmait à Reuters que celle-ci « risque d’étouffer l’innovation dans un marché plus concurrentiel que jamais ». C’est toujours la même excuse servie par les géants américains quand il s’agit de régulation européenne.

« Google a rompu le pacte qui sous-tend l’Internet. L’accord prévoyait que les sites web seraient indexés, récupérés et affichés lorsqu’ils étaient pertinents par rapport à une requête. Tout le monde avait sa chance », proclame de son côté Tim Cowen, l’avocat des éditeurs, à l’agence de presse. « Aujourd’hui, Google donne la priorité à son IA Gemini et ajoute l’insulte à l’injure en exploitant le contenu des sites web pour entraîner Gemini. Gemini est le jumeau maléfique de Search », ajoute-t-il.

  •  

☕️ Bruxelles soupçonne Google de pratiques anticoncurrentielles concernant l’IA

La Commission européenne a ouvert une enquête sur les pratiques de Google sur le marché de l’IA qui pourraient être considérées comme anticoncurrentielles.

Dans un communiqué publié sur son site, elle explique que « l’enquête examinera notamment si Google fausse la concurrence en imposant des conditions générales abusives aux éditeurs et aux créateurs de contenu, ou en s’octroyant un accès privilégié à ce contenu, désavantageant ainsi les développeurs de modèles d’IA concurrents ».

Sont notamment concernés les résumés d’AI Overviews (accessibles dans de nombreux pays, notamment européens, mais pas en France) et l’utilisation des vidéos postées sur YouTube.

La Commission pointe le fait que Google se sert de contenus publiés sur le web pour son service AI Overviews et pour le mode IA de son moteur de recherche « sans rémunération appropriée pour les éditeurs et sans leur offrir la possibilité de refuser une telle utilisation de leurs contenus ». Elle explique qu’elle va enquêter pour déterminer dans quelle mesure ces outils de Google s’appuient sur ces contenus.

En juillet dernier, le réseau nommé « Alliance internationale des éditeurs indépendants » portait plainte devant la Commission contre Google pour ces mêmes raisons.

Mais la Commission va aussi chercher à savoir si Google utilise les vidéos uploadées par les utilisateurs de YouTube pour entrainer ses modèles d’IA sans leur consentement et sans compensation.

« Google ne rémunère pas les créateurs de contenu YouTube pour leur contenu et ne leur permet pas non plus de télécharger leur contenu sur YouTube sans autoriser Google à utiliser ces données. Parallèlement, les développeurs concurrents de modèles d’IA sont empêchés par les politiques de YouTube d’utiliser le contenu YouTube pour entraîner leurs propres modèles d’IA », affirme l’institution.

« Si elles sont avérées, les pratiques faisant l’objet de l’enquête pourraient enfreindre les règles de concurrence de l’UE qui interdisent l’abus de position dominante », prévient Bruxelles.

« Une société libre et démocratique repose sur la diversité des médias, le libre accès à l’information et un paysage créatif dynamique. Ces valeurs sont au cœur de notre identité européenne », affirme Teresa Ribera, commissaire européenne à la Concurrence. « L’IA apporte des innovations remarquables et de nombreux avantages aux citoyens et aux entreprises à travers l’Europe, mais ces progrès ne peuvent se faire au détriment des principes qui sont au cœur de nos sociétés », ajoute-t-elle.

Se prononçant sur la plainte des éditeurs, Google affirmait à Reuters que celle-ci « risque d’étouffer l’innovation dans un marché plus concurrentiel que jamais ». C’est toujours la même excuse servie par les géants américains quand il s’agit de régulation européenne.

« Google a rompu le pacte qui sous-tend l’Internet. L’accord prévoyait que les sites web seraient indexés, récupérés et affichés lorsqu’ils étaient pertinents par rapport à une requête. Tout le monde avait sa chance », proclame de son côté Tim Cowen, l’avocat des éditeurs, à l’agence de presse. « Aujourd’hui, Google donne la priorité à son IA Gemini et ajoute l’insulte à l’injure en exploitant le contenu des sites web pour entraîner Gemini. Gemini est le jumeau maléfique de Search », ajoute-t-il.

  •  

États-Unis : procès contre les pressions sur Apple pour enlever ICEBlock de l’App Store

La pomme pressée
États-Unis : procès contre les pressions sur Apple pour enlever ICEBlock de l’App Store

Le créateur de ICEBlock attaque en justice l’administration Trump. Il l’accuse d’avoir mis la pression sur Apple pour supprimer de l’App Store l’application qui permet de signaler la présence de l’ICE, les services d’immigration étatsuniens qui font des interventions musclées dans le pays. Au point que l’entreprise de Tim Cook s’est exécutée.

Il y a deux mois, Apple et Google retiraient plusieurs applications collaboratives permettant de signaler la présence des agents de l’Immigration and Customs Enforcement (ICE) dans les quartiers des villes américaines. Joshua Aaron, le développeur d’ICEBlock, la plus connue d’entre elles mais seulement développée pour iOS, vient de déposer une plainte contre les pressions de l’administration Trump sur Apple pour enlever son application de l’App Store.

Une pression assumée par l’administration Trump à la TV

Il avait déjà affiché sa confiance dans ses capacités de défendre son application en justice en expliquant qu’il disposait « d’une équipe juridique formidable, et il serait absurde qu’ils essaient de faire quoi que ce soit pour mettre fin à cette affaire ». Mais Apple avait finalement cédé et supprimé l’application de l’App Store, en affirmant l’avoir fait « sur la base des informations que nous avons reçues des forces de l’ordre ».

De son côté, l’administration Trump avait clamé victoire. « Nous avons contacté Apple aujourd’hui pour leur demander de retirer l’application ICEBlock de leur App Store, et Apple l’a fait », affirmait la procureure générale des États-Unis, Pam Bondi, à Fox Business.

Dans sa plainte [PDF] relevée par Gizmodo, c’est notamment cette affirmation qui est visée par Joshua Aaron. « Avec cet aveu, la procureure général Bondi a clairement indiqué que le gouvernement américain avait utilisé son pouvoir réglementaire pour contraindre une plateforme privée à supprimer une expression protégée par le premier amendement », affirme le document.

Apple a cédé pour la première fois face à une demande de suppression de l’App Store du gouvernement américain

Les avocats de Joshua Aaron écrivent qu’il « a développé ICEBlock en réponse à la campagne sans précédent menée par l’administration Trump pour arrêter, détenir et expulser les immigrants ». Et ils ajoutent qu’il « craignait que les propos incendiaires de Trump sur l’immigration ne conduisent à une application agressive et aveugle des lois sur l’immigration, exposant les immigrants et les citoyens à la violence et à des violations flagrantes de leurs libertés civiles. Aaron avait raison ».

« Pour la première fois en près de cinquante ans d’existence, Apple a supprimé une application américaine à la demande du gouvernement américain », souligne la plainte.

Le document ne se focalise pas seulement sur la pression mise sur Apple. Les avocats de Joshua Aaron attaquent aussi des menaces directes de Pam Bondi mais aussi du directeur par intérim de l’ICE Todd Lyons et d’un des hommes de la Maison-Blanche, Tom Homan. « Ces menaces visaient à dissuader Aaron et d’autres personnes de s’engager dans des activités d’expression — en particulier le partage d’informations sur les actions des forces de l’ordre observables publiquement — et à dissuader les entreprises technologiques et les institutions journalistiques de soutenir, d’amplifier ou de faciliter ce type de discours », estiment-ils.

  •  

États-Unis : procès contre les pressions sur Apple pour enlever ICEBlock de l’App Store

La pomme pressée
États-Unis : procès contre les pressions sur Apple pour enlever ICEBlock de l’App Store

Le créateur de ICEBlock attaque en justice l’administration Trump. Il l’accuse d’avoir mis la pression sur Apple pour supprimer de l’App Store l’application qui permet de signaler la présence de l’ICE, les services d’immigration étatsuniens qui font des interventions musclées dans le pays. Au point que l’entreprise de Tim Cook s’est exécutée.

Il y a deux mois, Apple et Google retiraient plusieurs applications collaboratives permettant de signaler la présence des agents de l’Immigration and Customs Enforcement (ICE) dans les quartiers des villes américaines. Joshua Aaron, le développeur d’ICEBlock, la plus connue d’entre elles mais seulement développée pour iOS, vient de déposer une plainte contre les pressions de l’administration Trump sur Apple pour enlever son application de l’App Store.

Une pression assumée par l’administration Trump à la TV

Il avait déjà affiché sa confiance dans ses capacités de défendre son application en justice en expliquant qu’il disposait « d’une équipe juridique formidable, et il serait absurde qu’ils essaient de faire quoi que ce soit pour mettre fin à cette affaire ». Mais Apple avait finalement cédé et supprimé l’application de l’App Store, en affirmant l’avoir fait « sur la base des informations que nous avons reçues des forces de l’ordre ».

De son côté, l’administration Trump avait clamé victoire. « Nous avons contacté Apple aujourd’hui pour leur demander de retirer l’application ICEBlock de leur App Store, et Apple l’a fait », affirmait la procureure générale des États-Unis, Pam Bondi, à Fox Business.

Dans sa plainte [PDF] relevée par Gizmodo, c’est notamment cette affirmation qui est visée par Joshua Aaron. « Avec cet aveu, la procureure général Bondi a clairement indiqué que le gouvernement américain avait utilisé son pouvoir réglementaire pour contraindre une plateforme privée à supprimer une expression protégée par le premier amendement », affirme le document.

Apple a cédé pour la première fois face à une demande de suppression de l’App Store du gouvernement américain

Les avocats de Joshua Aaron écrivent qu’il « a développé ICEBlock en réponse à la campagne sans précédent menée par l’administration Trump pour arrêter, détenir et expulser les immigrants ». Et ils ajoutent qu’il « craignait que les propos incendiaires de Trump sur l’immigration ne conduisent à une application agressive et aveugle des lois sur l’immigration, exposant les immigrants et les citoyens à la violence et à des violations flagrantes de leurs libertés civiles. Aaron avait raison ».

« Pour la première fois en près de cinquante ans d’existence, Apple a supprimé une application américaine à la demande du gouvernement américain », souligne la plainte.

Le document ne se focalise pas seulement sur la pression mise sur Apple. Les avocats de Joshua Aaron attaquent aussi des menaces directes de Pam Bondi mais aussi du directeur par intérim de l’ICE Todd Lyons et d’un des hommes de la Maison-Blanche, Tom Homan. « Ces menaces visaient à dissuader Aaron et d’autres personnes de s’engager dans des activités d’expression — en particulier le partage d’informations sur les actions des forces de l’ordre observables publiquement — et à dissuader les entreprises technologiques et les institutions journalistiques de soutenir, d’amplifier ou de faciliter ce type de discours », estiment-ils.

  •  

Plus on discute politique avec les chatbots, plus ils sont persuasifs et inexacts

Trump AI
Plus on discute politique avec les chatbots, plus ils sont persuasifs et inexacts

Dans des conversations politiques, les chatbots IA peuvent réellement influencer l’opinion de leurs utilisateurs. Des chercheurs viennent de montrer que plus les chatbots donnent des informations, plus ils sont persuasifs, même si ces informations sont, de fait, fausses.

Les chatbots IA peuvent avoir des effets sur la santé mentale de leurs utilisateurs ou distordre l’information de façon systémique. Des chercheurs se sont penchés sur une autre influence qu’ils pourraient avoir dans notre vie démocratique : est-ce que discuter avec eux nous influence politiquement et comment ? C’est, de fait, une question qui se pose depuis l’arrivée de ChatGPT et même avant, puisque des chercheurs d’OpenAI la soulevaient dans un article sur les conséquences sociales des modèles de langage mis en ligne en 2019.

Deux études sur le sujet sont parues en parallèle dans les revues scientifiques Science et Nature ce jeudi 4 décembre. Les deux articles sont signés en partie par les mêmes chercheurs du MIT.

Celui publié dans Science analyse la force de persuasion de différents modèles accessibles comme Qwen, Llama, GPT ou Grok (dans plusieurs de leurs versions) sur plusieurs milliers de Britanniques. Ils ont voulu regarder quels étaient les paramètres qui amélioraient le plus la force de persuasion d’une IA conversationnelle entre la taille brute du modèle, la mise en place de méthodes de persuasion post-entrainement et la mise en place de stratégies rhétoriques spécifiques à chaque utilisateur.

Leur étude porte sur près de 80 000 britanniques ayant discuté pendant 9 minutes en moyenne avec leurs chatbots sur 707 sujets politiques différents. Avant et après la discussion, les chercheurs faisaient évaluer une série d’opinions sur des sujets politiques britanniques.

Test de méthodes de persuasion


Il reste 85% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

☕️ OpenAI désactive une fonctionnalité qui permettait de faire la publicité d’une application

Le responsable de la R&D à OpenAI, Mark Chen, a finalement annoncé que son entreprise a désactivé l’affichage de messages publicitaires pour des applications sur les comptes payants de ChatGPT, a repéré TechCrunch.

La semaine dernière, des utilisateurs (avec des comptes payants Pro ou Plus) ont repéré des messages publicitaires sous les réponses que leur générait le chatbot d’OpenAI. On pouvait y voir, par exemple, un message promouvant l’application des magasins Target :

L’entreprise a d’abord refusé d’y voir quelque problème que ce soit. « Ce n’est pas une publicité », affirmait Daniel McAuley, responsable Données chez OpenAI. « Depuis le DevDay, nous avons lancé des applications provenant de certains de nos partenaires pilotes, notamment Target, et nous avons travaillé à rendre le mécanisme de découverte des applications plus organique au sein de ChatGPT. Notre objectif est que les applications améliorent l’expérience utilisateur lorsqu’elles sont pertinentes pour une conversation, et nous y travaillons encore. Tout le monde peut créer des applications à l’aide du SDK, et nous prévoyons d’ouvrir bientôt les soumissions et le répertoire d’applications », ajoutait-il.

De la même manière, Nick Turley, Vice-président d’OpenAI responsable de ChatGPT, affirmait encore samedi : « Je constate beaucoup de confusion au sujet des rumeurs concernant les publicités dans ChatGPT. Il n’existe aucun test en direct pour les publicités : toutes les captures d’écran que vous avez vues ne sont soit pas réelles, soit ne concernent pas des publicités. »

Fin novembre, des utilisateurs avaient déjà remarqué que des références à des fonctionnalités de publicité étaient incluses dans une version beta de l’application Android de ChatGPT.

  •  

☕️ OpenAI désactive une fonctionnalité qui permettait de faire la publicité d’une application

Le responsable de la R&D à OpenAI, Mark Chen, a finalement annoncé que son entreprise a désactivé l’affichage de messages publicitaires pour des applications sur les comptes payants de ChatGPT, a repéré TechCrunch.

La semaine dernière, des utilisateurs (avec des comptes payants Pro ou Plus) ont repéré des messages publicitaires sous les réponses que leur générait le chatbot d’OpenAI. On pouvait y voir, par exemple, un message promouvant l’application des magasins Target :

L’entreprise a d’abord refusé d’y voir quelque problème que ce soit. « Ce n’est pas une publicité », affirmait Daniel McAuley, responsable Données chez OpenAI. « Depuis le DevDay, nous avons lancé des applications provenant de certains de nos partenaires pilotes, notamment Target, et nous avons travaillé à rendre le mécanisme de découverte des applications plus organique au sein de ChatGPT. Notre objectif est que les applications améliorent l’expérience utilisateur lorsqu’elles sont pertinentes pour une conversation, et nous y travaillons encore. Tout le monde peut créer des applications à l’aide du SDK, et nous prévoyons d’ouvrir bientôt les soumissions et le répertoire d’applications », ajoutait-il.

De la même manière, Nick Turley, Vice-président d’OpenAI responsable de ChatGPT, affirmait encore samedi : « Je constate beaucoup de confusion au sujet des rumeurs concernant les publicités dans ChatGPT. Il n’existe aucun test en direct pour les publicités : toutes les captures d’écran que vous avez vues ne sont soit pas réelles, soit ne concernent pas des publicités. »

Fin novembre, des utilisateurs avaient déjà remarqué que des références à des fonctionnalités de publicité étaient incluses dans une version beta de l’application Android de ChatGPT.

  •  

Bruxelles inflige une amende de 120 millions d’euros à X pour infraction au DSA

X n'est pas une marque de transparence
Bruxelles inflige une amende de 120 millions d’euros à X pour infraction au DSA

Après 2 ans d’enquête, la Commission inflige une amende conséquente à X, lui reprochant un manque de transparence et des pratiques trompeuses, notamment sur le changement de signification de la coche bleue.

Près de deux ans après l’ouverture de sa procédure formelle contre X, la Commission européenne annonce avoir infligé une amende de 120 millions d’euros au réseau social d’Elon Musk pour des manquements à ses obligations de transparence imposées par le Règlement sur les services numériques (DSA). En juillet 2024, Bruxelles avait confirmé ses craintes et attaqué X pour violation du DSA.

Coche bleue trompeuse et manque de transparence

En cause, notamment, le changement d’utilisation de la coche bleue, qui servait initialement à certifier l’identité des utilisateurs « vérifiés » par Twitter. Suite à son rachat, Elon Musk l’a ouvert à n’importe quel utilisateur payant pour accéder aux services premium de X. « Cela enfreint l’obligation imposée par le DSA aux plateformes en ligne d’interdire les pratiques trompeuses en matière de conception sur leurs services » explique la Commission dans son communiqué.

« Sur X, n’importe qui peut payer pour obtenir le statut « vérifié » sans que l’entreprise ne vérifie de manière significative qui se cache derrière le compte, ce qui rend difficile pour les utilisateurs de juger de l’authenticité des comptes et des contenus avec lesquels ils interagissent », constate (comme tout le monde) l’administration européenne.

Elle considère que « cette tromperie expose les utilisateurs à des escroqueries, notamment à des fraudes par usurpation d’identité, ainsi qu’à d’autres formes de manipulation par des acteurs malveillants ».

Mais la Commission ne s’est pas arrêtée à la coche bleue. Elle reproche à X (anciennement Twitter) le manque de transparence dans le référentiel des publicités de X qui est censé éclairer les utilisateurs au sujet du ciblage publicitaire comme l’y oblige le DSA. Mais la Commission explique que « X a élaboré un design et des barrières d’accès, tels que des délais de traitement excessifs, qui compromettent l’objectif des référentiels publicitaires ».

Bruxelles reproche aussi au réseau social d’Elon Musk de ne pas fournir aux chercheurs d’accès aux données publiques de sa plateforme.

La Commission souligne que c’est sa première décision de non-conformité avec le DSA. L’entreprise a 60 jours pour prendre des mesures concernant la coche bleue et 90 jours pour proposer un plan d’action qui la mette en conformité avec le DSA. Si tel n’est pas le cas, elle pourrait subir des jour-amendes de pénalité en plus.

Les autorités états-uniennes réagissent vivement

« Tromper les utilisateurs avec des coches bleues, dissimuler des informations sur les publicités et exclure les chercheurs n’ont pas leur place en ligne dans l’UE », commente Henna Virkkunen, vice-présidente exécutive de la Commission européenne à la Souveraineté technologique, à la Sécurité et à la Démocratie :

« La DSA protège les utilisateurs. Le DSA donne aux chercheurs les moyens de mettre au jour les menaces potentielles. Le DSA rétablit la confiance dans l’environnement en ligne. Avec la première décision de non-conformité de la DSA, nous tenons X responsable d’avoir porté atteinte aux droits des utilisateurs et d’avoir éludé ses responsabilités. »

X n’a pas encore réagi et n’a pas répondu à Reuters. Mais du côté états-unien, cette décision européenne n’est pas passée inaperçue et devrait tendre un peu plus les relations entre les deux côtés de l’Atlantique. « Des rumeurs circulent selon lesquelles la Commission européenne infligerait une amende de plusieurs centaines de millions de dollars pour non-respect de la censure », réagissait sur X JD Vance hier soir avant l’annonce officielle, ajoutant que « l’UE devrait soutenir la liberté d’expression au lieu d’attaquer les entreprises américaines pour des futilités ».

Dans le même sens, cette fois après l’officialisation, Brendan Carr, nommé en 2017 par Donald Trump à la Commission fédérale des communications (FCC) qu’il dirige depuis 2024, a affirmé sur X qu’ « une fois de plus, l’Europe inflige une amende à une entreprise technologique américaine prospère pour le simple fait d’être une entreprise technologique américaine prospère » :

« L’Europe impose des taxes aux Américains afin de subventionner un continent freiné par ses propres réglementations étouffantes ».

  •  

Bruxelles inflige une amende de 120 millions d’euros à X pour infraction au DSA

X n'est pas une marque de transparence
Bruxelles inflige une amende de 120 millions d’euros à X pour infraction au DSA

Après 2 ans d’enquête, la Commission inflige une amende conséquente à X, lui reprochant un manque de transparence et des pratiques trompeuses, notamment sur le changement de signification de la coche bleue.

Près de deux ans après l’ouverture de sa procédure formelle contre X, la Commission européenne annonce avoir infligé une amende de 120 millions d’euros au réseau social d’Elon Musk pour des manquements à ses obligations de transparence imposées par le Règlement sur les services numériques (DSA). En juillet 2024, Bruxelles avait confirmé ses craintes et attaqué X pour violation du DSA.

Coche bleue trompeuse et manque de transparence

En cause, notamment, le changement d’utilisation de la coche bleue, qui servait initialement à certifier l’identité des utilisateurs « vérifiés » par Twitter. Suite à son rachat, Elon Musk l’a ouvert à n’importe quel utilisateur payant pour accéder aux services premium de X. « Cela enfreint l’obligation imposée par le DSA aux plateformes en ligne d’interdire les pratiques trompeuses en matière de conception sur leurs services » explique la Commission dans son communiqué.

« Sur X, n’importe qui peut payer pour obtenir le statut « vérifié » sans que l’entreprise ne vérifie de manière significative qui se cache derrière le compte, ce qui rend difficile pour les utilisateurs de juger de l’authenticité des comptes et des contenus avec lesquels ils interagissent », constate (comme tout le monde) l’administration européenne.

Elle considère que « cette tromperie expose les utilisateurs à des escroqueries, notamment à des fraudes par usurpation d’identité, ainsi qu’à d’autres formes de manipulation par des acteurs malveillants ».

Mais la Commission ne s’est pas arrêtée à la coche bleue. Elle reproche à X (anciennement Twitter) le manque de transparence dans le référentiel des publicités de X qui est censé éclairer les utilisateurs au sujet du ciblage publicitaire comme l’y oblige le DSA. Mais la Commission explique que « X a élaboré un design et des barrières d’accès, tels que des délais de traitement excessifs, qui compromettent l’objectif des référentiels publicitaires ».

Bruxelles reproche aussi au réseau social d’Elon Musk de ne pas fournir aux chercheurs d’accès aux données publiques de sa plateforme.

La Commission souligne que c’est sa première décision de non-conformité avec le DSA. L’entreprise a 60 jours pour prendre des mesures concernant la coche bleue et 90 jours pour proposer un plan d’action qui la mette en conformité avec le DSA. Si tel n’est pas le cas, elle pourrait subir des jour-amendes de pénalité en plus.

Les autorités états-uniennes réagissent vivement

« Tromper les utilisateurs avec des coches bleues, dissimuler des informations sur les publicités et exclure les chercheurs n’ont pas leur place en ligne dans l’UE », commente Henna Virkkunen, vice-présidente exécutive de la Commission européenne à la Souveraineté technologique, à la Sécurité et à la Démocratie :

« La DSA protège les utilisateurs. Le DSA donne aux chercheurs les moyens de mettre au jour les menaces potentielles. Le DSA rétablit la confiance dans l’environnement en ligne. Avec la première décision de non-conformité de la DSA, nous tenons X responsable d’avoir porté atteinte aux droits des utilisateurs et d’avoir éludé ses responsabilités. »

X n’a pas encore réagi et n’a pas répondu à Reuters. Mais du côté états-unien, cette décision européenne n’est pas passée inaperçue et devrait tendre un peu plus les relations entre les deux côtés de l’Atlantique. « Des rumeurs circulent selon lesquelles la Commission européenne infligerait une amende de plusieurs centaines de millions de dollars pour non-respect de la censure », réagissait sur X JD Vance hier soir avant l’annonce officielle, ajoutant que « l’UE devrait soutenir la liberté d’expression au lieu d’attaquer les entreprises américaines pour des futilités ».

Dans le même sens, cette fois après l’officialisation, Brendan Carr, nommé en 2017 par Donald Trump à la Commission fédérale des communications (FCC) qu’il dirige depuis 2024, a affirmé sur X qu’ « une fois de plus, l’Europe inflige une amende à une entreprise technologique américaine prospère pour le simple fait d’être une entreprise technologique américaine prospère » :

« L’Europe impose des taxes aux Américains afin de subventionner un continent freiné par ses propres réglementations étouffantes ».

  •  

☕️ Une nouvelle panne Cloudflare a touché de nombreux sites : l’« incident est résolu »

Après la panne intervenue il y a 15 jours, Cloudflare a été touché par un nouvel incident. « Cloudflare enquête sur des problèmes liés à Cloudflare Dashboard et aux API associées », expliquait l’entreprise sur son site d’informations liées aux pannes à 9h56 heure française.

Cloudflare a ensuite ajouté qu’« une correction a été mise en œuvre » et qu’elle surveillait les résultats à 10h12.

Next a pu constater que ce problème a eu une incidence sur des sites grand public comme : Doctolib, Claude.ia, Downdetector (sa version française comme sa version internationale), Quora ou encore Zendesk. Une erreur 500 était affichée sur tous ces sites.

Ces services semblent tous de nouveau accessibles après la correction mise en place. La panne a duré une quinzaine de minutes, mais elle n’est pas passée inaperçue étant donné l’omniprésence de la plateforme sur Internet. À 10h20, Cloudflare annonce que « cet incident est résolu ».

La précédente panne était partie d’un petit changement de permissions.

  •  

☕️ Une nouvelle panne Cloudflare a touché de nombreux sites : l’« incident est résolu »

Après la panne intervenue il y a 15 jours, Cloudflare a été touché par un nouvel incident. « Cloudflare enquête sur des problèmes liés à Cloudflare Dashboard et aux API associées », expliquait l’entreprise sur son site d’informations liées aux pannes à 9h56 heure française.

Cloudflare a ensuite ajouté qu’« une correction a été mise en œuvre » et qu’elle surveillait les résultats à 10h12.

Next a pu constater que ce problème a eu une incidence sur des sites grand public comme : Doctolib, Claude.ia, Downdetector (sa version française comme sa version internationale), Quora ou encore Zendesk. Une erreur 500 était affichée sur tous ces sites.

Ces services semblent tous de nouveau accessibles après la correction mise en place. La panne a duré une quinzaine de minutes, mais elle n’est pas passée inaperçue étant donné l’omniprésence de la plateforme sur Internet. À 10h20, Cloudflare annonce que « cet incident est résolu ».

La précédente panne était partie d’un petit changement de permissions.

  •  

Ada d’Universcience : l’IA pour enseignants avec des images GenAI absurdes sur l’évolution

IA d'Ada sur mon bidet
Ada d’Universcience : l’IA pour enseignants avec des images GenAI absurdes sur l’évolution

Universcience vient de lancer une « IA au service des enseignants ». Elle propose de créer des cours en utilisant la base de données de contenus stockés par la structure de médiation scientifique. Mais les premiers cours présentés dans Ada sont accompagnés d’images générées par IA illustrant de manière absurde, par exemple, l’évolution des espèces en incluant entre autres des voitures. Interrogée par Next, l’illustratrice Florence Dellerie nous fait part de son agacement face à ce genre d’images.

« Universcience, l’établissement public réunissant le Palais de la découverte et la Cité des sciences et de l’industrie, présente Ada, une plateforme innovante au service de la communauté éducative », peut-on lire sur le communiqué de presse [PDF] envoyé par l’une des plus importantes structures de médiation des sciences françaises.

À Next, nous sommes curieux de ce qui touche à l’intelligence artificielle et aux sciences, donc nous avons cliqué pour voir. Au lieu d’une « intelligence artificielle », le projet Ada d’Universcience ressemble plus à un portail de création de cours en ligne. Les enseignants peuvent utiliser les contenus de la structure de médiation scientifique pour structurer leur présentation d’un sujet à leurs élèves. Ils peuvent aussi réutiliser des cours déjà créés par leurs collègues sur la plateforme en les modifiant.

Plutôt qu’une « IA », une indexation de contenu faite par IA et une personnalisation de cours assistée par IA


Il reste 92% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

☕️ Prix du logiciel libre de recherche : Aladin lite, l’atlas du ciel récompensé

En ce début décembre, le ministère de l’Enseignement supérieur et de la Recherche a remis les prix de la science ouverte de l’année.

Plusieurs logiciels libres y ont été récompensés :

  • Le prix « scientifique et technique » a été attribué à GNU MPFR, « une bibliothèque libre (GPLv3) de calcul en virgule flottante avec précision arbitraire, reprenant les bonnes idées de la norme IEEE 754, comme l’arrondi correct » ;
  • le « coup de cœur » a mis en avant HyperSpy, « une bibliothèque libre pour Python, en licence GPLv3, qui aide les chercheurs en science des matériaux à analyser et visualiser des données complexes, telles que les ensembles de données multidimensionnels » ,
  • le prix de la documentation a été attribué au langage de programmation Pharo ;
  • et le prix de la communauté a été attribué à la version 3 d’Aladin Lite, un atlas du ciel interactif libre.

Conçu par le Centre de Données astronomiques de Strasbourg (CDS), celui-ci permet de se balader dans le ciel en visualisant des données astronomiques comme celles issues des observatoires européens Gaia ou Euclid :

Mais on peut l’utiliser aussi pour se balader sur Mars. « Simple à intégrer dans d’autres sites ou projets, il offre à tousastronomes, physiciens, passionnés comme curieuxune porte d’entrée vers les richesses du ciel. Interopérable, un très grand nombre de portails web l’utilisent spontanément », explique le ministère. L’ESA, par exemple, utilise déjà Aladin lite pour son site ESAsky. Son code est accessible sur GitHub en licence GPL3.0 et une API est aussi disponible.

  •  

☕️ Prix du logiciel libre de recherche : Aladin lite, l’atlas du ciel récompensé

En ce début décembre, le ministère de l’Enseignement supérieur et de la Recherche a remis les prix de la science ouverte de l’année.

Plusieurs logiciels libres y ont été récompensés :

  • Le prix « scientifique et technique » a été attribué à GNU MPFR, « une bibliothèque libre (GPLv3) de calcul en virgule flottante avec précision arbitraire, reprenant les bonnes idées de la norme IEEE 754, comme l’arrondi correct » ;
  • le « coup de cœur » a mis en avant HyperSpy, « une bibliothèque libre pour Python, en licence GPLv3, qui aide les chercheurs en science des matériaux à analyser et visualiser des données complexes, telles que les ensembles de données multidimensionnels » ,
  • le prix de la documentation a été attribué au langage de programmation Pharo ;
  • et le prix de la communauté a été attribué à la version 3 d’Aladin Lite, un atlas du ciel interactif libre.

Conçu par le Centre de Données astronomiques de Strasbourg (CDS), celui-ci permet de se balader dans le ciel en visualisant des données astronomiques comme celles issues des observatoires européens Gaia ou Euclid :

Mais on peut l’utiliser aussi pour se balader sur Mars. « Simple à intégrer dans d’autres sites ou projets, il offre à tousastronomes, physiciens, passionnés comme curieuxune porte d’entrée vers les richesses du ciel. Interopérable, un très grand nombre de portails web l’utilisent spontanément », explique le ministère. L’ESA, par exemple, utilise déjà Aladin lite pour son site ESAsky. Son code est accessible sur GitHub en licence GPL3.0 et une API est aussi disponible.

  •  

L’IA (générative) n’a pas supprimé les tâches subalternes dans les rédactions

AI journalism
L’IA (générative) n’a pas supprimé les tâches subalternes dans les rédactions

Le Reuters Institute publie un sondage mené auprès de journalistes britanniques entre aout et novembre 2024. Alors que promesse leur avait été faite que les tâches subalternes seraient minimisées grâce à l’IA, le constat est tout autre.

Le Reuters Institute for the Study of Journalism a conduit un sondage auprès de 1 004 journalistes britanniques entre aout et novembre 2024. Le think tank a publié la semaine dernière son analyse. Si les réponses datent déjà un peu dans un univers du numérique qui évolue très rapidement, on peut néanmoins y piocher quelques éléments intéressants quant à l’usage de l’IA dans les rédactions suite à la diffusion des LLM dans nos vies professionnelles.

Une adoption massive

On se rend compte, avec ce sondage, que les journalistes ont massivement adopté des outils intégrant l’IA puisque plus de la moitié (56 %) d’entre eux les utilisaient l’année dernière au moins de façon hebdomadaire et 27 % au quotidien :

Transcription, traduction et vérification grammaticales en tâches sous-traitées à l’IA générative

Quand on entre dans les détails des tâches effectuées avec l’aide de l’IA dans les rédactions, le Reuters Institute explique que les « trois utilisations les plus fréquentes concernent ce que l’on pourrait appeler le traitement du langage, en particulier la transcription/le sous-titrage (49 % utilisent l’IA pour cette tâche au moins une fois par mois), la traduction (33 %) et la vérification grammaticale/la relecture (30 %) ».

Quand on s’intéresse aux tâches des journalistes qui utilisent quotidiennement l’IA, celle qui revient en premier est la vérification grammaticale/la relecture (14 %), puis viennent la transcription/le sous-titrage (8 %), la traduction (5 %) puis à 4 % la recherche de sujets, le résumé d’infos et la génération d’une partie de l’article (le titre, par exemple).

L’IA générative n’efface pas les tâches subalternes

Mais ce qui est marquant, c’est que les journalistes qui utilisent l’IA de façon quotidienne sont ceux qui se plaignent le plus de travailler trop fréquemment sur des tâches subalternes. Cette classification est laissée à l’appréciation de chaque journaliste, il n’y a pas de définition précise.

Ainsi, 59 % des journalistes qui utilisent l’IA au quotidien et la moitié de ceux qui l’utilisent au moins une fois par mois trouvent qu’ils ont trop de tâches subalternes à accomplir alors que 37 % des journalistes britanniques qui n’utilisent jamais l’IA s’en plaignent :

Le Reuters Institute fait plusieurs hypothèses pour expliquer ces résultats. Avec l’IA, de nouvelles tâches subalternes seraient nécessaires comme le nettoyage des données, la création de prompts ou la vérification de ce qui a été généré. Une autre explication pourrait être que ce sont les journalistes qui estimaient avoir déjà trop de tâches subalternes qui utilisent l’IA pour s’en débarrasser.

Globalement, en 2024, les journalistes britanniques voyaient en l’IA générative plutôt une menace pour le journalisme (à 62 %) alors qu’une petite minorité de 15 % estimait que cette technologie était une vraie opportunité.

« Bien sûr, il est possible de considérer l’IA à la fois comme une menace importante ou très importante et comme une opportunité importante ou très importante, et c’est effectivement l’avis de 5 % des journalistes britanniques », remarque le Reuters Institute, « il convient également de noter que 29 % des journalistes britanniques ne considèrent l’IA ni comme une menace importante ni comme une opportunité importante ».

Quand le Reuters Institute leur a demandé quelles étaient les potentielles conséquences éthiques de l’utilisation de l’IA, ce qui arrive en premier est l’impact négatif sur la confiance du public dans le journalisme, suivi rapidement du manque de précision que ça pourrait engendrer ainsi que du manque d’originalité.

Concernant l’utilisation de l’IA à travers le genre et l’âge, on ne voit pas une différence si importante que ça. En effet, si l’utilisation de l’IA est un peu plus élevée chez les journalistes hommes, au final, les proportions d’utilisation sont proches entre les genres. Et si les jeunes journalistes de moins de 30 ans utilisent plus l’IA au quotidien, la différence entre générations n’est pas marquée :

  •  

L’IA (générative) n’a pas supprimé les tâches subalternes dans les rédactions

AI journalism
L’IA (générative) n’a pas supprimé les tâches subalternes dans les rédactions

Le Reuters Institute publie un sondage mené auprès de journalistes britanniques entre aout et novembre 2024. Alors que promesse leur avait été faite que les tâches subalternes seraient minimisées grâce à l’IA, le constat est tout autre.

Le Reuters Institute for the Study of Journalism a conduit un sondage auprès de 1 004 journalistes britanniques entre aout et novembre 2024. Le think tank a publié la semaine dernière son analyse. Si les réponses datent déjà un peu dans un univers du numérique qui évolue très rapidement, on peut néanmoins y piocher quelques éléments intéressants quant à l’usage de l’IA dans les rédactions suite à la diffusion des LLM dans nos vies professionnelles.

Une adoption massive

On se rend compte, avec ce sondage, que les journalistes ont massivement adopté des outils intégrant l’IA puisque plus de la moitié (56 %) d’entre eux les utilisaient l’année dernière au moins de façon hebdomadaire et 27 % au quotidien :

Transcription, traduction et vérification grammaticales en tâches sous-traitées à l’IA générative

Quand on entre dans les détails des tâches effectuées avec l’aide de l’IA dans les rédactions, le Reuters Institute explique que les « trois utilisations les plus fréquentes concernent ce que l’on pourrait appeler le traitement du langage, en particulier la transcription/le sous-titrage (49 % utilisent l’IA pour cette tâche au moins une fois par mois), la traduction (33 %) et la vérification grammaticale/la relecture (30 %) ».

Quand on s’intéresse aux tâches des journalistes qui utilisent quotidiennement l’IA, celle qui revient en premier est la vérification grammaticale/la relecture (14 %), puis viennent la transcription/le sous-titrage (8 %), la traduction (5 %) puis à 4 % la recherche de sujets, le résumé d’infos et la génération d’une partie de l’article (le titre, par exemple).

L’IA générative n’efface pas les tâches subalternes

Mais ce qui est marquant, c’est que les journalistes qui utilisent l’IA de façon quotidienne sont ceux qui se plaignent le plus de travailler trop fréquemment sur des tâches subalternes. Cette classification est laissée à l’appréciation de chaque journaliste, il n’y a pas de définition précise.

Ainsi, 59 % des journalistes qui utilisent l’IA au quotidien et la moitié de ceux qui l’utilisent au moins une fois par mois trouvent qu’ils ont trop de tâches subalternes à accomplir alors que 37 % des journalistes britanniques qui n’utilisent jamais l’IA s’en plaignent :

Le Reuters Institute fait plusieurs hypothèses pour expliquer ces résultats. Avec l’IA, de nouvelles tâches subalternes seraient nécessaires comme le nettoyage des données, la création de prompts ou la vérification de ce qui a été généré. Une autre explication pourrait être que ce sont les journalistes qui estimaient avoir déjà trop de tâches subalternes qui utilisent l’IA pour s’en débarrasser.

Globalement, en 2024, les journalistes britanniques voyaient en l’IA générative plutôt une menace pour le journalisme (à 62 %) alors qu’une petite minorité de 15 % estimait que cette technologie était une vraie opportunité.

« Bien sûr, il est possible de considérer l’IA à la fois comme une menace importante ou très importante et comme une opportunité importante ou très importante, et c’est effectivement l’avis de 5 % des journalistes britanniques », remarque le Reuters Institute, « il convient également de noter que 29 % des journalistes britanniques ne considèrent l’IA ni comme une menace importante ni comme une opportunité importante ».

Quand le Reuters Institute leur a demandé quelles étaient les potentielles conséquences éthiques de l’utilisation de l’IA, ce qui arrive en premier est l’impact négatif sur la confiance du public dans le journalisme, suivi rapidement du manque de précision que ça pourrait engendrer ainsi que du manque d’originalité.

Concernant l’utilisation de l’IA à travers le genre et l’âge, on ne voit pas une différence si importante que ça. En effet, si l’utilisation de l’IA est un peu plus élevée chez les journalistes hommes, au final, les proportions d’utilisation sont proches entre les genres. Et si les jeunes journalistes de moins de 30 ans utilisent plus l’IA au quotidien, la différence entre générations n’est pas marquée :

  •  

L’IA générative, « instrument de précision » pour la censure et la répression en Chine

La grande murAI
L’IA générative, « instrument de précision » pour la censure et la répression en Chine

Un rapport de l’Australian Strategic Policy Institute montre comment la Chine utilise l’IA générative pour transformer son système de contrôle de la population en un instrument encore plus précis pour renforcer la désinformation et la surveillance biométrique. Le marché de l’innovation créé par le pouvoir « permet aux entreprises de se conformer plus facilement et à moindre coût aux obligations de censure ».

L’utilisation de l’IA en Chine pour la surveillance de la population n’est pas nouvelle. Concernant l’IA générative, dès la sortie de DeepSeek-R1, on pouvait constater une censure au sujet de Taïwan, de la répression de la place de Tian’Anmen en 1989 ou de Xi Jinping, notamment.

Mais, selon l’Australian Strategic Policy Institute (ASPI, un think tank australien financé essentiellement par son gouvernement), la Chine s’appuie maintenant grandement sur les LLM pour automatiser la censure, renforcer la surveillance et réprimer préventivement la dissidence. Ainsi, elle peut transformer son système de contrôle étatique « en un instrument de précision permettant de gérer la population et de cibler des groupes à l’intérieur et à l’extérieur du pays ».

Dans l’introduction de son rapport [PDF], l’ASPI signale déjà l’importance du jeu sémantique des autorités chinoises qui utilisent le terme de « sureté de l’IA » (AI safety en anglais) non pas comme un concept de protection des utilisateurs contre les dangers ou les biais, mais pour s’assurer que l’IA serve les valeurs fondamentales censées être défendues par le régime et la stabilité politique de l’État.

Il ajoute que « depuis le plan de développement de l’intelligence artificielle de nouvelle génération (2017) du Conseil d’État, la politique chinoise insiste sur le fait que l’IA doit être « sûre, fiable et contrôlable ». Cette formulation place le développement de l’IA au cœur des priorités de l’État en matière de sécurité et de stabilité. La réglementation exige des fournisseurs qu’ils se conforment aux « valeurs socialistes fondamentales » et interdit les productions qui « incitent à la subversion du pouvoir de l’État » ou « nuisent à l’image nationale » ». Ainsi, tout le thème de la sécurité et de la sureté de l’IA est perçu, en Chine, comme l’obligation de protéger le régime.

Une censure par le silence la plupart du temps

C’est dans ce sens que s’inscrit la censure mise en place dans les modèles de langage développés en Chine. L’ASPI a poussé un peu plus loin les tests sur cette censure en interrogeant les différents modèles non pas sur des textes mais sur l’analyse d’images. Ainsi, le think tank a testé le modèle Qwen d’Alibaba et GLM de Z.ia, via le service en ligne de chacune des entreprises chinoises en tant que fournisseur d’inférence. L’ASPI explique que la forme la plus directe de censure est le refus de réponse.

Qwen n’a répondu qu’à moins de 30 % des prompts contenant ce que le think tank appelle des « images politiquement sensibles », qui vont d’une photo d’Henri Cartier-Bresson d’une délégation de travailleurs défilant dans la province du Gansu pendant le Grand Bond en avant utilisée par le New Yorker à celle d’une banderole de Black Lives Matter, en passant par l’illustration des mesures anti-covid en 2022 en Chine.

L’ASPI remarque notamment la différence du taux de réponses en comparant ces résultats avec les réponses de Qwen hébergé chez Novita, un fournisseur états-unien. On peut aussi voir que le modèle a tendance à moins répondre lorsqu’il est interrogé en chinois qu’en anglais.

Lorsque les modèles chinois répondent, leur description des images a tendance à mettre en sourdine certains éléments. Ainsi, pour décrire l’imagerie du massacre de la place Tian’Anmen, Qwen, GLM ou Ernie évoquent très peu la censure, la répression, les demandes de plus de démocratie et les détails factuels par rapport à ChatGPT et Gemini. Par contre, les modèles chinois vont avoir tendance à générer des justifications de la répression :

Les chercheurs de l’ASPI ont aussi constaté des différences parfois importantes dans les réponses données par les chatbots chinois entre les réponses faites lorsqu’ils sont utilisés en chinois ou en anglais : « Qwen a présenté la plus grande divergence interlinguistique, en particulier pour les images liées au génocide ouïghour, au Falun Gong [mouvement spirituel réprimé en Chine, ndlr] et à l’indépendance du Tibet ».

La censure dans les modèles est, selon eux, un mélange entre toutes ces techniques. L’ASPI résume dans un tableau les différents problèmes pour chaque modèle (un ✔ représente l’existence de censure dans les réponses du modèle) :

« La menace réside moins dans la propagande ouverte que dans l’effacement silencieux, lorsque la machine qui décrit la réalité commence à décider quelles parties de la réalité peuvent être vues », pointe l’ASPI.

Un marché concurrentiel de la censure

Cette censure est visible à travers les contenus en ligne, explique le think tank : « en Chine, l’IA effectue désormais une grande partie du travail de censure en ligne, analysant d’énormes volumes de contenu numérique, signalant les violations potentielles et supprimant les contenus interdits en quelques secondes. Cependant, le système dépend toujours des modérateurs de contenu pour fournir le jugement culturel et politique qui fait défaut aux algorithmes ».

Après avoir analysé la façon dont les « modérateurs de contenus » (ByteDance, Tencent et Baidu) utilisent l’IA générative pour effectuer cette tâche, le think tank explique que « grâce aux progrès réalisés dans le domaine de l’IA, le système chinois de censure en ligne a évolué vers un mécanisme de contrôle plus sophistiqué sur le plan technologique, mieux intégré sur le plan commercial et plus adaptable sur le plan politique ». L’ASPI affirme que l’IA n’a pas remplacé les censeurs humains, mais qu’elle a permis « un modèle hybride à la fois évolutif et capable de s’adapter à l’évolution des priorités ».

« Ce qui était au départ un régime réglementaire dirigé par le Parti et l’État s’est transformé en un marché concurrentiel, dans lequel les entreprises privées innovent et réalisent des profits en alignant leurs technologies sur les objectifs du Parti communiste chinois », explique le think tank :

« Dans le même temps, la main-d’œuvre humaine peu rémunérée qui entraine, supervise et perfectionne ces systèmes améliorés par l’IA reste indispensable, garantissant que les limites de la liberté d’expression évoluent en fonction des changements politiques ».

Dans son rapport, le think tank décrit aussi un système judiciaire chinois envahi par l’IA depuis l’arrivée des modèles de langage. « Un accusé appréhendé grâce à la surveillance basée sur l’IA et jugé dans une salle d’audience assistée par l’IA peut alors être condamné, sur recommandation d’un système d’IA, à une peine dans une « prison intelligente » (智慧监狱) dotée de nombreuses technologies intelligentes », explique le rapport.

  •  

☕️ Le CNRS va proposer son chatbot IA Emmy à ses agents et proscrire les autres

Dans un email envoyé à ses agents le 2 décembre au soir qu’a obtenu Next, la direction du CNRS a annoncé l’ « ouverture d’Emmy, agent conversationnel en intelligence artificielle générative, pour les agents CNRS ».

Accessible via un portail du centre de recherche à partir du 16 décembre 2025, ce chatbot utilisera les modèles de Mistral AI, « grâce à un accord passé » avec l’entreprise, explique la DSI du CNRS.

Dans sa première version accessible aux agents, la DSI met en avant les fonctionnalités suivantes  :

  • traduction de textes en toutes langues ;
  • synthèses de documents ;
  • aide à la reformulation ;
  • aide à la réflexion ;
  • recherche sur le web ;
  • reconnaissance de textes et d’images ;
  • mode « raisonnement » : l’IA traite la question de l’utilisateur étape par étape afin de donner une réponse plus pertinente et plus complète ;
  • collections de documents : permet d’ajouter des documents externes pour contextualiser la réflexion (par exemple un chercheur peut télécharger ses publications pour permettre à l’IA de contextualiser et enrichir ses réponses).

Une page présentant le projet est en ligne depuis tout juste un an.

Le prénom féminin (comme Tay, Siri ou encore Alexa) utilisé pour ce chatbot est présenté comme une référence à la mathématicienne allemande Emmy Noether.

Dans son message, la DSI explique qu’ un « module de sensibilisation à l’intelligence artificielle ainsi que des recommandations d’usage de l’IA générative au CNRS » seront proposés aux agents « d’ici le 16 décembre pour garantir une utilisation d’Emmy dans un cadre sécurisé et adapté ».

Elle ajoute qu’une attestation de suivi de ce module devra être présentée pour accéder à Emmy et qu’ « au regard des risques avérés que présentent les autres outils d’IA en cloud public sur la confidentialité des données et la protection du patrimoine informationnel de l’établissement, tout autre outil d’agent conversationnel en IA générative sera désormais proscrit au CNRS ».

La direction du centre de recherche ne donne par contre pas d’information à ces agents sur le budget consacré à l’accord passé avec Mistral AI.

  •