Vue normale

Reçu — 19 mars 2026 Actualités numériques

☕️ GNOME 50 « Tokyo » est officiellement sorti

19 mars 2026 à 17:22


L’environnement de bureau GNOME arrive aujourd’hui dans sa version 50, nom de code « Tokyo ». Au menu, comme nous l’expliquions lors de la sortie alpha en janvier, la suppression totale de X11 au profit de Wayland.

Cette nouvelle version active par défaut le taux de rafraîchissement variable (ou Variable Refresh Rate, VRR, en anglais) et le « fractional scaling » après « des corrections de bogues, des améliorations en matière de stabilité et d’expérience utilisateur », explique l’équipe de GNOME dans sa note présentant les nouveautés.

GNOME 50 améliore aussi l’utilisation de la fonction de bureau à distance en s’appuyant sur le GPU pour « une amélioration significative des performances ». La note de l’équipe met aussi en avant l’ajout, dans la visionneuse de documents, de la possibilité de créer des annotations :

L’équipe souligne aussi son effort sur le contrôle parental avec la possibilité de régler des horaires de coucher et la définition d’un temps limite qui verrouille l’écran quand les limites sont dépassées. L’équipe explique qu’elle a mis en place les fondements pour un filtrage web « sans compromettre la sécurité du Web ni s’appuyer sur des listes préétablies » qui seront utilisables via l’interface dans de futures mises à jour. Elle précise que ce travail a été financé par la fondation Endless.

Les fonctionnalités d’accessibilité ont aussi été améliorées, notamment le lecteur d’écran Orca, mais aussi l’ajout d’une option « mouvements réduits » qui permet de réduire la gêne et les distractions causées par les animations de l’interface.

Côté outils de développeurs, l’équipe a amélioré l’éditeur de Builder mais aussi Mutter Devkit avec la possibilité de simuler des configurations matérielles et des workflows complexes. GNOME 50 utilise maintenant la dernière version de GTK (4.22) qui supporte nativement le SVG. Cela permet notamment de créer directement des icônes :

L’équipe annonce enfin que « GNOME 50 sera bientôt disponible dans de nombreuses distributions, telles que Fedora 44 et Ubuntu 26.04 ». La prochaine version, GNOME 51, est prévue pour septembre 2026.

☕️ GNOME 50 « Tokyo » est officiellement sorti

19 mars 2026 à 17:22


L’environnement de bureau GNOME arrive aujourd’hui dans sa version 50, nom de code « Tokyo ». Au menu, comme nous l’expliquions lors de la sortie alpha en janvier, la suppression totale de X11 au profit de Wayland.

Cette nouvelle version active par défaut le taux de rafraîchissement variable (ou Variable Refresh Rate, VRR, en anglais) et le « fractional scaling » après « des corrections de bogues, des améliorations en matière de stabilité et d’expérience utilisateur », explique l’équipe de GNOME dans sa note présentant les nouveautés.

GNOME 50 améliore aussi l’utilisation de la fonction de bureau à distance en s’appuyant sur le GPU pour « une amélioration significative des performances ». La note de l’équipe met aussi en avant l’ajout, dans la visionneuse de documents, de la possibilité de créer des annotations :

L’équipe souligne aussi son effort sur le contrôle parental avec la possibilité de régler des horaires de coucher et la définition d’un temps limite qui verrouille l’écran quand les limites sont dépassées. L’équipe explique qu’elle a mis en place les fondements pour un filtrage web « sans compromettre la sécurité du Web ni s’appuyer sur des listes préétablies » qui seront utilisables via l’interface dans de futures mises à jour. Elle précise que ce travail a été financé par la fondation Endless.

Les fonctionnalités d’accessibilité ont aussi été améliorées, notamment le lecteur d’écran Orca, mais aussi l’ajout d’une option « mouvements réduits » qui permet de réduire la gêne et les distractions causées par les animations de l’interface.

Côté outils de développeurs, l’équipe a amélioré l’éditeur de Builder mais aussi Mutter Devkit avec la possibilité de simuler des configurations matérielles et des workflows complexes. GNOME 50 utilise maintenant la dernière version de GTK (4.22) qui supporte nativement le SVG. Cela permet notamment de créer directement des icônes :

L’équipe annonce enfin que « GNOME 50 sera bientôt disponible dans de nombreuses distributions, telles que Fedora 44 et Ubuntu 26.04 ». La prochaine version, GNOME 51, est prévue pour septembre 2026.

« Perroquets stochastiques » : une notion toujours valide malgré les critiques

19 mars 2026 à 14:39
🦜 🤖
« Perroquets stochastiques » : une notion toujours valide malgré les critiques

Introduite par quatre chercheuses en 2021, la notion de « perroquets stochastiques » est critiquée cinq ans après. Elle ne représenterait pas ce qu’est l’état de l’art actuel et bloquerait les réflexions critiques sur l’IA générative. Le travail de ces chercheuses sur les dangers des grands modèles de langage et leur métaphore reste, cependant, toujours valide concernant les modèles de langage.

Depuis quelques semaines, plusieurs critiques fleurissent à propos de l’article scientifique fondateur pour la réflexion sur les modèles de langage et l’IA générative qui introduisait la notion de « perroquets stochastiques » (ou, en termes plus accessibles, « perroquets probabilistes »).

Certains demandent carrément aux autrices de revenir dessus, alors que d’autres soulignent surtout sa « réception publique paresseuse » dans les argumentations anti-IA bloquant toute réflexion autour des transformations que l’IA générative implique dans nos vies.

Les perroquets stochastiques ont plus de cinq ans

Comme nous l’expliquions il y a déjà trois ans, les chercheuses Emily Bender, Timnit Gebru, Angelina McMillan-Major et Margaret Mitchell ont mené cette réflexion sur les modèles de langage (LLM) en 2020 (l’article a été publié en 2021), alors que ChatGPT n’était pas encore sorti.

L’article ne minimisait pas la puissance des LLM mais il prévenait des dangers des grands modèles de langage, des risques de dissémination des biais et de désinformation aux coûts environnementaux.

Elles y reconnaissaient les « qualités de plus en plus fluides du texte généré automatiquement ». Mais elles alertaient justement sur le fait qu’ils pouvaient facilement nous faire croire, « en apparence », à une réflexion et une interaction humaine.

C’est là où elles mobilisaient leur notion de « perroquets stochastiques » pour expliquer que, même si c’est contre-intuitif, c’est « notre perception du texte en langage naturel [qui] est médiée par notre propre compétence linguistique et notre prédisposition à interpréter les actes de communication comme véhiculant un sens et une intention cohérents ».

Des demandes insistantes pour gagner un point


Il reste 72% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Les députés européens veulent repousser la régulation des systèmes d’IA à hauts risques

19 mars 2026 à 10:55


L’AI Act est entré en vigueur en août 2024 mais sa mise en application est progressive. Alors que les règles relatives aux systèmes d’intelligence artificielle à haut risque devaient s’appliquer à partir du 2 août 2026, des députés européens se sont prononcés pour le report de près d’un an et demi de ces mesures.

Comme nous l’expliquions, le règlement européen a défini certaines utilisations de l’IA comme « à haut risque » – notamment la biométrie, la gestion d’infrastructures (numériques, routières, d’eau, de gaz, de chauffage ou d’électricité) critiques, l’éducation… Le texte prévoyait que ces systèmes soient plus régulés à partir du 2 août 2026.

IA Act Europe

Mais les commissions du marché intérieur et des libertés civiles du Parlement européen ont adopté une position commune à intégrer à l’omnibus numérique repoussant cette date au 2 décembre 2027, « étant donné que les normes principales pourraient ne pas être finalisées avant l’échéance actuelle », affirme le communiqué du Parlement européen.

Pour les systèmes d’IA couverts par la législation sectorielle de l’UE sur la sécurité et la surveillance du marché (ou utilisés comme composants de sécurité dans des produits couverts par cette législation), les députés européens proposent même de repousser la date au 2 aout 2028.

Enfin, ils proposent de repousser au 2 novembre 2026 l’obligation faite aux fournisseurs d’IA que leurs sorties soient « marquées dans un format lisible par machine et identifiables comme ayant été générées ou manipulées par une IA ». Elle devait aussi initialement s’appliquer au 2 aout 2026.

Ces deux commissions ont aussi ajouté l’interdiction explicite de « systèmes dits de nudification » sans le consentement de cette personne. Rappelons que Grok a permis la génération de millions de deepfakes à ses utilisateurs. L’entreprise d’Elon Musk, xAI, est déjà visée par de multiples enquêtes sur le sujet.

Ces propositions doivent encore être approuvées en plénière par le parlement le 26 mars prochain, puis discutées avec le Conseil européen.

☕️ Les députés européens veulent repousser la régulation des systèmes d’IA à hauts risques

19 mars 2026 à 10:55


L’AI Act est entré en vigueur en août 2024 mais sa mise en application est progressive. Alors que les règles relatives aux systèmes d’intelligence artificielle à haut risque devaient s’appliquer à partir du 2 août 2026, des députés européens se sont prononcés pour le report de près d’un an et demi de ces mesures.

Comme nous l’expliquions, le règlement européen a défini certaines utilisations de l’IA comme « à haut risque » – notamment la biométrie, la gestion d’infrastructures (numériques, routières, d’eau, de gaz, de chauffage ou d’électricité) critiques, l’éducation… Le texte prévoyait que ces systèmes soient plus régulés à partir du 2 août 2026.

IA Act Europe

Mais les commissions du marché intérieur et des libertés civiles du Parlement européen ont adopté une position commune à intégrer à l’omnibus numérique repoussant cette date au 2 décembre 2027, « étant donné que les normes principales pourraient ne pas être finalisées avant l’échéance actuelle », affirme le communiqué du Parlement européen.

Pour les systèmes d’IA couverts par la législation sectorielle de l’UE sur la sécurité et la surveillance du marché (ou utilisés comme composants de sécurité dans des produits couverts par cette législation), les députés européens proposent même de repousser la date au 2 aout 2028.

Enfin, ils proposent de repousser au 2 novembre 2026 l’obligation faite aux fournisseurs d’IA que leurs sorties soient « marquées dans un format lisible par machine et identifiables comme ayant été générées ou manipulées par une IA ». Elle devait aussi initialement s’appliquer au 2 aout 2026.

Ces deux commissions ont aussi ajouté l’interdiction explicite de « systèmes dits de nudification » sans le consentement de cette personne. Rappelons que Grok a permis la génération de millions de deepfakes à ses utilisateurs. L’entreprise d’Elon Musk, xAI, est déjà visée par de multiples enquêtes sur le sujet.

Ces propositions doivent encore être approuvées en plénière par le parlement le 26 mars prochain, puis discutées avec le Conseil européen.

Reçu — 18 mars 2026 Actualités numériques

Health Data Hub : en attendant la migration, Microsoft et Capgemini ont empoché 10M€ chacun

18 mars 2026 à 08:09
Santé !
Health Data Hub : en attendant la migration, Microsoft et Capgemini ont empoché 10M€ chacun

Devant la commission d’enquête sur la souveraineté numérique de l’Assemblée nationale, le directeur par intérim du Health Data Hub, Laurent Vilboeuf, chiffre à 10 millions le coût global de l’hébergement sur Microsoft Azure depuis le début du projet en 2019. La plateforme de santé a dépensé la même somme dans les conseils apportés par Capgemini.

Le projet de Health Data Hub était une nouvelle fois scruté par des députés ce mardi 17 mars. En effet, le directeur par intérim de la plateforme de données de santé, Laurent Vilboeuf, était auditionné (après notamment Henri Verdier, ancien ambassadeur pour le numérique) dans le cadre d’une commission d’enquête « sur les dépendances structurelles et les vulnérabilités systémiques dans le secteur du numérique et les risques pour l’indépendance de la France » lancée notamment par la députée Cyrielle Chatelain (Les Écologistes) et présidée par le député Philippe Latombe (ModeM).

Alors que la mise en place de la plateforme de santé a été officiellement permise par une loi de juillet 2019, le choix Microsoft Azure pour l’hébergement a été critiqué dès mars 2020. Les députés s’interrogent donc notamment sur ce choix et sur l’évolution que la plateforme est en train de prendre avec, finalement, une bascule sur SecNumCloud d’ici fin 2026 et donc un nouvel appel d’offres en cours.


Il reste 76% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Reçu — 17 mars 2026 Actualités numériques

Version « adulte » de ChatGPT : des experts internes d’OpenAI unanimement opposés

17 mars 2026 à 13:26
La « règle 34 » est-elle malsaine ?
Version « adulte » de ChatGPT  : des experts internes d’OpenAI unanimement opposés

L’entreprise de Sam Altman est bien embêtée entre la volonté du CEO de lancer une version de son chatbot réservée aux adultes qui pourrait générer des discussions érotiques et l’avis d’un comité d’experts sur le bien-être et l’IA, créé en interne, qui s’est prononcé unanimement contre.

En octobre dernier, Sam Altman annonçait que son entreprise allait rendre ChatGPT bientôt plus amical et ouvert aux conversations érotiques. Mais en janvier, un comité d’experts, que l’entreprise a créé en parallèle pour « éclairer [ses] efforts » concernant le bien-être et l’IA, s’est prononcé clairement contre ce projet.

Sam Altman affirmait vouloir « traiter les utilisateurs adultes comme des adultes » en leur créant un mode particulier une fois que leur âge était vérifié. En janvier dernier, OpenAI annonçait la mise en place de plusieurs barrières pour les mineurs : soit un système interne de « prédiction d’âge » soit une vérification d’âge avec la solution de Persona (selfies ou scan de pièce d’identité). Le système était donc en place pour lâcher la bride sur des sujets sensibles selon l’âge de l’utilisateur.

Mais, même en interne, ce nouveau mode permettant des conversations à caractère sexuel était critiqué. Une des cadres de l’entreprise, Ryan Beiermeister a, par exemple, exprimé publiquement son opposition à cette fonctionnalité. Elle a été ensuite licenciée au motif qu’elle aurait commis une discrimination de genre à l’encontre de l’un de ses collègues masculins. Et l’entreprise continue officiellement d’avancer sur le projet, même si elle a encore reporté son lancement «  afin de pouvoir [se] concentrer sur des tâches qui sont actuellement plus prioritaires pour un plus grand nombre d’utilisateurs ».

Un comité d’experts furieux

Son comité d’experts sur le bien-être et l’IA s’est réuni en janvier après que les responsables de l’entreprise l’eurent informé de l’avancement du projet. Ce comité, créé mi octobre, rassemble des chercheurs comme David Bickham, Tracy Dennis-Tiwary ou Andrew K. Przybylski. Il a été mis en place notamment suite à la plainte contre OpenAI des parents d’Adam Raine, 16 ans, qui s’est suicidé. L’annonce de sa création a été étonnamment faite le jour où Sam Altman a annoncé son intention de mettre en place le mode adulte sur ChatGPT.

Selon le Wall Street Journal, les membres de ce comité étaient furieux et se sont unanimement opposés au projet. Ils ont averti que « l’érotisme généré par IA pouvait favoriser une dépendance affective malsaine pour les utilisateurs vis-à-vis de ChatGPT et que des mineurs pourraient trouver un moyen d’accéder à ces discussions sexuelles », expliquent les sources du journal. L’un des experts se serait appuyé sur plusieurs cas de suicides impliquant des chatbots IA pour affirmer qu’OpenAI prenait le risque de créer un « coach au suicide séduisant ».

Ainsi, en octobre 2024, l’adolescent Sewell Setzer III s’est suicidé alors qu’il avait développé une relation intime et problématique avec les chatbots de Character.AI. Sa mère a récemment conclu un accord avec l’entreprise, qu’elle accusait de ne pas avoir déployé les garde-fous nécessaires.

12 % des mineurs détectés comme des adultes

Si OpenAI a reporté le projet, le Wall Street Journal explique que l’entreprise veut toujours le mettre en place à terme. Mais selon le journal, le système de prédiction d’âge développé par OpenAI classait encore récemment à tort 12 % des mineurs comme des adultes, ce qui permettrait à des millions d’utilisateurs de moins de 18 ans à accéder à ses services censés être réservés aux adultes.

L’entreprise aurait aussi du mal à permettre aux adultes d’utiliser son chatbot pour des conversations érotiques tout en bloquant les contenus pédopornographiques. Son concurrent, xAI, est actuellement sous le coup de plusieurs enquêtes à travers le monde après la génération de deepfakes par son IA Grok visant à dénuder des femmes et des mineurs sur X.

Certaines personnes chez OpenAI ont souligné aussi le risque d’utilisations compulsives, de dépendances émotionnelles par rapport au chatbot, de tomber dans une spirale de recherche de contenus de plus en plus extrêmes, explique le Wall Street Journal.

Une porte-parole d’OpenAI a affirmé au journal que l’entreprise veut générer des discussions avec des « thèmes adultes » en les décrivant plutôt comme « sales » (« smut » en anglais) plus que « pornographiques ». Selon elle, les algorithmes de prédiction d’âge de l’entreprise affichent des résultats similaires à la concurrence mais ne seront jamais infaillibles. L’entreprise affirme qu’elle a mis en place des gardes-fous dans ses modèles pour ne pas encourager les relations exclusives avec les utilisateurs, et leur rappeler qu’ils ont besoin d’entretenir des relations dans la vie réelle.

Version « adulte » de ChatGPT : des experts internes d’OpenAI unanimement opposés

17 mars 2026 à 13:26
La « règle 34 » est-elle malsaine ?
Version « adulte » de ChatGPT  : des experts internes d’OpenAI unanimement opposés

L’entreprise de Sam Altman est bien embêtée entre la volonté du CEO de lancer une version de son chatbot réservée aux adultes qui pourrait générer des discussions érotiques et l’avis d’un comité d’experts sur le bien-être et l’IA, créé en interne, qui s’est prononcé unanimement contre.

En octobre dernier, Sam Altman annonçait que son entreprise allait rendre ChatGPT bientôt plus amical et ouvert aux conversations érotiques. Mais en janvier, un comité d’experts, que l’entreprise a créé en parallèle pour « éclairer [ses] efforts » concernant le bien-être et l’IA, s’est prononcé clairement contre ce projet.

Sam Altman affirmait vouloir « traiter les utilisateurs adultes comme des adultes » en leur créant un mode particulier une fois que leur âge était vérifié. En janvier dernier, OpenAI annonçait la mise en place de plusieurs barrières pour les mineurs : soit un système interne de « prédiction d’âge » soit une vérification d’âge avec la solution de Persona (selfies ou scan de pièce d’identité). Le système était donc en place pour lâcher la bride sur des sujets sensibles selon l’âge de l’utilisateur.

Mais, même en interne, ce nouveau mode permettant des conversations à caractère sexuel était critiqué. Une des cadres de l’entreprise, Ryan Beiermeister a, par exemple, exprimé publiquement son opposition à cette fonctionnalité. Elle a été ensuite licenciée au motif qu’elle aurait commis une discrimination de genre à l’encontre de l’un de ses collègues masculins. Et l’entreprise continue officiellement d’avancer sur le projet, même si elle a encore reporté son lancement «  afin de pouvoir [se] concentrer sur des tâches qui sont actuellement plus prioritaires pour un plus grand nombre d’utilisateurs ».

Un comité d’experts furieux

Son comité d’experts sur le bien-être et l’IA s’est réuni en janvier après que les responsables de l’entreprise l’eurent informé de l’avancement du projet. Ce comité, créé mi octobre, rassemble des chercheurs comme David Bickham, Tracy Dennis-Tiwary ou Andrew K. Przybylski. Il a été mis en place notamment suite à la plainte contre OpenAI des parents d’Adam Raine, 16 ans, qui s’est suicidé. L’annonce de sa création a été étonnamment faite le jour où Sam Altman a annoncé son intention de mettre en place le mode adulte sur ChatGPT.

Selon le Wall Street Journal, les membres de ce comité étaient furieux et se sont unanimement opposés au projet. Ils ont averti que « l’érotisme généré par IA pouvait favoriser une dépendance affective malsaine pour les utilisateurs vis-à-vis de ChatGPT et que des mineurs pourraient trouver un moyen d’accéder à ces discussions sexuelles », expliquent les sources du journal. L’un des experts se serait appuyé sur plusieurs cas de suicides impliquant des chatbots IA pour affirmer qu’OpenAI prenait le risque de créer un « coach au suicide séduisant ».

Ainsi, en octobre 2024, l’adolescent Sewell Setzer III s’est suicidé alors qu’il avait développé une relation intime et problématique avec les chatbots de Character.AI. Sa mère a récemment conclu un accord avec l’entreprise, qu’elle accusait de ne pas avoir déployé les garde-fous nécessaires.

12 % des mineurs détectés comme des adultes

Si OpenAI a reporté le projet, le Wall Street Journal explique que l’entreprise veut toujours le mettre en place à terme. Mais selon le journal, le système de prédiction d’âge développé par OpenAI classait encore récemment à tort 12 % des mineurs comme des adultes, ce qui permettrait à des millions d’utilisateurs de moins de 18 ans à accéder à ses services censés être réservés aux adultes.

L’entreprise aurait aussi du mal à permettre aux adultes d’utiliser son chatbot pour des conversations érotiques tout en bloquant les contenus pédopornographiques. Son concurrent, xAI, est actuellement sous le coup de plusieurs enquêtes à travers le monde après la génération de deepfakes par son IA Grok visant à dénuder des femmes et des mineurs sur X.

Certaines personnes chez OpenAI ont souligné aussi le risque d’utilisations compulsives, de dépendances émotionnelles par rapport au chatbot, de tomber dans une spirale de recherche de contenus de plus en plus extrêmes, explique le Wall Street Journal.

Une porte-parole d’OpenAI a affirmé au journal que l’entreprise veut générer des discussions avec des « thèmes adultes » en les décrivant plutôt comme « sales » (« smut » en anglais) plus que « pornographiques ». Selon elle, les algorithmes de prédiction d’âge de l’entreprise affichent des résultats similaires à la concurrence mais ne seront jamais infaillibles. L’entreprise affirme qu’elle a mis en place des gardes-fous dans ses modèles pour ne pas encourager les relations exclusives avec les utilisateurs, et leur rappeler qu’ils ont besoin d’entretenir des relations dans la vie réelle.

☕️ L’Encyclopædia Britannica attaque OpenAI pour « violation massive du copyright »

17 mars 2026 à 09:38


Encyclopædia Britannica et sa filiale Merriam-Webster ont attaqué en justice OpenAI ce vendredi 13 mars.

« D’après les informations dont nous disposons et ce que nous avons pu constater, ChatGPT a copié, et continue de copier, à très grande échelle les contenus protégés par le copyright des plaignants, tant pour entraîner les modèles LLM qui alimentent ChatGPT que pour compléter ou étayer la base de connaissances de ces modèles, notamment par le biais d’un modèle de génération à enrichissement contextuel [retrieval-augmented generation,RAG] », affirme la plainte [PDF].

Le document évoque « près de 100 000 articles en ligne » qui seraient utilisés sans l’accord des ayants droits. Les deux entreprises font remarquer que le chatbot d’OpenAI ressort « parfois des reproductions entières ou partielles des verbatims » de leurs articles et « d’autres fois, ChatGPT reformule des textes qui ressemblent, paraphrasent ou résument » leurs travaux copyrightés.

« GPT-4 a lui-même « mémorisé » une grande partie du contenu protégé par le copyright de Britannica et est capable de reproduire, sur simple demande, des copies quasi mot pour mot de passages importants », ajoute la plainte.

« ChatGPT prive les éditeurs web [comme Encyclopædia Britannica et sa filiale Merriam-Webster] de revenus en générant des réponses aux requêtes des utilisateurs qui se substituent au contenu de ces éditeurs et lui font directement concurrence », assurent leurs avocats.

Plusieurs auteurs ont déjà porté plainte contre OpenAI pour violation du Copyright ainsi que Le New York Times, par exemple.

☕️ L’Encyclopædia Britannica attaque OpenAI pour « violation massive du copyright »

17 mars 2026 à 09:38


Encyclopædia Britannica et sa filiale Merriam-Webster ont attaqué en justice OpenAI ce vendredi 13 mars.

« D’après les informations dont nous disposons et ce que nous avons pu constater, ChatGPT a copié, et continue de copier, à très grande échelle les contenus protégés par le copyright des plaignants, tant pour entraîner les modèles LLM qui alimentent ChatGPT que pour compléter ou étayer la base de connaissances de ces modèles, notamment par le biais d’un modèle de génération à enrichissement contextuel [retrieval-augmented generation,RAG] », affirme la plainte [PDF].

Le document évoque « près de 100 000 articles en ligne » qui seraient utilisés sans l’accord des ayants droits. Les deux entreprises font remarquer que le chatbot d’OpenAI ressort « parfois des reproductions entières ou partielles des verbatims » de leurs articles et « d’autres fois, ChatGPT reformule des textes qui ressemblent, paraphrasent ou résument » leurs travaux copyrightés.

« GPT-4 a lui-même « mémorisé » une grande partie du contenu protégé par le copyright de Britannica et est capable de reproduire, sur simple demande, des copies quasi mot pour mot de passages importants », ajoute la plainte.

« ChatGPT prive les éditeurs web [comme Encyclopædia Britannica et sa filiale Merriam-Webster] de revenus en générant des réponses aux requêtes des utilisateurs qui se substituent au contenu de ces éditeurs et lui font directement concurrence », assurent leurs avocats.

Plusieurs auteurs ont déjà porté plainte contre OpenAI pour violation du Copyright ainsi que Le New York Times, par exemple.

Reçu — 16 mars 2026 Actualités numériques

☕️ L’AfriNIC accuse un broker d’adresses IP de continuer à vouloir le paralyser

16 mars 2026 à 16:15


La guerre des IPv4 en Afrique n’est pas finie. En septembre dernier, l’AfriNIC pensait avoir fait un pas important pour se remettre en selle en élisant son nouveau bureau.

Mais le registre régional d’adresses IP (RIR) desservant l’Afrique continue de subir les attaques de Cloud Innovation, un broker d’adresses IP qui avait réussi à déstabiliser sérieusement l’organisation (dont il est lui-même membre, puisqu’il gère des adresses IP allouées par l’AfriNIC).

Dans une communication sur son site publiée ce jeudi 12 mars, l’AfriNIC alerte sur l’ « intention de perturber et/ou de paralyser le seul registre Internet régional d’Afrique » de la part de Cloud Innovation.

Illustration : Flock

« Nous sommes actuellement confrontés à un enchevêtrement de litiges et d’obstacles procéduraux provoqués par CIL [Cloud Innovation limited], Larus Ltd et les campagnes de sensibilisation qui y sont associées », explique le registre.

L’AfriNIC liste : une contestation de l’élection, une demande de la prolongation de la mise sous tutelle qu’avait décidée la justice mauricienne avant le renouvellement du bureau, l’obstruction à de récentes attributions d’adresses IP, l’injonction toujours en cours de ne pas attribuer d’IP, des campagnes de désinformations et la tentative de faire échouer les réformes de la gouvernance.

L’AfriNIC demande à ses membres de rester vigilants et de continuer à participer activement à la vie du registre.

☕️ L’AfriNIC accuse un broker d’adresses IP de continuer à vouloir le paralyser

16 mars 2026 à 16:15


La guerre des IPv4 en Afrique n’est pas finie. En septembre dernier, l’AfriNIC pensait avoir fait un pas important pour se remettre en selle en élisant son nouveau bureau.

Mais le registre régional d’adresses IP (RIR) desservant l’Afrique continue de subir les attaques de Cloud Innovation, un broker d’adresses IP qui avait réussi à déstabiliser sérieusement l’organisation (dont il est lui-même membre, puisqu’il gère des adresses IP allouées par l’AfriNIC).

Dans une communication sur son site publiée ce jeudi 12 mars, l’AfriNIC alerte sur l’ « intention de perturber et/ou de paralyser le seul registre Internet régional d’Afrique » de la part de Cloud Innovation.

Illustration : Flock

« Nous sommes actuellement confrontés à un enchevêtrement de litiges et d’obstacles procéduraux provoqués par CIL [Cloud Innovation limited], Larus Ltd et les campagnes de sensibilisation qui y sont associées », explique le registre.

L’AfriNIC liste : une contestation de l’élection, une demande de la prolongation de la mise sous tutelle qu’avait décidée la justice mauricienne avant le renouvellement du bureau, l’obstruction à de récentes attributions d’adresses IP, l’injonction toujours en cours de ne pas attribuer d’IP, des campagnes de désinformations et la tentative de faire échouer les réformes de la gouvernance.

L’AfriNIC demande à ses membres de rester vigilants et de continuer à participer activement à la vie du registre.

Russie : depuis 2 semaines, le Kremlin impose des coupures de l’Internet mobile à Moscou

16 mars 2026 à 14:29
Comment traduit-on Minitel en russe ?
Russie : depuis 2 semaines, le Kremlin impose des coupures de l’Internet mobile à Moscou

Depuis plus d’une semaine, les Moscovites subissent des coupures d’internet mobile décidées par le Kremlin et le FSB. La vie dans la capitale russe se voit chamboulée avec parfois l’impossibilité d’utiliser les applications de localisation, de faire fonctionner les TPE ou d’envoyer des messages via mobile avec retour obligatoire au SMS, aux pagers et aux talkies-walkies.

Un pas de plus vers un contrôle drastique de l’Internet en Russie. Mais cette fois-ci, les gestes du quotidien que permet l’Internet mobile depuis son arrivée sont aussi touchés. En effet, depuis le 5 mars, le réseau Internet mobile dans certains quartiers de la capitale russe subit des coupures. Le média russe Novaïa Gazeta explique qu’au moins 23 quartiers de la ville ont subi ce genre de problème. Les services des systèmes de positionnement par satellites semblent aussi parfois brouillés.

« Je roulais sur le périphérique de Sadovoye [qui encercle Moscou], et d’un coup, plus de réseau, plus de GPS [abus de langage pour parler des GNSS, ndlr] », explique au Financial Times, Sergey, un chef de projet.

Le pouvoir russe ne nie pas les coupures et le Roskomnadzor, l’autorité russe de régulation de l’Internet, annonce une baisse de 20 % du trafic mobile comparé au mois précédent. Il y a tout juste un mois la Douma d’État, chambre basse du Parlement russe, avait voté une loi autorisant le service de renseignement du pays, le FSB, à couper l’accès à Internet et la téléphonie mobile.

La vie quotidienne basée sur l’Internet mobile s’est arrêtée

Ainsi, dans certaines rues de Moscou, impossible d’utiliser certains services mobiles pour envoyer des messages, se diriger avec certaines applications de navigation ou payer avec les terminaux de paiement branchés sur le réseau mobile.

Comme l’explique El País, les Moscovites se sont tournés vers des alternatives : le SMS retrouvent de nouveaux aficionados, les hotspots Wi-Fi redeviennent très recherchés. Et même les plateformes de vente en ligne locales Wildberries et Russ annoncent avoir observé une explosion de 170 % des demandes de cartes routières papier, de 73 % des pagers et de 27 % des talkies-walkies.

S’il y avait déjà eu des coupures mobiles dans d’autres régions du pays, c’est la première fois que Moscou est directement touchée. Selon Novaïa Gazeta, les fournisseurs d’accès russes se sont excusés pour les coupures tout en affirmant qu’ils n’en avaient pas le contrôle.

Le Kremlin ne cherche pas à cacher ces coupures. Le porte-parole de Vladimir Poutine, Dmitri Peskov, a affirmé qu’elles dureraient « tant que des mesures supplémentaires seront nécessaires pour garantir la sécurité de nos citoyens », lors d’une conférence de presse donnée mercredi 11 mars, selon le média russe. Il aurait invoqué des actions hostiles de l’Ukraine pour les justifier : « les méthodes d’attaque de plus en plus sophistiquées de Kiev exigent des contre-mesures technologiquement plus avancées ».

Après une semaine de coupures complètes, l’accès à certains sites aurait été réactivé. Ainsi les sites des principaux services publics, des banques, des plateformes de vente en ligne ou de certains médias proches du Kremlin seraient sur une liste blanche. Interrogé par le Financial Times, le créateur de l’entreprise de VPN Amnezia, Mazay Banzaev, imagine que cette liste blanche puisse être étendue : « L’Internet mobile sert manifestement de terrain d’essai pour renforcer encore davantage le contrôle sur l’ensemble du secteur de l’Internet en Russie ».

Jusqu’à récemment, la Russie misait sur un contrôle plus diffus d’Internet que la Chine et l’Iran. Mais la coupure pure et simple de l’Internet mobile dans certains endroits pourrait être le signe d’un changement de politique.

Des rumeurs de coups d’État, la crainte d’attaques de drones ?

Pour certains, la décision de couper l’internet mobile serait le signe de la crainte de Vladimir Poutine d’un coup d’État de la part de Sergueï Choïgou, ministre russe de la Défense de 2012 à 2024. Mais selon plusieurs experts interrogés par le Kyiv Independent, ça ne serait que le vœu pieux de certains opposants. « C’est n’importe quoi. Si les élites russes avaient voulu se débarrasser de Poutine, cela se serait produit en 2022 », affirme Anton Barbashin, fondateur du média Riddle Russia qui travaille pour le think tank ECFR. « Le manque de transparence contribue certes au caractère spéculatif des commentaires sur le changement de régime, mais dans ce cas précis, il se peut qu’il y ait une part de « vœu pieux » », confirme la chercheuse de la London School of Ecomonics, Tomila Lankina.

Interrogé par Novaïa Gazeta, l’avocat Sarkis Darbinyan, cofondateur de l’ONG russe Roskomsvoboda, pense que ces coupures sont probablement dues à une « crainte panique d’une répétition de l’opération toile d’araignée », au cours de laquelle l’armée ukrainienne avait réussi à mettre en place des frappes coordonnées de drones dans le territoire russe.

Russie : depuis 2 semaines, le Kremlin impose des coupures de l’Internet mobile à Moscou

16 mars 2026 à 14:29
Comment traduit-on Minitel en russe ?
Russie : depuis 2 semaines, le Kremlin impose des coupures de l’Internet mobile à Moscou

Depuis plus d’une semaine, les Moscovites subissent des coupures d’internet mobile décidées par le Kremlin et le FSB. La vie dans la capitale russe se voit chamboulée avec parfois l’impossibilité d’utiliser les applications de localisation, de faire fonctionner les TPE ou d’envoyer des messages via mobile avec retour obligatoire au SMS, aux pagers et aux talkies-walkies.

Un pas de plus vers un contrôle drastique de l’Internet en Russie. Mais cette fois-ci, les gestes du quotidien que permet l’Internet mobile depuis son arrivée sont aussi touchés. En effet, depuis le 5 mars, le réseau Internet mobile dans certains quartiers de la capitale russe subit des coupures. Le média russe Novaïa Gazeta explique qu’au moins 23 quartiers de la ville ont subi ce genre de problème. Les services des systèmes de positionnement par satellites semblent aussi parfois brouillés.

« Je roulais sur le périphérique de Sadovoye [qui encercle Moscou], et d’un coup, plus de réseau, plus de GPS [abus de langage pour parler des GNSS, ndlr] », explique au Financial Times, Sergey, un chef de projet.

Le pouvoir russe ne nie pas les coupures et le Roskomnadzor, l’autorité russe de régulation de l’Internet, annonce une baisse de 20 % du trafic mobile comparé au mois précédent. Il y a tout juste un mois la Douma d’État, chambre basse du Parlement russe, avait voté une loi autorisant le service de renseignement du pays, le FSB, à couper l’accès à Internet et la téléphonie mobile.

La vie quotidienne basée sur l’Internet mobile s’est arrêtée

Ainsi, dans certaines rues de Moscou, impossible d’utiliser certains services mobiles pour envoyer des messages, se diriger avec certaines applications de navigation ou payer avec les terminaux de paiement branchés sur le réseau mobile.

Comme l’explique El País, les Moscovites se sont tournés vers des alternatives : le SMS retrouvent de nouveaux aficionados, les hotspots Wi-Fi redeviennent très recherchés. Et même les plateformes de vente en ligne locales Wildberries et Russ annoncent avoir observé une explosion de 170 % des demandes de cartes routières papier, de 73 % des pagers et de 27 % des talkies-walkies.

S’il y avait déjà eu des coupures mobiles dans d’autres régions du pays, c’est la première fois que Moscou est directement touchée. Selon Novaïa Gazeta, les fournisseurs d’accès russes se sont excusés pour les coupures tout en affirmant qu’ils n’en avaient pas le contrôle.

Le Kremlin ne cherche pas à cacher ces coupures. Le porte-parole de Vladimir Poutine, Dmitri Peskov, a affirmé qu’elles dureraient « tant que des mesures supplémentaires seront nécessaires pour garantir la sécurité de nos citoyens », lors d’une conférence de presse donnée mercredi 11 mars, selon le média russe. Il aurait invoqué des actions hostiles de l’Ukraine pour les justifier : « les méthodes d’attaque de plus en plus sophistiquées de Kiev exigent des contre-mesures technologiquement plus avancées ».

Après une semaine de coupures complètes, l’accès à certains sites aurait été réactivé. Ainsi les sites des principaux services publics, des banques, des plateformes de vente en ligne ou de certains médias proches du Kremlin seraient sur une liste blanche. Interrogé par le Financial Times, le créateur de l’entreprise de VPN Amnezia, Mazay Banzaev, imagine que cette liste blanche puisse être étendue : « L’Internet mobile sert manifestement de terrain d’essai pour renforcer encore davantage le contrôle sur l’ensemble du secteur de l’Internet en Russie ».

Jusqu’à récemment, la Russie misait sur un contrôle plus diffus d’Internet que la Chine et l’Iran. Mais la coupure pure et simple de l’Internet mobile dans certains endroits pourrait être le signe d’un changement de politique.

Des rumeurs de coups d’État, la crainte d’attaques de drones ?

Pour certains, la décision de couper l’internet mobile serait le signe de la crainte de Vladimir Poutine d’un coup d’État de la part de Sergueï Choïgou, ministre russe de la Défense de 2012 à 2024. Mais selon plusieurs experts interrogés par le Kyiv Independent, ça ne serait que le vœu pieux de certains opposants. « C’est n’importe quoi. Si les élites russes avaient voulu se débarrasser de Poutine, cela se serait produit en 2022 », affirme Anton Barbashin, fondateur du média Riddle Russia qui travaille pour le think tank ECFR. « Le manque de transparence contribue certes au caractère spéculatif des commentaires sur le changement de régime, mais dans ce cas précis, il se peut qu’il y ait une part de « vœu pieux » », confirme la chercheuse de la London School of Ecomonics, Tomila Lankina.

Interrogé par Novaïa Gazeta, l’avocat Sarkis Darbinyan, cofondateur de l’ONG russe Roskomsvoboda, pense que ces coupures sont probablement dues à une « crainte panique d’une répétition de l’opération toile d’araignée », au cours de laquelle l’armée ukrainienne avait réussi à mettre en place des frappes coordonnées de drones dans le territoire russe.

Reçu — 13 mars 2026 Actualités numériques

Call of Duty, Wii, GTA, Lego… la guerre en Iran entre propagande et gamification

13 mars 2026 à 16:56
Irréalité virtuelle
Call of Duty, Wii, GTA, Lego… la guerre en Iran entre propagande et gamification

Depuis le début de sa guerre contre l’Iran, sur les réseaux sociaux et notamment sur X, la Maison Blanche partage des vidéos mélangeant frappes militaires et images de jeux vidéo comme GTA, Call of Duty ou des jeux de la console Wii. Sur le terrain, ce sont de vrais morts, un vrai hôpital, de vraies écoles et un vrai site classé au patrimoine mondial de l’Unesco qui sont touchés.

Du côté américain, les images de propagande sur les guerres du Golfe des années 90 et 2000 ont laissé en mémoire les images de frappes qualifiées de « chirurgicales ». Depuis son entrée en guerre contre l’Iran avec son opération « Epic Fury », la Maison Blanche abreuve les réseaux sociaux d’une iconographie qui mêle ce genre d’images à celles de jeux vidéo.

Promotion de la guerre par les memes de jeux vidéo

« La Maison Blanche traite, d’une certaine manière du moins, la guerre comme un jeu, en diffusant à la légère ce que l’on pourrait, pour être indulgent, qualifier de vidéos promotionnelles sur leur guerre », commentait le week-end dernier le présentateur de CNN, Jack Tapper.

Effectivement, de Call of Duty (dont la Maison Blanche a finalement retiré sa vidéo), à GTA, la Maison Blanche emprunte à l’univers du jeu vidéo. Les vidéos sont généralement un mélange d’extraits de ces jeux déjà réutilisés en mèmes avec des vidéos embarquées de bombardements.

À certaines critiques, Steven Cheung, le responsable communication de la Maison Blanche, lance un « W’s in the chat, boys! », expression reprise du milieu de Twitch et des streamers pour appeler à célébrer la victoire dans une discussion.

L’administration Trump n’utilise pas que l’imagerie des jeux vidéo. Ainsi, le compte Instagram de la Maison Blanche a diffusé, par exemple, une vidéo accompagnée d’une reprise modifiée de la chanson « Boom Boom » de John Lee Hooker.

La réalité des conséquences n’arrête pas la Maison Blanche

Cette communication sur les réseaux sociaux se voulait la démonstration d’une efficacité de l’armée américaine pour frapper le régime iranien et son programme nucléaire. Alors que les sondages montrent qu’une majorité d’Américains ne comprend pas le but de cette guerre contre l’Iran, « le gouvernement américain ne se contente pas de vouloir que les Américains soutiennent la guerre qu’il a déclenchée avec Israël contre l’Iran ; il veut galvaniser la population », estime l’analyste de CNN Zachary B. Wolf.

Mais, moins de 15 jours après le déclenchement de cette guerre, la communication de la Maison Blanche se heurte à la réalité du conflit racontée par les médias.

La semaine dernière, la BBC identifiait sur images satellitaires que les frappes avaient touché des écoles, l’hôpital Ghandi de Téhéran ou encore le palais du Golestan, site classé au patrimoine mondial de l’Unesco.

Ce mercredi 11 mars, le New York Times confirmait les doutes sur les frappes qui ont touché dès le premier jour de la guerre une école de filles dans la ville iranienne de Minab. Selon le journal, une enquête militaire a déterminé que l’armée américaine a utilisé des données obsolètes et a bien bombardé cette école, faisant au moins 175 morts, dont la plupart étaient des enfants.

Mais le lendemain, la Maison Blanche a continué à poster ses vidéos sur X, l’une jouant sur le mot « strike » au bowling et l’autre mêlant les images de frappes avec celles de plusieurs jeux de Wii.

« La culture du gaming ne mène pas à la jouissance de la guerre », affirme Louis Lapeyrie dans le Grand Continent, « c’est la sphère politique — inspirée de la mouvance néoréactionnaire et d’autres — qui en invoque les codes pour entraîner un large public occidental dans son œuvre finaliste ».

Et l’Iran s’est mis, le même jour, à riposter sur ce terrain de la propagande des réseaux sociaux toutefois sans y aller directement en reprenant les codes des jeux vidéo. Une vidéo met en scène le story telling du régime avec des LEGO, évoquant justement le bombardement de l’école de Minab mais aussi Donald Trump et Benyamin Nétanyahou pactisant avec le diable ou encore Israël en flammes. Une autre, présentée comme « le retour de Khamenei », met en scène la riposte iranienne face à un Donald Trump apeuré.

Call of Duty, Wii, GTA, Lego… la guerre en Iran entre propagande et gamification

13 mars 2026 à 16:56
Irréalité virtuelle
Call of Duty, Wii, GTA, Lego… la guerre en Iran entre propagande et gamification

Depuis le début de sa guerre contre l’Iran, sur les réseaux sociaux et notamment sur X, la Maison Blanche partage des vidéos mélangeant frappes militaires et images de jeux vidéo comme GTA, Call of Duty ou des jeux de la console Wii. Sur le terrain, ce sont de vrais morts, un vrai hôpital, de vraies écoles et un vrai site classé au patrimoine mondial de l’Unesco qui sont touchés.

Du côté américain, les images de propagande sur les guerres du Golfe des années 90 et 2000 ont laissé en mémoire les images de frappes qualifiées de « chirurgicales ». Depuis son entrée en guerre contre l’Iran avec son opération « Epic Fury », la Maison Blanche abreuve les réseaux sociaux d’une iconographie qui mêle ce genre d’images à celles de jeux vidéo.

Promotion de la guerre par les memes de jeux vidéo

« La Maison Blanche traite, d’une certaine manière du moins, la guerre comme un jeu, en diffusant à la légère ce que l’on pourrait, pour être indulgent, qualifier de vidéos promotionnelles sur leur guerre », commentait le week-end dernier le présentateur de CNN, Jack Tapper.

Effectivement, de Call of Duty (dont la Maison Blanche a finalement retiré sa vidéo), à GTA, la Maison Blanche emprunte à l’univers du jeu vidéo. Les vidéos sont généralement un mélange d’extraits de ces jeux déjà réutilisés en mèmes avec des vidéos embarquées de bombardements.

À certaines critiques, Steven Cheung, le responsable communication de la Maison Blanche, lance un « W’s in the chat, boys! », expression reprise du milieu de Twitch et des streamers pour appeler à célébrer la victoire dans une discussion.

L’administration Trump n’utilise pas que l’imagerie des jeux vidéo. Ainsi, le compte Instagram de la Maison Blanche a diffusé, par exemple, une vidéo accompagnée d’une reprise modifiée de la chanson « Boom Boom » de John Lee Hooker.

La réalité des conséquences n’arrête pas la Maison Blanche

Cette communication sur les réseaux sociaux se voulait la démonstration d’une efficacité de l’armée américaine pour frapper le régime iranien et son programme nucléaire. Alors que les sondages montrent qu’une majorité d’Américains ne comprend pas le but de cette guerre contre l’Iran, « le gouvernement américain ne se contente pas de vouloir que les Américains soutiennent la guerre qu’il a déclenchée avec Israël contre l’Iran ; il veut galvaniser la population », estime l’analyste de CNN Zachary B. Wolf.

Mais, moins de 15 jours après le déclenchement de cette guerre, la communication de la Maison Blanche se heurte à la réalité du conflit racontée par les médias.

La semaine dernière, la BBC identifiait sur images satellitaires que les frappes avaient touché des écoles, l’hôpital Ghandi de Téhéran ou encore le palais du Golestan, site classé au patrimoine mondial de l’Unesco.

Ce mercredi 11 mars, le New York Times confirmait les doutes sur les frappes qui ont touché dès le premier jour de la guerre une école de filles dans la ville iranienne de Minab. Selon le journal, une enquête militaire a déterminé que l’armée américaine a utilisé des données obsolètes et a bien bombardé cette école, faisant au moins 175 morts, dont la plupart étaient des enfants.

Mais le lendemain, la Maison Blanche a continué à poster ses vidéos sur X, l’une jouant sur le mot « strike » au bowling et l’autre mêlant les images de frappes avec celles de plusieurs jeux de Wii.

« La culture du gaming ne mène pas à la jouissance de la guerre », affirme Louis Lapeyrie dans le Grand Continent, « c’est la sphère politique — inspirée de la mouvance néoréactionnaire et d’autres — qui en invoque les codes pour entraîner un large public occidental dans son œuvre finaliste ».

Et l’Iran s’est mis, le même jour, à riposter sur ce terrain de la propagande des réseaux sociaux toutefois sans y aller directement en reprenant les codes des jeux vidéo. Une vidéo met en scène le story telling du régime avec des LEGO, évoquant justement le bombardement de l’école de Minab mais aussi Donald Trump et Benyamin Nétanyahou pactisant avec le diable ou encore Israël en flammes. Une autre, présentée comme « le retour de Khamenei », met en scène la riposte iranienne face à un Donald Trump apeuré.

Peine de mort, énergie, OGM : l’autocomplétion générée par IA influence nos réponses

13 mars 2026 à 13:29
Moi, influençable ?
Peine de mort, énergie, OGM : l’autocomplétion générée par IA influence nos réponses

Les outils d’autocomplétion boostés à l’IA générative ont été intégrés dans bon nombre de logiciels, du webmails à l’outil d’édition en passant par les messageries. Mais outre la façon dont on s’exprime, ils peuvent modifier les idées qu’on partage, montre une étude scientifique.

Au départ, on les a vus apparaitre comme des « réponses rapides » chez Gmail ou d’autres messageries. Maintenant, les propositions de textes d’autocomplétion boostées par l’IA générative sont dans énormément d’outils numériques, de Microsoft Word aux applis de rencontre.

Mais ces réponses ne changent pas seulement notre style d’écriture, elles influencent aussi le fond. Et ceci même si on réécrit entièrement le texte. Comme dans un mouvement de foule où l’humain suit ses congénères, quand un texte nous est pré-édité, nous avons tendance à le suivre.

C’est ce que montre l’étude du chercheur Mor Naaman et de ses collègues publiée ce mercredi dans la revue Science Advances. Ces chercheuses et chercheurs ont fait deux expériences réunissant en tout 2 582 participants américains (1 485 pour la première et 1 097 pour la deuxième). Et ils leur ont demandé de répondre à des questions sur des sujets politiques et sociaux importants.

À une partie des participants, ils proposaient d’utiliser un assistant IA qui fournissait des suggestions de saisie automatique. Mais, au préalable, ils ont fait en sorte que ces suggestions soient biaisées dans un certain sens. Les autres utilisaient la même interface débarrassée de toutes les fonctionnalités autour des suggestions IA.

Des questions pourtant très politisées et débattues

Par exemple, l’une des questions était sur la peine de mort. L’IA était biaisée dans le sens de leur suggérer un texte qui argumente pour son interdiction :

Mais ils ont aussi testé le dispositif sur des suggestions sur le droit de vote des prisonniers, les OGM, la fracturation hydraulique (notamment utilisée pour récupérer le gaz de schiste) ou l’utilisation de tests standardisés dans le système éducatif américain.

Une influence significative

De fait, ce dernier sujet était celui utilisé dans leur première expérience et l’IA était biaisée pour suggérer des réponses en faveur de l’utilisation de ces tests. Dans cette expérience, un troisième groupe recevait en suggestion une liste statique d’arguments aussi en faveur

Les autres sujets étaient présentés dans une deuxième expérience. Dans celle-ci, les chercheurs ont essayé de voir si des messages soulignant les biais pouvaient atténuer l’influence des suggestions, avant avec un message d’avertissement (warning) ou après avec un message de « debrief ». Dans cette expérience, les chercheurs ont aussi comparé les réponses des participants à leurs positions quelques semaines avant l’expérience (pretask).

Résultats ? Les suggestions proposées par l’IA influencent de façon significative les réponses des participants. « Nos résultats apportent des preuves solides que les suggestions de saisie semi-automatique biaisées générées par l’IA peuvent influencer les opinions des gens », affirment les chercheurs.

Et les messages d’avertissement (avant ou après utilisation) n’ont aucune conséquence de modération de cet effet. « Des études antérieures sur la désinformation ont montré que le fait d’avertir les gens avant qu’ils ne soient exposés à la désinformation, ou de leur expliquer la situation après coup, peut leur conférer une sorte d’ »immunité » contre le risque de la croire », explique dans un communiqué Sterling Williams-Ceci, doctorant en sciences de l’information à l’université de Cornell Sterling qui a participé à l’étude. « Nous avons donc été surpris, car aucune de ces interventions n’a réellement atténué l’ampleur du changement d’attitude des gens en faveur du parti pris de l’IA dans ce contexte ».

Persuadés de ne pas être influencés par l’IA

Après les deux expériences, les chercheurs ont demandé aux participants si, de leur point de vue, les suggestions étaient « raisonnables et équilibrées » et si l’assistant les avait inspirés ou avait fait changer leur façon d’aborder la question posée.

La plupart d’entre eux n’ont pas remarqué que l’IA qu’on leur proposait était biaisée et l’ont jugée équilibrée. De même, une majorité était persuadée de ne pas avoir été influencée par l’assistant :

« De nombreuses études ont montré que les grands modèles linguistiques et les applications d’IA ne se contentent pas de produire des informations neutres, mais qu’ils peuvent en réalité générer des informations très biaisées, selon la manière dont ils ont été entraînés et mis en œuvre », explique Sterling Williams-Ceci.

« Ce faisant, ces systèmes risquent, par inadvertance ou délibérément, d’inciter les gens à exprimer des points de vue biaisés, ce qui, comme l’ont démontré des décennies de recherche en psychologie, peut à son tour modifier les attitudes des individus ».

Peine de mort, énergie, OGM : l’autocomplétion générée par IA influence nos réponses

13 mars 2026 à 13:29
Moi, influençable ?
Peine de mort, énergie, OGM : l’autocomplétion générée par IA influence nos réponses

Les outils d’autocomplétion boostés à l’IA générative ont été intégrés dans bon nombre de logiciels, du webmails à l’outil d’édition en passant par les messageries. Mais outre la façon dont on s’exprime, ils peuvent modifier les idées qu’on partage, montre une étude scientifique.

Au départ, on les a vus apparaitre comme des « réponses rapides » chez Gmail ou d’autres messageries. Maintenant, les propositions de textes d’autocomplétion boostées par l’IA générative sont dans énormément d’outils numériques, de Microsoft Word aux applis de rencontre.

Mais ces réponses ne changent pas seulement notre style d’écriture, elles influencent aussi le fond. Et ceci même si on réécrit entièrement le texte. Comme dans un mouvement de foule où l’humain suit ses congénères, quand un texte nous est pré-édité, nous avons tendance à le suivre.

C’est ce que montre l’étude du chercheur Mor Naaman et de ses collègues publiée ce mercredi dans la revue Science Advances. Ces chercheuses et chercheurs ont fait deux expériences réunissant en tout 2 582 participants américains (1 485 pour la première et 1 097 pour la deuxième). Et ils leur ont demandé de répondre à des questions sur des sujets politiques et sociaux importants.

À une partie des participants, ils proposaient d’utiliser un assistant IA qui fournissait des suggestions de saisie automatique. Mais, au préalable, ils ont fait en sorte que ces suggestions soient biaisées dans un certain sens. Les autres utilisaient la même interface débarrassée de toutes les fonctionnalités autour des suggestions IA.

Des questions pourtant très politisées et débattues

Par exemple, l’une des questions était sur la peine de mort. L’IA était biaisée dans le sens de leur suggérer un texte qui argumente pour son interdiction :

Mais ils ont aussi testé le dispositif sur des suggestions sur le droit de vote des prisonniers, les OGM, la fracturation hydraulique (notamment utilisée pour récupérer le gaz de schiste) ou l’utilisation de tests standardisés dans le système éducatif américain.

Une influence significative

De fait, ce dernier sujet était celui utilisé dans leur première expérience et l’IA était biaisée pour suggérer des réponses en faveur de l’utilisation de ces tests. Dans cette expérience, un troisième groupe recevait en suggestion une liste statique d’arguments aussi en faveur

Les autres sujets étaient présentés dans une deuxième expérience. Dans celle-ci, les chercheurs ont essayé de voir si des messages soulignant les biais pouvaient atténuer l’influence des suggestions, avant avec un message d’avertissement (warning) ou après avec un message de « debrief ». Dans cette expérience, les chercheurs ont aussi comparé les réponses des participants à leurs positions quelques semaines avant l’expérience (pretask).

Résultats ? Les suggestions proposées par l’IA influencent de façon significative les réponses des participants. « Nos résultats apportent des preuves solides que les suggestions de saisie semi-automatique biaisées générées par l’IA peuvent influencer les opinions des gens », affirment les chercheurs.

Et les messages d’avertissement (avant ou après utilisation) n’ont aucune conséquence de modération de cet effet. « Des études antérieures sur la désinformation ont montré que le fait d’avertir les gens avant qu’ils ne soient exposés à la désinformation, ou de leur expliquer la situation après coup, peut leur conférer une sorte d’ »immunité » contre le risque de la croire », explique dans un communiqué Sterling Williams-Ceci, doctorant en sciences de l’information à l’université de Cornell Sterling qui a participé à l’étude. « Nous avons donc été surpris, car aucune de ces interventions n’a réellement atténué l’ampleur du changement d’attitude des gens en faveur du parti pris de l’IA dans ce contexte ».

Persuadés de ne pas être influencés par l’IA

Après les deux expériences, les chercheurs ont demandé aux participants si, de leur point de vue, les suggestions étaient « raisonnables et équilibrées » et si l’assistant les avait inspirés ou avait fait changer leur façon d’aborder la question posée.

La plupart d’entre eux n’ont pas remarqué que l’IA qu’on leur proposait était biaisée et l’ont jugée équilibrée. De même, une majorité était persuadée de ne pas avoir été influencée par l’assistant :

« De nombreuses études ont montré que les grands modèles linguistiques et les applications d’IA ne se contentent pas de produire des informations neutres, mais qu’ils peuvent en réalité générer des informations très biaisées, selon la manière dont ils ont été entraînés et mis en œuvre », explique Sterling Williams-Ceci.

« Ce faisant, ces systèmes risquent, par inadvertance ou délibérément, d’inciter les gens à exprimer des points de vue biaisés, ce qui, comme l’ont démontré des décennies de recherche en psychologie, peut à son tour modifier les attitudes des individus ».

☕️ Copilot Health : Microsoft lance son concurrent à ChatGPT Santé

13 mars 2026 à 08:21


Deux mois après OpenAI, Microsoft lance son chatbot spécifiquement dédié aux questions de santé.

L’entreprise a annoncé la sortie de Copilot Health ce jeudi dans un billet de blog. Comme ChatGPT Santé, le nouveau chatbot de Microsoft encourage les utilisateurs à lui donner accès à leur dossier médical pour qu’il leur génère des conseils personnalisés. Ils peuvent aussi fournir les données de leurs appareils de Fitness et de santé comme ceux d’Apple, Oura ou Fitbit.

Et de la même façon que son concurrent, l’entreprise de Redmond précise que « Copilot Health ne remplace pas votre médecin ». Mais dans sa communication, Microsoft s’appuie sur les défaillances du système de santé pour mettre en avant son outil : « Les longues attentes, la pénurie de cliniciens et l’accès inégal aux soins médicaux poussent de nombreuses personnes à se tourner vers des sources en ligne pour obtenir de l’aide ».

Illustration : Flock

Dans cette version de Copilot, elle assure avoir « amélioré la qualité et la fiabilité des réponses » concernant la santé par rapport à la version classique de son chatbot en s’appuyant sur des informations d’ « organismes de santé crédibles dans 50 pays » listés par l’académie de Médecine états-unienne.

Comme ChatGPT Santé, Copilot Health bénéficie de la récente baisse de surveillance par la Food and Drug Administration (FDA), l’agence états-unienne responsable de la régulation concernant les médicaments et les produits alimentaires, des dispositifs de santé portables ou s’appuyant sur l’IA.

Copilot Health n’est pour l’instant pas disponible à tous les utilisateurs : Microsoft a pour l’instant prévu une liste d’attente.

☕️ Copilot Health : Microsoft lance son concurrent à ChatGPT Santé

13 mars 2026 à 08:21


Deux mois après OpenAI, Microsoft lance son chatbot spécifiquement dédié aux questions de santé.

L’entreprise a annoncé la sortie de Copilot Health ce jeudi dans un billet de blog. Comme ChatGPT Santé, le nouveau chatbot de Microsoft encourage les utilisateurs à lui donner accès à leur dossier médical pour qu’il leur génère des conseils personnalisés. Ils peuvent aussi fournir les données de leurs appareils de Fitness et de santé comme ceux d’Apple, Oura ou Fitbit.

Et de la même façon que son concurrent, l’entreprise de Redmond précise que « Copilot Health ne remplace pas votre médecin ». Mais dans sa communication, Microsoft s’appuie sur les défaillances du système de santé pour mettre en avant son outil : « Les longues attentes, la pénurie de cliniciens et l’accès inégal aux soins médicaux poussent de nombreuses personnes à se tourner vers des sources en ligne pour obtenir de l’aide ».

Illustration : Flock

Dans cette version de Copilot, elle assure avoir « amélioré la qualité et la fiabilité des réponses » concernant la santé par rapport à la version classique de son chatbot en s’appuyant sur des informations d’ « organismes de santé crédibles dans 50 pays » listés par l’académie de Médecine états-unienne.

Comme ChatGPT Santé, Copilot Health bénéficie de la récente baisse de surveillance par la Food and Drug Administration (FDA), l’agence états-unienne responsable de la régulation concernant les médicaments et les produits alimentaires, des dispositifs de santé portables ou s’appuyant sur l’IA.

Copilot Health n’est pour l’instant pas disponible à tous les utilisateurs : Microsoft a pour l’instant prévu une liste d’attente.

❌