Vue normale

Reçu — 26 janvier 2026 Actualités numériques

L’État veut généraliser « Visio », l’outil de webconf de La Suite Numérique d’ici 2027

26 janvier 2026 à 16:07
Zoomcorico
L’État veut généraliser « Visio », l’outil de webconf de La Suite Numérique d’ici 2027

Pour montrer que le gouvernement veut sortir de la dépendance aux outils numériques américains, le ministre de la Fonction publique, David Amiel, annonce la généralisation de l’utilisation de l’outil Visio de La Suite numérique et l’abandon des licences Zoom du CNRS.

L’outil de visioconférence « Visio » de la plateforme La Suite numérique devra être utilisé (et donc utilisable) par l’ensemble des services de l’État d’ici 2027, a annoncé le ministère chargé de la fonction publique et de la réforme de l’État.

100 % des agents de l’État d’ici 2027

« Nous sommes devenus dépendants à Teams, à Zoom. Il faut donc au sein de l’État se désintoxiquer pour assurer la sécurité de nos échanges en toutes circonstances », constatait ce week-end le ministre David Amiel dans la Tribune du Dimanche. Dans son communiqué, le ministère évoque aussi GoTo Meeting ou Webex. Bref, bien trop de solutions de visio propriétaires et gérées par des entreprises américaines. Et, en ces temps où l’on peut se poser la question d’une éventuelle coupure du robinet de la tech US, la souveraineté numérique est sur toutes les lèvres.

« Le Premier ministre va ces prochains jours diffuser une circulaire pour l’officialiser : 100 % française, Visio sera progressivement déployée pour 100 % des agents de l’État », expliquait le ministre à nos confrères.

Visio est un outil développé par la Dinum au sein de sa plateforme La Suite numérique. L’outil ne sort pas d’un chapeau. Comme nous l’expliquions déjà en juin 2025, ce système de vidéoconférence (appelé La Suite Meet à l’époque) appuie son code (disponible sur GitHub en licence MIT) sur le travail de LiveKit.

Mais David Amiel annonce donc un passage à une plus grosse échelle pour cet outil de la Dinum. Jusque-là, il comptait 40 000 utilisateurs réguliers. Il va bientôt devoir accueillir 200 000 agents de la fonction publique d’ici peu puisqu’il est censé devenir, d’ici la fin du premier trimestre 2026, la solution de visio du CNRS, de l’Assurance Maladie, de la Direction Générale des Finances Publiques (DGFiP) et du ministère des Armées.

Le ministère en profite pour indiquer que le CNRS va abandonner ses licences Zoom. Les 34 000 agents, 120 000 chercheurs et les unités mixtes de recherche qui dépendent du centre devront officiellement passer par Visio (notons qu’en pratique, rien ne permet d’interdire à une personne du CNRS d’utiliser un autre logiciel).

Rappelons quand même que le CNRS avait aussi un outil interne de visioconférence appuyé sur le logiciel libre de visioconférence Big Blue Button. Mais celui-ci ne semble pas avoir eu le succès que la DSI du CNRS escomptait, peut-être à cause d’une infrastructure n’étant pas capable d’assurer une visioconférence fluide à ses utilisateurs.

Hébergé par Outscale, accompagné par l’ANSSI

C’est d’ailleurs l’enjeu autour de cette généralisation de l’utilisation de Visio à tous les fonctionnaires d’ici 2027 : l’outil de la DINUM sera-t-il déployé avec des moyens adéquats ?

Le ministère précise en tout cas que la solution est déployée « avec l’appui de l’ANSSI » et sera hébergée chez Outscale, filiale de Dassault Systèmes, sur une infrastructure labellisée SecNumCloud.

Visio intègre actuellement un outil de transcription en bêta, selon son GitHub. Le ministère explique que la startup française Pyannote est chargée de le développer. Visio devrait aussi intégrer « d’ici l’été 2026 » un outil de sous-titrage en temps réel développé par Kyutai, l’entreprise de R&D de Xavier Niel, Rodolphe Saadé et Eric Schmidt.

Visio doit aussi « permettre d’économiser plusieurs millions d’euros par an car nous n’aurons plus à renouveler des licences auprès d’acteurs non-européens », selon David Amiel.

L’État veut généraliser « Visio », l’outil de webconf de La Suite Numérique d’ici 2027

26 janvier 2026 à 16:07
Zoomcorico
L’État veut généraliser « Visio », l’outil de webconf de La Suite Numérique d’ici 2027

Pour montrer que le gouvernement veut sortir de la dépendance aux outils numériques américains, le ministre de la Fonction publique, David Amiel, annonce la généralisation de l’utilisation de l’outil Visio de La Suite numérique et l’abandon des licences Zoom du CNRS.

L’outil de visioconférence « Visio » de la plateforme La Suite numérique devra être utilisé (et donc utilisable) par l’ensemble des services de l’État d’ici 2027, a annoncé le ministère chargé de la fonction publique et de la réforme de l’État.

100 % des agents de l’État d’ici 2027

« Nous sommes devenus dépendants à Teams, à Zoom. Il faut donc au sein de l’État se désintoxiquer pour assurer la sécurité de nos échanges en toutes circonstances », constatait ce week-end le ministre David Amiel dans la Tribune du Dimanche. Dans son communiqué, le ministère évoque aussi GoTo Meeting ou Webex. Bref, bien trop de solutions de visio propriétaires et gérées par des entreprises américaines. Et, en ces temps où l’on peut se poser la question d’une éventuelle coupure du robinet de la tech US, la souveraineté numérique est sur toutes les lèvres.

« Le Premier ministre va ces prochains jours diffuser une circulaire pour l’officialiser : 100 % française, Visio sera progressivement déployée pour 100 % des agents de l’État », expliquait le ministre à nos confrères.

Visio est un outil développé par la Dinum au sein de sa plateforme La Suite numérique. L’outil ne sort pas d’un chapeau. Comme nous l’expliquions déjà en juin 2025, ce système de vidéoconférence (appelé La Suite Meet à l’époque) appuie son code (disponible sur GitHub en licence MIT) sur le travail de LiveKit.

Mais David Amiel annonce donc un passage à une plus grosse échelle pour cet outil de la Dinum. Jusque-là, il comptait 40 000 utilisateurs réguliers. Il va bientôt devoir accueillir 200 000 agents de la fonction publique d’ici peu puisqu’il est censé devenir, d’ici la fin du premier trimestre 2026, la solution de visio du CNRS, de l’Assurance Maladie, de la Direction Générale des Finances Publiques (DGFiP) et du ministère des Armées.

Le ministère en profite pour indiquer que le CNRS va abandonner ses licences Zoom. Les 34 000 agents, 120 000 chercheurs et les unités mixtes de recherche qui dépendent du centre devront officiellement passer par Visio (notons qu’en pratique, rien ne permet d’interdire à une personne du CNRS d’utiliser un autre logiciel).

Rappelons quand même que le CNRS avait aussi un outil interne de visioconférence appuyé sur le logiciel libre de visioconférence Big Blue Button. Mais celui-ci ne semble pas avoir eu le succès que la DSI du CNRS escomptait, peut-être à cause d’une infrastructure n’étant pas capable d’assurer une visioconférence fluide à ses utilisateurs.

Hébergé par Outscale, accompagné par l’ANSSI

C’est d’ailleurs l’enjeu autour de cette généralisation de l’utilisation de Visio à tous les fonctionnaires d’ici 2027 : l’outil de la DINUM sera-t-il déployé avec des moyens adéquats ?

Le ministère précise en tout cas que la solution est déployée « avec l’appui de l’ANSSI » et sera hébergée chez Outscale, filiale de Dassault Systèmes, sur une infrastructure labellisée SecNumCloud.

Visio intègre actuellement un outil de transcription en bêta, selon son GitHub. Le ministère explique que la startup française Pyannote est chargée de le développer. Visio devrait aussi intégrer « d’ici l’été 2026 » un outil de sous-titrage en temps réel développé par Kyutai, l’entreprise de R&D de Xavier Niel, Rodolphe Saadé et Eric Schmidt.

Visio doit aussi « permettre d’économiser plusieurs millions d’euros par an car nous n’aurons plus à renouveler des licences auprès d’acteurs non-européens », selon David Amiel.

☕️ TikTok US change déjà sa politique de confidentialité pour récupérer plus d’informations

26 janvier 2026 à 10:37

Tout juste le deal créant la coentreprise TikTok USDS scellé, l’entreprise a changé sa politique de confidentialité pour ses utilisateurs américains le même jour.

Ainsi, comme le note Wired, TikTok se permet d’utiliser des informations plus précises sur la géolocalisation de ses utilisateurs aux États-Unis. La nouvelle politique s’appuie sur les données de géolocalisation dérivées du GPS, si les utilisateurs ont autorisé le partage de ces informations à l’application dans le système d’exploitation de leur smartphone.

L’entreprise en profite aussi pour s’autoriser à stocker toute information concernant l’usage d’IA générative par ses utilisateurs. « Nous recueillons automatiquement certaines informations vous concernant lorsque vous utilisez les Services, notamment… les métadonnées qui sont automatiquement téléchargées en relation avec votre contenu utilisateur, vos messages ou vos interactions avec l’IA, telles que la manière, le moment, le lieu et l’auteur de la création du contenu utilisateur ou de l’envoi du message ou du prompt », explique TikTok à ses utilisateurs américains.

TikTok

Un autre changement qui pourrait passer plus inaperçu est celui sur l’utilisation des données pour de la publicité ciblée. Elle se permet de l’étendre à des publicités de son réseau publicitaire « ailleurs en ligne, en fonction de vos paramètres publicitaires ».

Dans ces nouvelles politiques de confidentialité, TikTok se permet de rappeler que :

« Les informations que vous fournissez peuvent inclure des informations personnelles sensibles, telles que définies par les lois applicables en matière de confidentialité, telles que les informations provenant d’utilisateurs n’ayant pas atteint l’âge minimum requis, les informations que vous divulguez dans vos réponses à des sondages ou dans votre contenu utilisateur concernant votre origine raciale ou ethnique, votre origine nationale, vos croyances religieuses, votre état de santé mentale ou physique, votre vie sexuelle ou votre orientation sexuelle, votre statut de transgenre ou non binaire, votre citoyenneté ou votre statut d’immigrant, ou vos informations financières. Par exemple, nous pouvons traiter vos informations financières afin de vous fournir les biens ou services que vous nous demandez, ou votre numéro de permis de conduire afin de vérifier votre identité. Nous pouvons également collecter des données de localisation précises, en fonction de vos paramètres et comme expliqué ci-dessous. Nous traitons ces informations personnelles sensibles conformément à la loi applicable, par exemple à des fins autorisées en vertu de la loi californienne sur la protection de la vie privée des consommateurs (California Consumer Privacy Act) ».

Ce passage a attiré fortement l’attention de certains utilisateurs, comme Angelita Morillo, une élue de la ville de Portland ou le sénateur du Connecticut, Chris Murphy. Ce qui se comprend vu la situation politique aux États-Unis, la place qu’a prise le CEO d’Oracle Larry Ellison auprès de Trump et la position importante de son entreprise dans la nouvelle coentreprise TikTok USDS.

Mais, comme l’explique TechCrunch, ce passage n’est pas nouveau et est surtout là pour que TikTok soit en conformité avec la loi californienne qui oblige les plateformes à préciser les types d’informations sensibles qui peuvent être collectées.

☕️ TikTok US change déjà sa politique de confidentialité pour récupérer plus d’informations

26 janvier 2026 à 10:37

Tout juste le deal créant la coentreprise TikTok USDS scellé, l’entreprise a changé sa politique de confidentialité pour ses utilisateurs américains le même jour.

Ainsi, comme le note Wired, TikTok se permet d’utiliser des informations plus précises sur la géolocalisation de ses utilisateurs aux États-Unis. La nouvelle politique s’appuie sur les données de géolocalisation dérivées du GPS, si les utilisateurs ont autorisé le partage de ces informations à l’application dans le système d’exploitation de leur smartphone.

L’entreprise en profite aussi pour s’autoriser à stocker toute information concernant l’usage d’IA générative par ses utilisateurs. « Nous recueillons automatiquement certaines informations vous concernant lorsque vous utilisez les Services, notamment… les métadonnées qui sont automatiquement téléchargées en relation avec votre contenu utilisateur, vos messages ou vos interactions avec l’IA, telles que la manière, le moment, le lieu et l’auteur de la création du contenu utilisateur ou de l’envoi du message ou du prompt », explique TikTok à ses utilisateurs américains.

TikTok

Un autre changement qui pourrait passer plus inaperçu est celui sur l’utilisation des données pour de la publicité ciblée. Elle se permet de l’étendre à des publicités de son réseau publicitaire « ailleurs en ligne, en fonction de vos paramètres publicitaires ».

Dans ces nouvelles politiques de confidentialité, TikTok se permet de rappeler que :

« Les informations que vous fournissez peuvent inclure des informations personnelles sensibles, telles que définies par les lois applicables en matière de confidentialité, telles que les informations provenant d’utilisateurs n’ayant pas atteint l’âge minimum requis, les informations que vous divulguez dans vos réponses à des sondages ou dans votre contenu utilisateur concernant votre origine raciale ou ethnique, votre origine nationale, vos croyances religieuses, votre état de santé mentale ou physique, votre vie sexuelle ou votre orientation sexuelle, votre statut de transgenre ou non binaire, votre citoyenneté ou votre statut d’immigrant, ou vos informations financières. Par exemple, nous pouvons traiter vos informations financières afin de vous fournir les biens ou services que vous nous demandez, ou votre numéro de permis de conduire afin de vérifier votre identité. Nous pouvons également collecter des données de localisation précises, en fonction de vos paramètres et comme expliqué ci-dessous. Nous traitons ces informations personnelles sensibles conformément à la loi applicable, par exemple à des fins autorisées en vertu de la loi californienne sur la protection de la vie privée des consommateurs (California Consumer Privacy Act) ».

Ce passage a attiré fortement l’attention de certains utilisateurs, comme Angelita Morillo, une élue de la ville de Portland ou le sénateur du Connecticut, Chris Murphy. Ce qui se comprend vu la situation politique aux États-Unis, la place qu’a prise le CEO d’Oracle Larry Ellison auprès de Trump et la position importante de son entreprise dans la nouvelle coentreprise TikTok USDS.

Mais, comme l’explique TechCrunch, ce passage n’est pas nouveau et est surtout là pour que TikTok soit en conformité avec la loi californienne qui oblige les plateformes à préciser les types d’informations sensibles qui peuvent être collectées.

En santé, les erreurs par omissions des LLM sont nombreuses et dangereuses

26 janvier 2026 à 10:02
D'abord, ne pas faire de mal
En santé, les erreurs par omissions des LLM sont nombreuses et dangereuses

ChatGPT Santé a été annoncé il y a deux semaines et ce n’est pas le projet qui lance l’utilisation des LLM en santé. Mais une recherche récente sur les réponses des modèles de langage concernant des questions sur la santé montre qu’ils peuvent générer des conseils problématiques, notamment en faisant des erreurs par omission.

Avec le lancement de ChatGPT Santé, la santé voit l’IA générative et l’utilisation des modèles de langage dans son champ promues largement dans les mains du grand public. Pourtant, des chercheurs montrent que les réponses de chatbots peuvent être très problématiques.

Nous sommes à « un moment où les puissants modèles d’apprentissage automatique (LLM) sont intégrés dans les soins aux patients plus rapidement que leurs risques ne peuvent être compris », affirme David Wu de l’école de médecine de Harvard, Ethan Goh de l’école de médecine de Stanford et leurs collègues. Ils ont récemment mis en ligne une étude (sur la plateforme de prépublication arXiv) qui teste 31 modèles et constate le risque de préjudice grave lié aux recommandations données par ces 31 LLM.

D’abord, ne pas faire de mal

« Primum non nocere [d’abord, ne pas faire de mal en français ou, first do no harm en anglais] est un principe fondamental de la médecine depuis des milliers d’années », rappellent-ils dans leur article. C’est inspiré de ce principe qu’ils proposent leur benchmark NOHARM (Numerous Options Harm Assessment for Risk in Medicine) qui s’appuie sur 100 cas réels de consultations entre médecins généralistes et spécialistes pour mesurer la fréquence et la gravité des préjudices causés par les recommandations médicales générées par les LLM.


Il reste 76% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Reçu — 23 janvier 2026 Actualités numériques

☕️ TikTok US : l’accord pour éviter l’interdiction aux États-Unis est en place

23 janvier 2026 à 08:04

Sur le site de TikTok.com, la coentreprise basée aux États-Unis TikTok USDS a annoncé sa création. Elle doit sécuriser les données, les applications et les algorithmes des utilisateurs états-uniens « grâce à des mesures de confidentialité des données et de cybersécurité ».

Cette création confirme l’accord annoncé en interne à l’entreprise en décembre dernier. Ainsi ByteDance obtient bien 19,9 % de la nouvelle entité. Les Américains Oracle et Silver Lake et l’émiratie MGX auront chacune 15 % de cette coentreprise. Le reste est complété par un consortium d’investisseurs. Petite surprise française parmi ceux-ci, puisque la holding NJJ de Xavier Niel apparaît dans la liste.

L’annonce affirme que cette coentreprise va protéger les données américaines sur un environnement de cloud d’Oracle basé aux États-Unis. Elle doit aussi « ré-entraîner, tester et mettre à jour l’algorithme de recommandation de contenu sur les données des utilisateurs américains ». Celui-ci tournera sur l’environnement d’Oracle. C’est elle qui sera responsable de la politique de sécurité et de la modération.

Adam Presser, qui était responsable des opérations mondiales du réseau social chinois, devient CEO de la co-entreprise dont le CTO est Will Farrell qui était jusque-là responsable de la sécurité des données de TikTok US.

Dans un message sur TruthSocial, Donald Trump s’est dit « tellement content » et a affirmé que TikTok « appartiendra désormais à un groupe de grands patriotes et investisseurs américains, le plus important au monde ». « Je tiens également à remercier le président Xi, de Chine, pour avoir collaboré avec nous et, finalement, approuvé l’accord », ajoute-t-il.

Un responsable de la Maison-Blanche a assuré à Reuters que l’accord avait été approuvé par les gouvernements américains et chinois.

La création de cette coentreprise devrait finaliser une affaire relancée par Joe Biden en 2023, après que Donald Trump eut déjà évoqué des menaces d’interdiction de TikTok sur le sol états-unien lors de son premier mandat.

☕️ TikTok US : l’accord pour éviter l’interdiction aux États-Unis est en place

23 janvier 2026 à 08:04

Sur le site de TikTok.com, la coentreprise basée aux États-Unis TikTok USDS a annoncé sa création. Elle doit sécuriser les données, les applications et les algorithmes des utilisateurs états-uniens « grâce à des mesures de confidentialité des données et de cybersécurité ».

Cette création confirme l’accord annoncé en interne à l’entreprise en décembre dernier. Ainsi ByteDance obtient bien 19,9 % de la nouvelle entité. Les Américains Oracle et Silver Lake et l’émiratie MGX auront chacune 15 % de cette coentreprise. Le reste est complété par un consortium d’investisseurs. Petite surprise française parmi ceux-ci, puisque la holding NJJ de Xavier Niel apparaît dans la liste.

L’annonce affirme que cette coentreprise va protéger les données américaines sur un environnement de cloud d’Oracle basé aux États-Unis. Elle doit aussi « ré-entraîner, tester et mettre à jour l’algorithme de recommandation de contenu sur les données des utilisateurs américains ». Celui-ci tournera sur l’environnement d’Oracle. C’est elle qui sera responsable de la politique de sécurité et de la modération.

Adam Presser, qui était responsable des opérations mondiales du réseau social chinois, devient CEO de la co-entreprise dont le CTO est Will Farrell qui était jusque-là responsable de la sécurité des données de TikTok US.

Dans un message sur TruthSocial, Donald Trump s’est dit « tellement content » et a affirmé que TikTok « appartiendra désormais à un groupe de grands patriotes et investisseurs américains, le plus important au monde ». « Je tiens également à remercier le président Xi, de Chine, pour avoir collaboré avec nous et, finalement, approuvé l’accord », ajoute-t-il.

Un responsable de la Maison-Blanche a assuré à Reuters que l’accord avait été approuvé par les gouvernements américains et chinois.

La création de cette coentreprise devrait finaliser une affaire relancée par Joe Biden en 2023, après que Donald Trump eut déjà évoqué des menaces d’interdiction de TikTok sur le sol états-unien lors de son premier mandat.

Reçu — 22 janvier 2026 Actualités numériques

☕️ C’est bien une action en justice de Spotify qui a fait perdre son .org à Anna’s Archive

22 janvier 2026 à 08:56

Début janvier, la bibliothèque clandestine Anna’s Archive a vu son .org suspendu par le registre d’intérêt public PIR. Si les responsables du site affirmaient ne pas croire que ça puisse avoir un lien avec la récupération pirate de 300 To de musique de Spotify qu’ils avaient annoncée un peu plus tôt, on pouvait avoir des doutes.

Ceux-ci sont levés. En effet, comme l’indique TorrentFreak, Spotify mais aussi les majors Sony, Warner et Universal et d’autres labels de musique comme Capitol Records ou Atlantic ont attaqué Anna’s Archive devant la cour américaine du district sud de New York.

Dans ce cadre, ces entreprises ont demandé le 2 janvier au tribunal de prononcer une ordonnance restrictive temporaire pour bloquer l’accès à Anna’s Archive qu’ils ont obtenue le même jour. Les entreprises visaient notamment le registre d’intérêt public PIR et Cloudflare : « Ensemble, PIR et Cloudflare ont le pouvoir de bloquer l’accès aux trois domaines Web qu’Anna’s Archive utilise pour distribuer illégalement des œuvres protégées par le copyright », affirmaient-elles.

La cour a ordonné que « tous les registres et bureaux d’enregistrement de noms de domaine pour chacun des noms de domaine d’Anna’s Archive, y compris, sans limitation, le registre de domaine de premier niveau Public Interest Registry (« PIR »), et tous les hébergeurs et fournisseurs d’accès Internet pour les sites Web d’Anna’s Archive, y compris, sans limitation, Cloudflare Inc. (« Cloudflare »), doivent, dès qu’ils ont connaissance de la présente ordonnance, […] :

  • Désactiver l’accès aux noms de domaine d’Anna’s Archive, par le biais d’une suspension du registre ou par tout autre moyen, et empêcher leur transfert à toute personne autre que les plaignants de la maison de disques ;
  • Désactiver les serveurs de noms faisant autorité pour les sites web d’Anna’s Archive ;
  • Cesser tout service d’hébergement pour les sites Web Anna’s Archive ou tout autre site Web qui héberge le contenu contrefait ou facilite directement sa distribution ;
  • Conserver toutes les preuves pouvant être utilisées pour identifier les personnes ou entités utilisant les noms de domaine Anna’s Archive et/ou exploitant les sites Web Anna’s Archive ;
  • S’abstenir de fournir toute notification ou avertissement à Anna’s Archive ou à ses représentants, ou de communiquer de quelque manière que ce soit avec eux, et s’abstenir de rendre publique la présente ordonnance jusqu’à ce qu’elle soit pleinement exécutée et levée par le tribunal, sauf si cela est nécessaire pour communiquer avec les registraires de noms de domaine, les registres de noms de domaine et les fournisseurs d’hébergement et de services Internet afin d’exécuter la présente ordonnance ;
  • S’abstenir de faire obstacle à la mise en œuvre de la présente ordonnance et apporter une aide raisonnable à celle-ci ».

Outre le .org, le nom de domaine en .se d’Anna’s archive est maintenant indisponible. Mais d’autres noms de domaine permettent encore d’accéder à la bibliothèque clandestine, dont celui utilisant le ccTLD de Saint-Pierre-et-Miquelon (.pm).

☕️ C’est bien une action en justice de Spotify qui a fait perdre son .org à Anna’s Archive

22 janvier 2026 à 08:56

Début janvier, la bibliothèque clandestine Anna’s Archive a vu son .org suspendu par le registre d’intérêt public PIR. Si les responsables du site affirmaient ne pas croire que ça puisse avoir un lien avec la récupération pirate de 300 To de musique de Spotify qu’ils avaient annoncée un peu plus tôt, on pouvait avoir des doutes.

Ceux-ci sont levés. En effet, comme l’indique TorrentFreak, Spotify mais aussi les majors Sony, Warner et Universal et d’autres labels de musique comme Capitol Records ou Atlantic ont attaqué Anna’s Archive devant la cour américaine du district sud de New York.

Dans ce cadre, ces entreprises ont demandé le 2 janvier au tribunal de prononcer une ordonnance restrictive temporaire pour bloquer l’accès à Anna’s Archive qu’ils ont obtenue le même jour. Les entreprises visaient notamment le registre d’intérêt public PIR et Cloudflare : « Ensemble, PIR et Cloudflare ont le pouvoir de bloquer l’accès aux trois domaines Web qu’Anna’s Archive utilise pour distribuer illégalement des œuvres protégées par le copyright », affirmaient-elles.

La cour a ordonné que « tous les registres et bureaux d’enregistrement de noms de domaine pour chacun des noms de domaine d’Anna’s Archive, y compris, sans limitation, le registre de domaine de premier niveau Public Interest Registry (« PIR »), et tous les hébergeurs et fournisseurs d’accès Internet pour les sites Web d’Anna’s Archive, y compris, sans limitation, Cloudflare Inc. (« Cloudflare »), doivent, dès qu’ils ont connaissance de la présente ordonnance, […] :

  • Désactiver l’accès aux noms de domaine d’Anna’s Archive, par le biais d’une suspension du registre ou par tout autre moyen, et empêcher leur transfert à toute personne autre que les plaignants de la maison de disques ;
  • Désactiver les serveurs de noms faisant autorité pour les sites web d’Anna’s Archive ;
  • Cesser tout service d’hébergement pour les sites Web Anna’s Archive ou tout autre site Web qui héberge le contenu contrefait ou facilite directement sa distribution ;
  • Conserver toutes les preuves pouvant être utilisées pour identifier les personnes ou entités utilisant les noms de domaine Anna’s Archive et/ou exploitant les sites Web Anna’s Archive ;
  • S’abstenir de fournir toute notification ou avertissement à Anna’s Archive ou à ses représentants, ou de communiquer de quelque manière que ce soit avec eux, et s’abstenir de rendre publique la présente ordonnance jusqu’à ce qu’elle soit pleinement exécutée et levée par le tribunal, sauf si cela est nécessaire pour communiquer avec les registraires de noms de domaine, les registres de noms de domaine et les fournisseurs d’hébergement et de services Internet afin d’exécuter la présente ordonnance ;
  • S’abstenir de faire obstacle à la mise en œuvre de la présente ordonnance et apporter une aide raisonnable à celle-ci ».

Outre le .org, le nom de domaine en .se d’Anna’s archive est maintenant indisponible. Mais d’autres noms de domaine permettent encore d’accéder à la bibliothèque clandestine, dont celui utilisant le ccTLD de Saint-Pierre-et-Miquelon (.pm).

Reçu — 21 janvier 2026 Actualités numériques

À Davos, la Chine est le grand épouvantail des leaders de l’IA générative

21 janvier 2026 à 17:16
Bouh ! Même pas peur (enfin pas trop)
À Davos, la Chine est le grand épouvantail des leaders de l’IA générative

Au forum de Davos, plusieurs dirigeants d’entreprises de la tech américaine se disputent sur la tactique à mettre en place face à la Chine dans la course à l’IA, chacun voyant midi à sa porte.

Avant que l’arrivée de Donald Trump à Davos ne recentre les discussions sur sa volonté d’annexion du Groenland, les dirigeants des géants américains de l’IA générative ont opposé leurs visions stratégiques concentrées sur un pays qu’ils considèrent comme leur seul adversaire : la Chine.

Si les volontés chinoises de s’emparer du territoire dépendant du Danemark ne se retrouvent vraiment que dans les déclarations du dirigeant américain, la Chine a montré de réelles capacités concernant l’IA il y a un an avec le modèle R1 de DeepSeek. Publié en open-source, il provoquait une déflagration sur le marché de l’IA et, même si la course était déjà bien engagée avant, les entreprises états-uniennes découvraient qu’elles avaient de sérieux concurrents dans le pays dirigé par Xi Jinping.

Cette année, les dirigeants de la tech américaine se disputent sur la stratégie à mettre en place. Certains évoquent clairement le pays comme l’éventuel futur de l’IA. Ruth Porat, la présidente et directrice des investissements chez Alphabet (Google), a affirmé à Semafor que la Chine répondrait forcément présente si un vide était laissé par les États-Unis. Elle raconte à nos confrères que des chefs d’États lui affirment ne pas vouloir rater cette transformation numérique et que « si les États-Unis ne sont pas là, nous travaillerons avec la Chine ».

« Comme vendre des armes nucléaires à la Corée du Nord »

Dans le même sens, le CEO d’Anthropic, Dario Amodei a profité d’une interview chez Bloomberg pour critiquer le choix pris récemment par l’administration Trump d’autoriser NVIDIA à exporter en Chine ses puces H200. « Les PDG de ces entreprises affirment que “c’est l’embargo sur les puces électroniques qui nous freine” », a-t-il affirmé.

Les H200 seraient les puces américaines les plus avancées qui pourraient être exportées en Chine, font remarquer nos confrères de Bloomberg et NVIDIA n’y vendrait pas ses Blackwell et celles qui sont encore en préparation dans ses laboratoires (Vera Rubin et suivantes).

Mais pour lui, cette décision va se retourner contre les États-Unis : « Nous avons plusieurs années d’avance sur la Chine en matière de fabrication de puces. Je pense donc que ce serait une grave erreur d’expédier ces puces ». Cette avance pourrait aussi fondre comme neige au soleil, avec la Chine qui met des moyens colossaux dans ses champions locaux (Huawei et Baidu) pour développer des GPU maison capables de rivaliser avec ceux de NVIDIA.

« Je trouve cela complètement fou », a ajouté Dario Amodei, « c’est un peu comme vendre des armes nucléaires à la Corée du Nord et se vanter que Boeing a fabriqué les boîtiers ». Mais il n’a pas voulu répondre quand le rédacteur en chef de Bloomberg, John Micklethwait, lui a fait remarquer que son ami, David Sacks, qui est aussi le CEO de Palantir, était « en train d’armer les Chinois ».

Une vision atténuée par Demis Hassabis, le CEO de DeepMind

Cette vision du danger chinois pour les entreprises d’IA américaines est un peu atténuée par le CEO de DeepMind, Demis Hassabis. Pour lui, il y a eu une « réaction disproportionnée » l’année dernière face à l’arrivée du modèle R1 de Deepseek.

Le développement de l’IA en Chine n’a pas encore atteint le niveau américain : « ils sont très doués pour rattraper leur retard et se rapprocher de la frontière, et ils sont de plus en plus capables de le faire, affirme-t-il, mais je pense qu’ils doivent encore prouver qu’ils peuvent innover au-delà ».

Rappelons que pour mettre en place R1, la recherche chinoise a paradoxalement été boostée par les restrictions américaines. Les chercheurs de DeepSeek se sont posé, à l’époque, la question de la possibilité de faire sans les H100 de NVIDIA et ont élaboré une architecture capable d’entrainer le modèle sur des puces H800, une version castrée pour le marché chinois.

Le CEO de NVIDIA, Jensen Huang, semble avoir volontairement évité de mentionner la Chine comme le fait remarquer le South China Morning Post. Mais pour lui, chaque pays devrait développer son propre système d’IA, en intégrant sa propre langue et sa propre culture dans les modèles.

Selon Reuters reprenant Bloomberg, la réouverture du marché pour son entreprise le pousserait à faire une visite d’ici la fin du mois. Il y a quelques mois, il marchait sur des œufs : « Nous ne pouvons servir un marché que si le pays le veut bien […] Je suis déçu par ce que je vois, mais il y a des sujets plus larges à régler entre la Chine et les États-Unis, et je le comprends ». Il avait alors « demandé à tous les analystes financiers de ne pas inclure la Chine » dans les prévisions. L’ambiance change.

Le CEO de Microsoft, Satya Nadella, semble vouloir éviter le sujet, par contre. Il est resté dans le nouveau couloir de communication de son entreprise sur le besoin de mettre en place une IA qui serait utile. « En tant que communauté mondiale, nous devons parvenir à utiliser l’IA pour faire quelque chose d’utile qui change la vie des gens, des communautés, des pays et des industries » a-t-il déclaré.

La Chine n’est pas le seul sujet de préoccupation (même s’il est sur toutes les lèvres ou presque), comme en témoigne la présidente de la fondation Signal. Elle préfère aborder les questions de sécurité que pose l’introduction des agents IA. Notamment, elle a souligné que leur intégration plus poussée dans les appareils serait « assez périlleuse ».

Fidèle au créneau de sécurité de la vie privée de Signal, elle pointe leurs besoins d’accéder à d’énormes quantités de données stockées dans les diverses applications. Et elle souligne que casser « la barrière hémato-encéphalique entre l’application et le système d’exploitation » provoquerait des risques : « Si vous accordez à un tel système des droits d’accès root, il peut être piraté ».

Et de mettre en avant le problème pour une application comme Signal : « Notre chiffrement n’a plus d’importance si tout ce que vous avez à faire est de détourner cette fenêtre contextuelle qui dispose effectivement des droits root dans votre système d’exploitation pour accéder à toutes ces données ».

À Davos, la Chine est le grand épouvantail des leaders de l’IA générative

21 janvier 2026 à 17:16
Bouh ! Même pas peur (enfin pas trop)
À Davos, la Chine est le grand épouvantail des leaders de l’IA générative

Au forum de Davos, plusieurs dirigeants d’entreprises de la tech américaine se disputent sur la tactique à mettre en place face à la Chine dans la course à l’IA, chacun voyant midi à sa porte.

Avant que l’arrivée de Donald Trump à Davos ne recentre les discussions sur sa volonté d’annexion du Groenland, les dirigeants des géants américains de l’IA générative ont opposé leurs visions stratégiques concentrées sur un pays qu’ils considèrent comme leur seul adversaire : la Chine.

Si les volontés chinoises de s’emparer du territoire dépendant du Danemark ne se retrouvent vraiment que dans les déclarations du dirigeant américain, la Chine a montré de réelles capacités concernant l’IA il y a un an avec le modèle R1 de DeepSeek. Publié en open-source, il provoquait une déflagration sur le marché de l’IA et, même si la course était déjà bien engagée avant, les entreprises états-uniennes découvraient qu’elles avaient de sérieux concurrents dans le pays dirigé par Xi Jinping.

Cette année, les dirigeants de la tech américaine se disputent sur la stratégie à mettre en place. Certains évoquent clairement le pays comme l’éventuel futur de l’IA. Ruth Porat, la présidente et directrice des investissements chez Alphabet (Google), a affirmé à Semafor que la Chine répondrait forcément présente si un vide était laissé par les États-Unis. Elle raconte à nos confrères que des chefs d’États lui affirment ne pas vouloir rater cette transformation numérique et que « si les États-Unis ne sont pas là, nous travaillerons avec la Chine ».

« Comme vendre des armes nucléaires à la Corée du Nord »

Dans le même sens, le CEO d’Anthropic, Dario Amodei a profité d’une interview chez Bloomberg pour critiquer le choix pris récemment par l’administration Trump d’autoriser NVIDIA à exporter en Chine ses puces H200. « Les PDG de ces entreprises affirment que “c’est l’embargo sur les puces électroniques qui nous freine” », a-t-il affirmé.

Les H200 seraient les puces américaines les plus avancées qui pourraient être exportées en Chine, font remarquer nos confrères de Bloomberg et NVIDIA n’y vendrait pas ses Blackwell et celles qui sont encore en préparation dans ses laboratoires (Vera Rubin et suivantes).

Mais pour lui, cette décision va se retourner contre les États-Unis : « Nous avons plusieurs années d’avance sur la Chine en matière de fabrication de puces. Je pense donc que ce serait une grave erreur d’expédier ces puces ». Cette avance pourrait aussi fondre comme neige au soleil, avec la Chine qui met des moyens colossaux dans ses champions locaux (Huawei et Baidu) pour développer des GPU maison capables de rivaliser avec ceux de NVIDIA.

« Je trouve cela complètement fou », a ajouté Dario Amodei, « c’est un peu comme vendre des armes nucléaires à la Corée du Nord et se vanter que Boeing a fabriqué les boîtiers ». Mais il n’a pas voulu répondre quand le rédacteur en chef de Bloomberg, John Micklethwait, lui a fait remarquer que son ami, David Sacks, qui est aussi le CEO de Palantir, était « en train d’armer les Chinois ».

Une vision atténuée par Demis Hassabis, le CEO de DeepMind

Cette vision du danger chinois pour les entreprises d’IA américaines est un peu atténuée par le CEO de DeepMind, Demis Hassabis. Pour lui, il y a eu une « réaction disproportionnée » l’année dernière face à l’arrivée du modèle R1 de Deepseek.

Le développement de l’IA en Chine n’a pas encore atteint le niveau américain : « ils sont très doués pour rattraper leur retard et se rapprocher de la frontière, et ils sont de plus en plus capables de le faire, affirme-t-il, mais je pense qu’ils doivent encore prouver qu’ils peuvent innover au-delà ».

Rappelons que pour mettre en place R1, la recherche chinoise a paradoxalement été boostée par les restrictions américaines. Les chercheurs de DeepSeek se sont posé, à l’époque, la question de la possibilité de faire sans les H100 de NVIDIA et ont élaboré une architecture capable d’entrainer le modèle sur des puces H800, une version castrée pour le marché chinois.

Le CEO de NVIDIA, Jensen Huang, semble avoir volontairement évité de mentionner la Chine comme le fait remarquer le South China Morning Post. Mais pour lui, chaque pays devrait développer son propre système d’IA, en intégrant sa propre langue et sa propre culture dans les modèles.

Selon Reuters reprenant Bloomberg, la réouverture du marché pour son entreprise le pousserait à faire une visite d’ici la fin du mois. Il y a quelques mois, il marchait sur des œufs : « Nous ne pouvons servir un marché que si le pays le veut bien […] Je suis déçu par ce que je vois, mais il y a des sujets plus larges à régler entre la Chine et les États-Unis, et je le comprends ». Il avait alors « demandé à tous les analystes financiers de ne pas inclure la Chine » dans les prévisions. L’ambiance change.

Le CEO de Microsoft, Satya Nadella, semble vouloir éviter le sujet, par contre. Il est resté dans le nouveau couloir de communication de son entreprise sur le besoin de mettre en place une IA qui serait utile. « En tant que communauté mondiale, nous devons parvenir à utiliser l’IA pour faire quelque chose d’utile qui change la vie des gens, des communautés, des pays et des industries » a-t-il déclaré.

La Chine n’est pas le seul sujet de préoccupation (même s’il est sur toutes les lèvres ou presque), comme en témoigne la présidente de la fondation Signal. Elle préfère aborder les questions de sécurité que pose l’introduction des agents IA. Notamment, elle a souligné que leur intégration plus poussée dans les appareils serait « assez périlleuse ».

Fidèle au créneau de sécurité de la vie privée de Signal, elle pointe leurs besoins d’accéder à d’énormes quantités de données stockées dans les diverses applications. Et elle souligne que casser « la barrière hémato-encéphalique entre l’application et le système d’exploitation » provoquerait des risques : « Si vous accordez à un tel système des droits d’accès root, il peut être piraté ».

Et de mettre en avant le problème pour une application comme Signal : « Notre chiffrement n’a plus d’importance si tout ce que vous avez à faire est de détourner cette fenêtre contextuelle qui dispose effectivement des droits root dans votre système d’exploitation pour accéder à toutes ces données ».

ChatGPT estime l’âge de ses utilisateurs pour plus ou moins lacher la bride

21 janvier 2026 à 12:50
What could go wrong?
ChatGPT estime l’âge de ses utilisateurs pour plus ou moins lacher la bride

L’entreprise de Sam Altman annonce la mise en place de plusieurs barrières pour les mineurs. Des protections supplémentaires… avant de lâcher la bride à son chatbot sur ce que les adultes peuvent générer ? C’est ce qu’avait laissé entendre Sam Altman, affaire à suivre donc.

OpenAI a annoncé ce mardi la mise en place de son système interne de prédiction d’âge sur ChatGPT ainsi qu’un système de vérification d’âge géré par une entreprise tierce en deuxième option. Ce double système doit permettre de séparer les utilisations de son chatbot par les adolescents et par les adultes.

Sam Altman avait déjà sorti que son chatbot pourrait être plus érotique à l’occasion de cette séparation, mais OpenAI précise que les filtres de ChatGPT seront différents aussi pour d’autres sujets comme la violence graphique ou gore et les comportements malsains. Le déploiement est mondial, mais la société précise que, « dans l’UE, la prédiction de l’âge sera mise en place dans les prochaines semaines afin de tenir compte des exigences régionales ».

Deux solutions possibles pour franchir la barrière d’âge

Pour permettre d’accéder à son chatbot avec des restrictions beaucoup plus faibles, OpenAI propose plusieurs solutions censées filtrer les moins de 18 ans. Si les adolescents déclarent être âgés de moins de 18 ans lors de leur inscription, l’entreprise active des filtres de protection « visant à réduire leur exposition à des contenus sensibles ou potentiellement préjudiciables ».

Mais si l’utilisateur ne donne pas explicitement son âge, OpenAI utilise deux systèmes pour filtrer les mineurs. La première est un système interne de « prédiction d’âge ». Ici pas de scan de carte d’identité. OpenAI va utiliser toutes les données qu’elle collecte sur l’utilisateur pour prédire s’il a ou non plus de 18 ans. « Il examine différents signaux liés à votre compte. Par exemple, il peut examiner les sujets généraux dont vous parlez ou les moments de la journée où vous utilisez ChatGPT », affirme l’entreprise dans sa page d’aide à ce sujet. Si l’entreprise donne ces exemples, elle ne dévoile pas tous les paramètres qu’elle prend en compte pour prédire l’âge de l’utilisateur.

« Aucun système n’est parfait. Il peut parfois y avoir des erreurs », explique OpenAI dans un moment d’humilité rare dans le monde de l’IA. Elle explique que « si vous avez 18 ans ou plus et que vous avez été classé par erreur dans la catégorie des moins de 18 ans, vous pouvez vérifier votre âge ». Pour ça, l’entreprise utilise le système de vérification d’un tiers nommé Persona.

Pour cette vérification, Persona pourra, en fonction du pays où l’utilisateur se trouve, utiliser soit un selfie live soit une pièce d’identité qu’il faudra uploader. « Persona vérifie votre date de naissance et s’assure que votre selfie correspond à la photo de votre pièce d’identité », explique OpenAI, qui ajoute que « les pièces d’identité acceptées varient selon les pays ». Au passage, elle précise que Persona doit supprimer les photos des pièces d’identité et les selfies sept jours après la vérification. Le tiers envoie la date de naissance de l’utilisateur ou la prédiction d’âge. L’entreprise de Sam Altman assure conserver « ces informations en toute sécurité et les [utiliser] uniquement conformément à la politique de confidentialité d’OpenAI ».

Au passage, on peut remarquer qu’OpenAI n’a pas choisi de s’appuyer sur l’outil de scan d’iris de World ID, l’autre entreprise de Sam Altman.

Des filtres différents sur des sujets sensibles selon l’âge de l’utilisateur

À partir du moment où l’utilisateur est enregistré comme ayant plus de 18 ans par OpenAI, ChatGPT aura beaucoup moins de garde-fous.

Si l’utilisateur est détecté comme ayant moins de 18 ans, ChatGPT « applique automatiquement des protections supplémentaires conçues pour réduire l’exposition à des contenus sensibles, telles que la violence graphique ou gore, les défis viraux pouvant encourager des comportements risqués ou dangereux, les jeux de rôle à caractère sexuel, romantique ou violent, les contenus promouvant des normes de beauté extrêmes, des régimes alimentaires malsains ou du body shaming ».

Le risque est aussi que ça laisse plus de possibilités à OpenAI pour, ensuite, lâcher les vannes pour ses utilisateurs adultes et ainsi rejoindre Grok et xAI dans la génération de contenus sans réelles limites éthiques.

Rappelons qu’avec beaucoup moins de limites que ses concurrents, l’IA d’Elon Musk a généré des textes antisémites et négationnistes, des deepfakes dénudant des femmes et qu’il alimente le climatoscepticisme. La vague d’indignation mondiale suite aux deepfakes de Grok diffusés sur X ne semble pas avoir d’influence sur la levée des barrières décidée par les majors états-uniennes de l’IA.

ChatGPT estime l’âge de ses utilisateurs pour plus ou moins lacher la bride

21 janvier 2026 à 12:50
What could go wrong?
ChatGPT estime l’âge de ses utilisateurs pour plus ou moins lacher la bride

L’entreprise de Sam Altman annonce la mise en place de plusieurs barrières pour les mineurs. Des protections supplémentaires… avant de lâcher la bride à son chatbot sur ce que les adultes peuvent générer ? C’est ce qu’avait laissé entendre Sam Altman, affaire à suivre donc.

OpenAI a annoncé ce mardi la mise en place de son système interne de prédiction d’âge sur ChatGPT ainsi qu’un système de vérification d’âge géré par une entreprise tierce en deuxième option. Ce double système doit permettre de séparer les utilisations de son chatbot par les adolescents et par les adultes.

Sam Altman avait déjà sorti que son chatbot pourrait être plus érotique à l’occasion de cette séparation, mais OpenAI précise que les filtres de ChatGPT seront différents aussi pour d’autres sujets comme la violence graphique ou gore et les comportements malsains. Le déploiement est mondial, mais la société précise que, « dans l’UE, la prédiction de l’âge sera mise en place dans les prochaines semaines afin de tenir compte des exigences régionales ».

Deux solutions possibles pour franchir la barrière d’âge

Pour permettre d’accéder à son chatbot avec des restrictions beaucoup plus faibles, OpenAI propose plusieurs solutions censées filtrer les moins de 18 ans. Si les adolescents déclarent être âgés de moins de 18 ans lors de leur inscription, l’entreprise active des filtres de protection « visant à réduire leur exposition à des contenus sensibles ou potentiellement préjudiciables ».

Mais si l’utilisateur ne donne pas explicitement son âge, OpenAI utilise deux systèmes pour filtrer les mineurs. La première est un système interne de « prédiction d’âge ». Ici pas de scan de carte d’identité. OpenAI va utiliser toutes les données qu’elle collecte sur l’utilisateur pour prédire s’il a ou non plus de 18 ans. « Il examine différents signaux liés à votre compte. Par exemple, il peut examiner les sujets généraux dont vous parlez ou les moments de la journée où vous utilisez ChatGPT », affirme l’entreprise dans sa page d’aide à ce sujet. Si l’entreprise donne ces exemples, elle ne dévoile pas tous les paramètres qu’elle prend en compte pour prédire l’âge de l’utilisateur.

« Aucun système n’est parfait. Il peut parfois y avoir des erreurs », explique OpenAI dans un moment d’humilité rare dans le monde de l’IA. Elle explique que « si vous avez 18 ans ou plus et que vous avez été classé par erreur dans la catégorie des moins de 18 ans, vous pouvez vérifier votre âge ». Pour ça, l’entreprise utilise le système de vérification d’un tiers nommé Persona.

Pour cette vérification, Persona pourra, en fonction du pays où l’utilisateur se trouve, utiliser soit un selfie live soit une pièce d’identité qu’il faudra uploader. « Persona vérifie votre date de naissance et s’assure que votre selfie correspond à la photo de votre pièce d’identité », explique OpenAI, qui ajoute que « les pièces d’identité acceptées varient selon les pays ». Au passage, elle précise que Persona doit supprimer les photos des pièces d’identité et les selfies sept jours après la vérification. Le tiers envoie la date de naissance de l’utilisateur ou la prédiction d’âge. L’entreprise de Sam Altman assure conserver « ces informations en toute sécurité et les [utiliser] uniquement conformément à la politique de confidentialité d’OpenAI ».

Au passage, on peut remarquer qu’OpenAI n’a pas choisi de s’appuyer sur l’outil de scan d’iris de World ID, l’autre entreprise de Sam Altman.

Des filtres différents sur des sujets sensibles selon l’âge de l’utilisateur

À partir du moment où l’utilisateur est enregistré comme ayant plus de 18 ans par OpenAI, ChatGPT aura beaucoup moins de garde-fous.

Si l’utilisateur est détecté comme ayant moins de 18 ans, ChatGPT « applique automatiquement des protections supplémentaires conçues pour réduire l’exposition à des contenus sensibles, telles que la violence graphique ou gore, les défis viraux pouvant encourager des comportements risqués ou dangereux, les jeux de rôle à caractère sexuel, romantique ou violent, les contenus promouvant des normes de beauté extrêmes, des régimes alimentaires malsains ou du body shaming ».

Le risque est aussi que ça laisse plus de possibilités à OpenAI pour, ensuite, lâcher les vannes pour ses utilisateurs adultes et ainsi rejoindre Grok et xAI dans la génération de contenus sans réelles limites éthiques.

Rappelons qu’avec beaucoup moins de limites que ses concurrents, l’IA d’Elon Musk a généré des textes antisémites et négationnistes, des deepfakes dénudant des femmes et qu’il alimente le climatoscepticisme. La vague d’indignation mondiale suite aux deepfakes de Grok diffusés sur X ne semble pas avoir d’influence sur la levée des barrières décidée par les majors états-uniennes de l’IA.

Internet ouvert vs GenIA : pour l’Arcep, l’Europe dispose déjà des armes nécessaires

21 janvier 2026 à 07:55
Y a plus qu'à
Internet ouvert vs GenIA : pour l’Arcep, l’Europe dispose déjà des armes nécessaires

Alors que le règlement sur l’internet ouvert a dix ans, l’autorité publie un rapport sur son rôle alors que les IA génératives bouleversent Internet aussi bien dans ses usages que dans son paysage économique. Elle y affirme que l’Europe doit plus appliquer les textes déjà votés aux entreprises d’IA plutôt que d’en voter de nouveaux.

À l’occasion des 10 ans du règlement sur « l’internet ouvert » qui a ancré dans les textes européens la fin de l’itinérance et la neutralité des réseaux, l’Arcep cherche à regarder plus loin.

L’autorité a posé la question « et ensuite ? » lors d’un événement organisé au Parlement européen et publié un rapport soulignant les « défis pour l’avenir de l’internet ouvert » engendrés par l’IA générative [PDF].

Dans celui-ci, l’Arcep estime que l’arrivée de ces nouveaux outils « qui produisent des réponses uniques aux requêtes des utilisateurs » est « susceptible d’entrer en contradiction avec certaines valeurs fondatrices de l’internet au premier rang desquelles son ouverture, entendue comme la liberté pour tout internaute d’accéder, de publier et de contribuer en ligne, et son caractère décentralisé, qui repose historiquement sur une pluralité de points d’accès, d’acteurs et de sources ».

L’IA générative change beaucoup de choses pour le principe de « l’internet ouvert »

L’autorité réaffirme « l’internet ouvert » comme un « principe fondateur pour l’innovation et les libertés en ligne ». Mais elle souligne que « depuis les premiers débats relatifs à la neutralité du net, l’écosystème numérique a profondément évolué ». Et qu’« au-delà des fournisseurs d’accès à internet, de grandes plateformes numériques, telles que les moteurs de recherche, les réseaux sociaux, les systèmes d’exploitation ou les boutiques d’applications, sont devenues des intermédiaires incontournables pour accéder aux contenus et services en ligne ».

L’Arcep constate que les IA génératives changent beaucoup de choses. Ainsi, pour l’autorité, avec les chatbots IA, « l’utilisateur passe d’un rôle d’explorateur du web, naviguant de lien en lien, à celui de lecteur d’une réponse synthétique produite par un système d’IA ». Elle note cependant que, depuis l’arrivée de ChatGPT, « des progrès notables » ont été réalisés, « avec le déploiement de mécanismes permettant d’expliciter le raisonnement et d’indiquer certaines sources mobilisées ».

L’autorité souligne que l’arrivée des agents IA pourrait conduire les internautes à leur déléguer le
choix des applications ou des services utilisés. « La sélection effectuée pourrait alors être orientée par les préférences ou les partenariats, notamment commerciaux, établis par le fournisseur du service d’IA, au détriment du libre choix et de l’innovation ouverte sur internet », commente-t-elle.

Tous ces changements soulèvent « des enjeux majeurs en matière de découvrabilité, de modèles économiques et de pérennité des acteurs traditionnels de la création et de la fourniture de contenus et de services en ligne ». L’Arcep n’oublie pas d’évoquer les problèmes liés aux sites GenAI en citant le travail de Next sur le sujet. Elle souligne d’ailleurs que « le scénario d’une artificialisation de l’internet, dominé par des contenus majoritairement synthétiques, constituerait non seulement une atteinte à la diversité en ligne, mais pourrait également fragiliser le développement des futurs services d’IA générative eux-mêmes, puisque les données issues du monde réel sont nécessaires à leur entraînement et à la qualité de leurs sorties ».

Mais les textes européens sont là, il faut les appliquer, selon l’Arcep

Pour autant, l’autorité souligne l’existence du Digital Markets Act (DMA) qui a « apporté de premiers éléments de réponse », et l’Arcep pousse non pas à continuer de créer de nouveaux textes dans le droit européen, mais à « mobiliser les outils de régulation existants pour garantir l’ouverture des services d’IA générative ». Ainsi, elle souligne que le DMA « s’applique déjà à plusieurs acteurs et services intégrant des fonctionnalités d’IA, notamment certains moteurs de recherche, systèmes d’exploitation et navigateurs ».

Elle ajoute que « certaines de ses obligations nécessitent d’être adaptées », mais par l’adoption d’actes délégués. Ceux-ci permettent « au législateur de l’Union européenne de déléguer à la Commission européenne le pouvoir d’adopter des actes non législatifs de portée générale qui modifient ou complètent des éléments non essentiels de l’acte législatif », comme l’explique le Sénat.

L’autorité fait aussi remarquer que « bien que le cloud fasse déjà partie des services de plateforme essentiels au titre du DMA, aucun fournisseur de services cloud n’a, à ce jour, été désigné en tant que contrôleur d’accès ». Elle rappelle que la Commission enquête justement pour déterminer si Amazon et Microsoft doivent être désignées comme contrôleurs d’accès sur le cloud.« Si ces acteurs étaient désignés au titre du DMA, plusieurs obligations viendraient encadrer leurs pratiques et auraient un impact positif sur la diversité des services d’IA présents sur le marché », plaide l’autorité française. Elle souligne aussi la possibilité que les « principaux services d’IA générative puissent remplir à terme les conditions pour être directement visés par le DMA en tant que navigateurs web, services d’intermédiation ou moteurs de recherche ».

Pour l’Arcep, le Data Act pourrait être aussi mobilisé pour réguler ce nouveau secteur. « En particulier, le
règlement sur les données pourrait s’appliquer à certains fournisseurs d’IA générative dont les services sont susceptibles d’être identifiés à des services cloud, dont font par exemple partie les services de type ” AI as a service” (AIaaS), et ainsi faciliter la portabilité des données des utilisateurs et l’interopérabilité des système
», explique-t-elle. Elle vise notamment le développement de l’IA agentique « qui nécessite des protocoles interopérables entre outils d’IA générative et services tiers », mais aussi la possibilité, pour les utilisateurs, « de changer facilement de fournisseur de service d’IA en conservant leurs données ».

Enfin, le DSA pourrait « contribuer à l’atténuation de certains risques liés à l’usage de l’IA générative ». Elle souligne que certaines entreprises étant déjà des fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne (on pense à Google, par exemple), elles sont déjà soumises à des exigences plus contraignantes par le texte. Mais l’autorité suggère que « certains services d’IA générative pourraient être considérés comme de très grands moteurs de recherche en ligne (VLOSE) et ainsi relever directement du périmètre d’application de ces obligations ». Ainsi, la Commission pourrait assez facilement contraindre des acteurs comme OpenAI, par exemple, sans que ne soient adoptées de nouvelles lois.

« L’arsenal réglementaire actuel fournit déjà des outils pertinents qu’il conviendra de mobiliser pour traiter une partie des problématiques identifiées et tempérer certains risques liés aux services d’IA », souligne l’autorité, qui les détaille et illustre dans une BD disponible (en français et en anglais) en exergue de son communiqué.

Internet ouvert vs GenIA : pour l’Arcep, l’Europe dispose déjà des armes nécessaires

21 janvier 2026 à 07:55
Y a plus qu'à
Internet ouvert vs GenIA : pour l’Arcep, l’Europe dispose déjà des armes nécessaires

Alors que le règlement sur l’internet ouvert a dix ans, l’autorité publie un rapport sur son rôle alors que les IA génératives bouleversent Internet aussi bien dans ses usages que dans son paysage économique. Elle y affirme que l’Europe doit plus appliquer les textes déjà votés aux entreprises d’IA plutôt que d’en voter de nouveaux.

À l’occasion des 10 ans du règlement sur « l’internet ouvert » qui a ancré dans les textes européens la fin de l’itinérance et la neutralité des réseaux, l’Arcep cherche à regarder plus loin.

L’autorité a posé la question « et ensuite ? » lors d’un événement organisé au Parlement européen et publié un rapport soulignant les « défis pour l’avenir de l’internet ouvert » engendrés par l’IA générative [PDF].

Dans celui-ci, l’Arcep estime que l’arrivée de ces nouveaux outils « qui produisent des réponses uniques aux requêtes des utilisateurs » est « susceptible d’entrer en contradiction avec certaines valeurs fondatrices de l’internet au premier rang desquelles son ouverture, entendue comme la liberté pour tout internaute d’accéder, de publier et de contribuer en ligne, et son caractère décentralisé, qui repose historiquement sur une pluralité de points d’accès, d’acteurs et de sources ».

L’IA générative change beaucoup de choses pour le principe de « l’internet ouvert »

L’autorité réaffirme « l’internet ouvert » comme un « principe fondateur pour l’innovation et les libertés en ligne ». Mais elle souligne que « depuis les premiers débats relatifs à la neutralité du net, l’écosystème numérique a profondément évolué ». Et qu’« au-delà des fournisseurs d’accès à internet, de grandes plateformes numériques, telles que les moteurs de recherche, les réseaux sociaux, les systèmes d’exploitation ou les boutiques d’applications, sont devenues des intermédiaires incontournables pour accéder aux contenus et services en ligne ».

L’Arcep constate que les IA génératives changent beaucoup de choses. Ainsi, pour l’autorité, avec les chatbots IA, « l’utilisateur passe d’un rôle d’explorateur du web, naviguant de lien en lien, à celui de lecteur d’une réponse synthétique produite par un système d’IA ». Elle note cependant que, depuis l’arrivée de ChatGPT, « des progrès notables » ont été réalisés, « avec le déploiement de mécanismes permettant d’expliciter le raisonnement et d’indiquer certaines sources mobilisées ».

L’autorité souligne que l’arrivée des agents IA pourrait conduire les internautes à leur déléguer le
choix des applications ou des services utilisés. « La sélection effectuée pourrait alors être orientée par les préférences ou les partenariats, notamment commerciaux, établis par le fournisseur du service d’IA, au détriment du libre choix et de l’innovation ouverte sur internet », commente-t-elle.

Tous ces changements soulèvent « des enjeux majeurs en matière de découvrabilité, de modèles économiques et de pérennité des acteurs traditionnels de la création et de la fourniture de contenus et de services en ligne ». L’Arcep n’oublie pas d’évoquer les problèmes liés aux sites GenAI en citant le travail de Next sur le sujet. Elle souligne d’ailleurs que « le scénario d’une artificialisation de l’internet, dominé par des contenus majoritairement synthétiques, constituerait non seulement une atteinte à la diversité en ligne, mais pourrait également fragiliser le développement des futurs services d’IA générative eux-mêmes, puisque les données issues du monde réel sont nécessaires à leur entraînement et à la qualité de leurs sorties ».

Mais les textes européens sont là, il faut les appliquer, selon l’Arcep

Pour autant, l’autorité souligne l’existence du Digital Markets Act (DMA) qui a « apporté de premiers éléments de réponse », et l’Arcep pousse non pas à continuer de créer de nouveaux textes dans le droit européen, mais à « mobiliser les outils de régulation existants pour garantir l’ouverture des services d’IA générative ». Ainsi, elle souligne que le DMA « s’applique déjà à plusieurs acteurs et services intégrant des fonctionnalités d’IA, notamment certains moteurs de recherche, systèmes d’exploitation et navigateurs ».

Elle ajoute que « certaines de ses obligations nécessitent d’être adaptées », mais par l’adoption d’actes délégués. Ceux-ci permettent « au législateur de l’Union européenne de déléguer à la Commission européenne le pouvoir d’adopter des actes non législatifs de portée générale qui modifient ou complètent des éléments non essentiels de l’acte législatif », comme l’explique le Sénat.

L’autorité fait aussi remarquer que « bien que le cloud fasse déjà partie des services de plateforme essentiels au titre du DMA, aucun fournisseur de services cloud n’a, à ce jour, été désigné en tant que contrôleur d’accès ». Elle rappelle que la Commission enquête justement pour déterminer si Amazon et Microsoft doivent être désignées comme contrôleurs d’accès sur le cloud.« Si ces acteurs étaient désignés au titre du DMA, plusieurs obligations viendraient encadrer leurs pratiques et auraient un impact positif sur la diversité des services d’IA présents sur le marché », plaide l’autorité française. Elle souligne aussi la possibilité que les « principaux services d’IA générative puissent remplir à terme les conditions pour être directement visés par le DMA en tant que navigateurs web, services d’intermédiation ou moteurs de recherche ».

Pour l’Arcep, le Data Act pourrait être aussi mobilisé pour réguler ce nouveau secteur. « En particulier, le
règlement sur les données pourrait s’appliquer à certains fournisseurs d’IA générative dont les services sont susceptibles d’être identifiés à des services cloud, dont font par exemple partie les services de type ” AI as a service” (AIaaS), et ainsi faciliter la portabilité des données des utilisateurs et l’interopérabilité des système
», explique-t-elle. Elle vise notamment le développement de l’IA agentique « qui nécessite des protocoles interopérables entre outils d’IA générative et services tiers », mais aussi la possibilité, pour les utilisateurs, « de changer facilement de fournisseur de service d’IA en conservant leurs données ».

Enfin, le DSA pourrait « contribuer à l’atténuation de certains risques liés à l’usage de l’IA générative ». Elle souligne que certaines entreprises étant déjà des fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne (on pense à Google, par exemple), elles sont déjà soumises à des exigences plus contraignantes par le texte. Mais l’autorité suggère que « certains services d’IA générative pourraient être considérés comme de très grands moteurs de recherche en ligne (VLOSE) et ainsi relever directement du périmètre d’application de ces obligations ». Ainsi, la Commission pourrait assez facilement contraindre des acteurs comme OpenAI, par exemple, sans que ne soient adoptées de nouvelles lois.

« L’arsenal réglementaire actuel fournit déjà des outils pertinents qu’il conviendra de mobiliser pour traiter une partie des problématiques identifiées et tempérer certains risques liés aux services d’IA », souligne l’autorité, qui les détaille et illustre dans une BD disponible (en français et en anglais) en exergue de son communiqué.

Reçu — 20 janvier 2026 Actualités numériques

29 % des articles scientifiques à propos des réseaux sociaux oublient leurs liens d’intérêt

20 janvier 2026 à 15:24
Influence au carré
29 % des articles scientifiques à propos des réseaux sociaux oublient leurs liens d’intérêt

Selon des sociologues et philosophes des sciences, la moitié des articles scientifiques à propos des réseaux sociaux publiés dans les revues les plus en vue ont au moins un auteur qui a des liens avec cette industrie. Mais 29 % passent sous silence ces conflits d’intérêts.

Les études scientifiques sur les effets des réseaux sociaux sont indispensables pour comprendre leurs conséquences sur nos vies. Mais l’influence des entreprises du secteur semble particulièrement importante sur la recherche qui étudie leurs produits.

Ainsi, des chercheurs ont remarqué que la moitié des articles scientifiques publiés sur le sujet dans des revues scientifiques très connues sont signés par au moins un chercheur qui est lié, d’une façon ou d’une autre (via un financement, une collaboration ou un contrat de travail), à une entreprise du secteur.

«  L’influence de l’industrie dans la recherche sur les médias sociaux est considérable »

Dans une bonne partie de la recherche, que ça soit en informatique, en pharmacie ou dans les sciences sociales, il n’est pas rare que les chercheurs aient ce genre de liens d’intérêt. Une bonne pratique mise en place dans la communauté scientifique est de signaler clairement tout conflit d’intérêt dans une section dédiée des articles scientifiques.

Mais ici, les auteurs de l’étude, mise en ligne ce vendredi 16 janvier sur la plateforme de prépublication arXiv et non relue encore par des pairs, affirment que 29 % des études font l’impasse sur des signalements de conflits d’intérêt qu’elles auraient dû mentionner.


Il reste 81% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Copyright : NVIDIA a contacté Anna’s Archive pour entrainer ses IA sur des millions de livres

20 janvier 2026 à 09:07

NVIDIA serait entrée en contact avec les responsables de la « bibliothèque clandestine » Anna’s Archive selon des documents d’un procès en cours contre l’entreprise.

En mars 2024, NVIDIA a été attaquée par cinq auteurs de livres pour violation du copyright pour avoir entrainé ses modèles sur une compilation de livres dans laquelle apparaissent leurs textes.

Notamment, ces auteurs pointaient l’utilisation de « bibliothèques clandestines » comme Anna’s Archive.

Dans un texte ajouté au dossier, les avocats des auteurs citent plusieurs documents internes à NVIDIA montrant que l’entreprise a contacté le projet Anna’s Archive. « À la recherche désespérée de livres, NVIDIA a contacté Anna’s Archive, la plus grande et la plus effrontée des bibliothèques clandestines encore existantes, afin d’acquérir ses millions de documents piratés et “d’inclure Anna’s Archive dans les données de pré-entraînement de nos LLM” », rapporte TorrentFreak. L’entreprise a contacté les responsables de la bibliothèque clandestine pour obtenir un « accès à de grands volumes de jeux de données uniques et de haute qualité » en éclaircissant si besoin était leur demande avec la précision « c’est-à-dire des livres ».

livre dématérialisé

« Comme Anna’s Archive facturait des dizaines de milliers de dollars pour un “accès haut débit” à ses collections piratées voir https://annas-archive.org/llm, NVIDIA a cherché à savoir à quoi ressemblerait un “accès haut débit” à ces données », explique le document associé à la plainte [PDF].

Toujours selon les avocats des auteurs, l’équipe de management de NVIDIA aurait donné le feu vert à cette utilisation alors qu’Anna’s Archive avait bien précisé la nature illégale de ses collections.

☕️ Copyright : NVIDIA a contacté Anna’s Archive pour entrainer ses IA sur des millions de livres

20 janvier 2026 à 09:07

NVIDIA serait entrée en contact avec les responsables de la « bibliothèque clandestine » Anna’s Archive selon des documents d’un procès en cours contre l’entreprise.

En mars 2024, NVIDIA a été attaquée par cinq auteurs de livres pour violation du copyright pour avoir entrainé ses modèles sur une compilation de livres dans laquelle apparaissent leurs textes.

Notamment, ces auteurs pointaient l’utilisation de « bibliothèques clandestines » comme Anna’s Archive.

Dans un texte ajouté au dossier, les avocats des auteurs citent plusieurs documents internes à NVIDIA montrant que l’entreprise a contacté le projet Anna’s Archive. « À la recherche désespérée de livres, NVIDIA a contacté Anna’s Archive, la plus grande et la plus effrontée des bibliothèques clandestines encore existantes, afin d’acquérir ses millions de documents piratés et “d’inclure Anna’s Archive dans les données de pré-entraînement de nos LLM” », rapporte TorrentFreak. L’entreprise a contacté les responsables de la bibliothèque clandestine pour obtenir un « accès à de grands volumes de jeux de données uniques et de haute qualité » en éclaircissant si besoin était leur demande avec la précision « c’est-à-dire des livres ».

livre dématérialisé

« Comme Anna’s Archive facturait des dizaines de milliers de dollars pour un “accès haut débit” à ses collections piratées voir https://annas-archive.org/llm, NVIDIA a cherché à savoir à quoi ressemblerait un “accès haut débit” à ces données », explique le document associé à la plainte [PDF].

Toujours selon les avocats des auteurs, l’équipe de management de NVIDIA aurait donné le feu vert à cette utilisation alors qu’Anna’s Archive avait bien précisé la nature illégale de ses collections.

Reçu — 19 janvier 2026 Actualités numériques

French response : quand la diplomatie française colle à l’ambiance de X

19 janvier 2026 à 16:12
Tweet clash diplomacy
French response : quand la diplomatie française colle à l’ambiance de X

La diplomatie française a intensifié son utilisation du compte French response pour ne pas laisser passer les attaques étrangères sur le réseau social d’Elon Musk. Ce compte réagit aussi aux attaques politiques du milliardaire états-unien comme du CEO de Telegram Pavel Durov.

« Ne rien céder dans la bataille des récits », c’est ainsi que Jean-Noël Barrot présentait le compte X French Response géré par la diplomatie française le 9 janvier pour les vœux aux ambassadrices et aux ambassadeurs.

Deux jours plus tard, ce compte répondait à Elon Musk sur son propre réseau avec une photo du CEO de X faisant un salut nazi lors de l’investiture de Donald Trump. Le milliardaire d’extrême droite avait précédemment provoqué son audience en demandant « Pourquoi le gouvernement britannique est-il si fasciste ? ».

En ce début d’année important géostratégiquement parlant, le ministre de l’Europe et des affaires étrangères met en avant la stratégie lancée début septembre par son ministère pour contrer les discours étrangers critiquant la position de la France.

« Une posture franche, teintée d’humour, de dérision »

Pris via le prisme principal des manipulations de l’information venues de l’étranger, cette nouvelle communication du Quai d’Orsay se voit comme « une posture franche, teintée d’humour, de dérision, parfois d’autodérision, qui conduit à la viralité sur les réseaux sociaux, qui permet d’augmenter l’impact du message que nous voulons porter », a aussi assumé Jean-Noël Barrot devant les ambassadrices et les ambassadeurs du pays.

Car, si ce compte se permet de répondre à Elon Musk ou à Pavel Durov en pointant la prolifération de contenus pédocriminels sur Telegram pour contrer ses critiques contre la politique de l’Union européenne en la matière, il concentre surtout ses réponses vers des comptes russes et états-uniens diffusant la propagande de leurs pays respectifs, souvent avec les codes utilisés sur le réseau social X.

« Telegram lutte de longue date contre les détournements de sa plateforme, notamment la diffusion de contenus pédocriminels, via des équipes de modération spécialisées et des signalements émanant d’ONG internationales. Depuis 2018, ce dispositif s’est renforcé avec l’introduction de scans automatisés par empreinte numérique des contenus médias publiés sur la plateforme publique, ainsi que la publication de rapports de transparence quotidiens », a souhaité affirmer Telegram suite à cet article.

Ainsi, le compte du Quai d’Orsay répondait en octobre à Sputnik Afrika en remettant en question l’éthique de ses journalistes avec un mème. Comme nous l’expliquions à ses débuts, le compte a commencé en réfutant des propos du secrétaire d’État étasunien, Marco Rubio, en proposant un « factchecking » affirmant que « la reconnaissance de l’État palestinien n’a pas entraîné l’échec des négociations sur les otages ».

Plus direct encore depuis le début d’année

Plus récemment, French Response a pris des allures encore plus directement diplomatiques en réinterprétant ironiquement des photos utilisées par le département de la Sécurité intérieure américain pour illustrer la « panique » qui aurait envahi les leaders européens suite aux velléités répétées de Donald Trump de s’emparer du Groenland.

Pour le compte de la diplomatie française, « l’Europe ne panique pas, l’Europe vérifie juste que ses tempes ne se dégarnissent pas ». Ce dimanche, French Response lançait un « Make Dmitry Mannered Again (MDMA) » à un Dmitry Medvedev qui affirmait « Make America Great Again (MAGA)= Make Danmark Small Again (MDSA)= Make Europe Poor Again (MEPA). Avez-vous enfin compris, bande d’imbéciles ? ».

La France est donc entrée pleinement dans le jeu de la petite phrase publiée sur X pour faire rire et sourire les utilisateurs du réseau d’Elon Musk.

« J’étais circonspect, car cela revient à abaisser le débat public à du “tweet clash”, mais French Response a su reprendre tous les codes de la jeunesse, et tape juste », affirme le journaliste et consultant en lutte contre la désinformation Nicolas Hénin au Monde.

Dans son discours aux ambassadrices et ambassadeurs, Jean-Noël Barrot leur a promis : « vous verrez qu’aucune fausse information n’émane de ce compte ». Mais est-ce possible de jouer avec ces règles dans la cour d’un réseau dirigé par une des cibles de French Response et dont l’IA officielle est un superdiffuseur de désinformation et qui génère des messages antisémites et dénude des femmes sur demande ?

On peut se demander quel est réellement le but de ce compte. Toujours aux ambassadrices et ambassadeurs, le ministre explique qu’il a « une vertu, qui est de riposter lorsque des contenus portant atteinte à notre image sont diffusés. Mais “French Response” a aussi une vertu d’inhibition, parce que nos adversaires savent désormais que s’ils portent atteinte à notre image, ils peuvent être ridiculisés par “French Response ” ».

Cette diplomatie numérique se limite par contre pour l’instant au réseau social d’Elon Musk. Le ministère ne revendique pour l’instant pas de compte du même genre sur des réseaux sociaux comme TikTok, Instagram ou BlueSky sur lesquels il devrait sans doute adapter son discours à des environnements plus policés.

French response : quand la diplomatie française colle à l’ambiance de X

19 janvier 2026 à 16:12
Tweet clash diplomacy
French response : quand la diplomatie française colle à l’ambiance de X

La diplomatie française a intensifié son utilisation du compte French response pour ne pas laisser passer les attaques étrangères sur le réseau social d’Elon Musk. Ce compte réagit aussi aux attaques politiques du milliardaire états-unien comme du CEO de Telegram Pavel Durov.

« Ne rien céder dans la bataille des récits », c’est ainsi que Jean-Noël Barrot présentait le compte X French Response géré par la diplomatie française le 9 janvier pour les vœux aux ambassadrices et aux ambassadeurs.

Deux jours plus tard, ce compte répondait à Elon Musk sur son propre réseau avec une photo du CEO de X faisant un salut nazi lors de l’investiture de Donald Trump. Le milliardaire d’extrême droite avait précédemment provoqué son audience en demandant « Pourquoi le gouvernement britannique est-il si fasciste ? ».

En ce début d’année important géostratégiquement parlant, le ministre de l’Europe et des affaires étrangères met en avant la stratégie lancée début septembre par son ministère pour contrer les discours étrangers critiquant la position de la France.

« Une posture franche, teintée d’humour, de dérision »

Pris via le prisme principal des manipulations de l’information venues de l’étranger, cette nouvelle communication du Quai d’Orsay se voit comme « une posture franche, teintée d’humour, de dérision, parfois d’autodérision, qui conduit à la viralité sur les réseaux sociaux, qui permet d’augmenter l’impact du message que nous voulons porter », a aussi assumé Jean-Noël Barrot devant les ambassadrices et les ambassadeurs du pays.

Car, si ce compte se permet de répondre à Elon Musk ou à Pavel Durov en pointant la prolifération de contenus pédocriminels sur Telegram pour contrer ses critiques contre la politique de l’Union européenne en la matière, il concentre surtout ses réponses vers des comptes russes et états-uniens diffusant la propagande de leurs pays respectifs, souvent avec les codes utilisés sur le réseau social X.

« Telegram lutte de longue date contre les détournements de sa plateforme, notamment la diffusion de contenus pédocriminels, via des équipes de modération spécialisées et des signalements émanant d’ONG internationales. Depuis 2018, ce dispositif s’est renforcé avec l’introduction de scans automatisés par empreinte numérique des contenus médias publiés sur la plateforme publique, ainsi que la publication de rapports de transparence quotidiens », a souhaité affirmer Telegram suite à cet article.

Ainsi, le compte du Quai d’Orsay répondait en octobre à Sputnik Afrika en remettant en question l’éthique de ses journalistes avec un mème. Comme nous l’expliquions à ses débuts, le compte a commencé en réfutant des propos du secrétaire d’État étasunien, Marco Rubio, en proposant un « factchecking » affirmant que « la reconnaissance de l’État palestinien n’a pas entraîné l’échec des négociations sur les otages ».

Plus direct encore depuis le début d’année

Plus récemment, French Response a pris des allures encore plus directement diplomatiques en réinterprétant ironiquement des photos utilisées par le département de la Sécurité intérieure américain pour illustrer la « panique » qui aurait envahi les leaders européens suite aux velléités répétées de Donald Trump de s’emparer du Groenland.

Pour le compte de la diplomatie française, « l’Europe ne panique pas, l’Europe vérifie juste que ses tempes ne se dégarnissent pas ». Ce dimanche, French Response lançait un « Make Dmitry Mannered Again (MDMA) » à un Dmitry Medvedev qui affirmait « Make America Great Again (MAGA)= Make Danmark Small Again (MDSA)= Make Europe Poor Again (MEPA). Avez-vous enfin compris, bande d’imbéciles ? ».

La France est donc entrée pleinement dans le jeu de la petite phrase publiée sur X pour faire rire et sourire les utilisateurs du réseau d’Elon Musk.

« J’étais circonspect, car cela revient à abaisser le débat public à du “tweet clash”, mais French Response a su reprendre tous les codes de la jeunesse, et tape juste », affirme le journaliste et consultant en lutte contre la désinformation Nicolas Hénin au Monde.

Dans son discours aux ambassadrices et ambassadeurs, Jean-Noël Barrot leur a promis : « vous verrez qu’aucune fausse information n’émane de ce compte ». Mais est-ce possible de jouer avec ces règles dans la cour d’un réseau dirigé par une des cibles de French Response et dont l’IA officielle est un superdiffuseur de désinformation et qui génère des messages antisémites et dénude des femmes sur demande ?

On peut se demander quel est réellement le but de ce compte. Toujours aux ambassadrices et ambassadeurs, le ministre explique qu’il a « une vertu, qui est de riposter lorsque des contenus portant atteinte à notre image sont diffusés. Mais “French Response” a aussi une vertu d’inhibition, parce que nos adversaires savent désormais que s’ils portent atteinte à notre image, ils peuvent être ridiculisés par “French Response ” ».

Cette diplomatie numérique se limite par contre pour l’instant au réseau social d’Elon Musk. Le ministère ne revendique pour l’instant pas de compte du même genre sur des réseaux sociaux comme TikTok, Instagram ou BlueSky sur lesquels il devrait sans doute adapter son discours à des environnements plus policés.

❌