Vue lecture

Les outils de recherche en ligne basés sur l’IA générative sont nuls pour citer l’actu

Les outils de recherche en ligne basés sur l’IA générative sont nuls pour citer l’actu

En étudiant huit moteurs de recherche s’appuyant sur l’IA générative, deux chercheuses ont observé qu’en moyenne, ceux-ci ont fourni des réponses incorrectes à plus de 60 % des demandes.

De plus en plus d’internautes utilisent des outils d’IA générative pour chercher de l’information en ligne. Mais sont-ils fiables ? Pas tant que ça apparemment, d’après les chercheuses du Tow Center for Digital Journalism de Columbia, Klaudia Jaźwińska et Aisvarya Chandrasekar. Elles ont évalué huit d’entre eux : ChatGPT Search, Perplexity, Perplexity Pro, DeepSeek Search, Copilot, Grok-2 Search, Grok-3 Search et enfin Gemini.

On savait déjà que les chatbots comme ChatGPT hallucinaient régulièrement des citations, mais on aurait pu espérer que les outils de recherche basés sur l’IA auraient de meilleurs garde-fous dans ce domaine notamment, grâce par exemple au RAG (Retrieval-Augmented Generation).

Mais comment faire pour vérifier ?

Elles ont mis en place un protocole assez simple pour contrôler si chacun des outils testés attribuait bien au texte d’un article d’actualité les métadonnées comme l’URL, le titre, l’éditeur original et la date. Ainsi, la méthode vérifierait si, oui ou non, ils étaient au moins fiables dans leur capacité à faire correctement le lien entre une source et son extrait.

Les deux chercheuses ont donc sélectionné aléatoirement 10 articles de 20 sites d’information américains comme TechCrunch, Time, le Wall Street Journal, ProPublica, National Geographic ou encore le Boston Globe. Elles en ont tiré des extraits manuellement, puis ont vérifié qu’en collant ces extraits dans le moteur de recherche traditionnel de Google, la source originale apparaissait bien dans les trois premiers résultats.

Elles ont ensuite fourni à l’outil testé chaque extrait et lui ont demandé d’identifier le titre de l’article correspondant, l’éditeur original, la date de publication et l’URL.

Enfin, elles ont évalué la réponse en six catégories : correcte, correcte mais incomplète, partiellement incorrecte, complètement incorrecte, sans réponse et crawler bloqué (quand le site interdit le crawler du chatbot dans son fichier robots.txt).

Plus de 60 % de réponses incorrectes

Elles ont publié leurs résultats dans un article du magazine Columbia Journalism Review. En moyenne, les outils de recherche ont donc donné plus de 60 % de réponses incorrectes. « Le niveau d’inexactitude varie d’une plateforme à l’autre : Perplexity a répondu de manière incorrecte à 37 % des requêtes, tandis que Grok 3 a enregistré un taux d’erreur beaucoup plus élevé, répondant de manière incorrecte à 94 % des requêtes », expliquent les chercheuses.

Elles font remarquer que Copilot est le seul à avoir décliné plus de questions qu’il n’a apporté de réponses. Pendant ce temps-là, tous les autres ont fourni plus de réponses incorrectes que de non-réponses.

Elles soulignent un élément particulièrement frappant. Lorsque qu’on compare les outils Grok et Perplexity, testés dans leurs versions gratuites et payantes, les tests montrent « que si les deux [modèles payants] ont répondu correctement à un plus grand nombre de questions que leurs équivalents gratuits correspondants, ils ont paradoxalement aussi montré des taux d’erreur plus élevés ». Grok-3 Search et Perplexity Pro ont tendance à livrer une réponse coûte que coûte.

Certains récupèrent des informations de sites qui les bloquent

Comme les moteurs de recherche ordinaires, ces outils utilisent des robots d’indexation qui parcourent le web. Trois d’entre eux (DeepSeek, Grok 2, et Grok 3) n’ont pas révélé publiquement le nom de leurs robots. Les éditeurs ne peuvent donc pas bloquer l’indexation de leurs sites par ces outils.

Mais les cinq autres (ChatGPT Search, Perplexity, Perplexity Pro, Copilot et Gemini) les ont rendus publics. Les éditeurs peuvent théoriquement interdire qu’ils parcourent leurs sites en l’indiquant dans le fichier robots.txt.

En analysant les résultats ci-dessous, on remarque que Copilot est le seul à n’être bloqué par aucun des éditeurs. Cela s’explique facilement par le fait que l’outil de Microsoft utilise BingBot, le robot d’indexation du moteur de recherche de l’entreprise. S’ils le bloquent, les éditeurs se coupent donc aussi de l’indexation dans Bing. Paradoxalement, Copilot a le plus haut taux de non-réponse.

Mais les autres ont parfois correctement attribué toutes les métadonnées d’un article alors qu’ils n’étaient pas censés l’indexer.

« Perplexity Pro a été le plus mauvais élève à cet égard, identifiant correctement près d’un tiers des quatre-vingt-dix extraits d’articles auxquels il n’aurait pas dû avoir accès », expliquent les chercheuses. Elles ajoutent : « étonnamment, la version gratuite de Perplexity a correctement identifié les dix extraits d’articles payants du National Geographic que nous avons partagés, bien que l’éditeur ait interdit les robots d’indexation de Perplexity et n’ait aucune relation formelle avec la société d’IA ».

Du côté de Google, qui a créé un robot spécifique pour Gemini, « son crawler a été autorisé par dix des vingt éditeurs que nous avons testés, mais Gemini n’a fourni une réponse totalement correcte qu’à une seule occasion ». Les chercheuses expliquent notamment que, lorsqu’il s’agissait d’extraits d’articles liés à la politique, l’outil donnait des réponses comme : « Je ne peux pas vous aider à répondre aux questions sur les élections et les personnalités politiques pour le moment. Je suis entrainé pour être aussi précise que possible, mais il m’arrive de faire des erreurs. Pendant que je travaille à améliorer la façon dont je peux parler des élections et de la politique, vous pouvez essayer la recherche sur Google ».

Plus en détail, en regardant s’ils ont correctement identifié l’article dont provient la source, les chercheuses ont remarqué que DeepSeek Search se trompait pour 115 des 200 articles présentés.

Même lorsque l’article était bien identifié, l’URL proposée n’était souvent pas la bonne. À certaines occasions, les outils les « ont dirigé vers des versions syndiquées d’articles sur des plateformes telles que Yahoo News ou AOL plutôt que vers les sources originalessouvent même lorsque l’éditeur était connu pour avoir conclu un accord de licence avec la société d’IA ».

Et avoir conclu un accord avec l’entreprise qui édite l’outil de recherche n’augmente pas la qualité des réponses :

Les outils de recherche en ligne basés sur l’IA générative sont nuls pour citer l’actu

Les outils de recherche en ligne basés sur l’IA générative sont nuls pour citer l’actu

En étudiant huit moteurs de recherche s’appuyant sur l’IA générative, deux chercheuses ont observé qu’en moyenne, ceux-ci ont fourni des réponses incorrectes à plus de 60 % des demandes.

De plus en plus d’internautes utilisent des outils d’IA générative pour chercher de l’information en ligne. Mais sont-ils fiables ? Pas tant que ça apparemment, d’après les chercheuses du Tow Center for Digital Journalism de Columbia, Klaudia Jaźwińska et Aisvarya Chandrasekar. Elles ont évalué huit d’entre eux : ChatGPT Search, Perplexity, Perplexity Pro, DeepSeek Search, Copilot, Grok-2 Search, Grok-3 Search et enfin Gemini.

On savait déjà que les chatbots comme ChatGPT hallucinaient régulièrement des citations, mais on aurait pu espérer que les outils de recherche basés sur l’IA auraient de meilleurs garde-fous dans ce domaine notamment, grâce par exemple au RAG (Retrieval-Augmented Generation).

Mais comment faire pour vérifier ?

Elles ont mis en place un protocole assez simple pour contrôler si chacun des outils testés attribuait bien au texte d’un article d’actualité les métadonnées comme l’URL, le titre, l’éditeur original et la date. Ainsi, la méthode vérifierait si, oui ou non, ils étaient au moins fiables dans leur capacité à faire correctement le lien entre une source et son extrait.

Les deux chercheuses ont donc sélectionné aléatoirement 10 articles de 20 sites d’information américains comme TechCrunch, Time, le Wall Street Journal, ProPublica, National Geographic ou encore le Boston Globe. Elles en ont tiré des extraits manuellement, puis ont vérifié qu’en collant ces extraits dans le moteur de recherche traditionnel de Google, la source originale apparaissait bien dans les trois premiers résultats.

Elles ont ensuite fourni à l’outil testé chaque extrait et lui ont demandé d’identifier le titre de l’article correspondant, l’éditeur original, la date de publication et l’URL.

Enfin, elles ont évalué la réponse en six catégories : correcte, correcte mais incomplète, partiellement incorrecte, complètement incorrecte, sans réponse et crawler bloqué (quand le site interdit le crawler du chatbot dans son fichier robots.txt).

Plus de 60 % de réponses incorrectes

Elles ont publié leurs résultats dans un article du magazine Columbia Journalism Review. En moyenne, les outils de recherche ont donc donné plus de 60 % de réponses incorrectes. « Le niveau d’inexactitude varie d’une plateforme à l’autre : Perplexity a répondu de manière incorrecte à 37 % des requêtes, tandis que Grok 3 a enregistré un taux d’erreur beaucoup plus élevé, répondant de manière incorrecte à 94 % des requêtes », expliquent les chercheuses.

Elles font remarquer que Copilot est le seul à avoir décliné plus de questions qu’il n’a apporté de réponses. Pendant ce temps-là, tous les autres ont fourni plus de réponses incorrectes que de non-réponses.

Elles soulignent un élément particulièrement frappant. Lorsque qu’on compare les outils Grok et Perplexity, testés dans leurs versions gratuites et payantes, les tests montrent « que si les deux [modèles payants] ont répondu correctement à un plus grand nombre de questions que leurs équivalents gratuits correspondants, ils ont paradoxalement aussi montré des taux d’erreur plus élevés ». Grok-3 Search et Perplexity Pro ont tendance à livrer une réponse coûte que coûte.

Certains récupèrent des informations de sites qui les bloquent

Comme les moteurs de recherche ordinaires, ces outils utilisent des robots d’indexation qui parcourent le web. Trois d’entre eux (DeepSeek, Grok 2, et Grok 3) n’ont pas révélé publiquement le nom de leurs robots. Les éditeurs ne peuvent donc pas bloquer l’indexation de leurs sites par ces outils.

Mais les cinq autres (ChatGPT Search, Perplexity, Perplexity Pro, Copilot et Gemini) les ont rendus publics. Les éditeurs peuvent théoriquement interdire qu’ils parcourent leurs sites en l’indiquant dans le fichier robots.txt.

En analysant les résultats ci-dessous, on remarque que Copilot est le seul à n’être bloqué par aucun des éditeurs. Cela s’explique facilement par le fait que l’outil de Microsoft utilise BingBot, le robot d’indexation du moteur de recherche de l’entreprise. S’ils le bloquent, les éditeurs se coupent donc aussi de l’indexation dans Bing. Paradoxalement, Copilot a le plus haut taux de non-réponse.

Mais les autres ont parfois correctement attribué toutes les métadonnées d’un article alors qu’ils n’étaient pas censés l’indexer.

« Perplexity Pro a été le plus mauvais élève à cet égard, identifiant correctement près d’un tiers des quatre-vingt-dix extraits d’articles auxquels il n’aurait pas dû avoir accès », expliquent les chercheuses. Elles ajoutent : « étonnamment, la version gratuite de Perplexity a correctement identifié les dix extraits d’articles payants du National Geographic que nous avons partagés, bien que l’éditeur ait interdit les robots d’indexation de Perplexity et n’ait aucune relation formelle avec la société d’IA ».

Du côté de Google, qui a créé un robot spécifique pour Gemini, « son crawler a été autorisé par dix des vingt éditeurs que nous avons testés, mais Gemini n’a fourni une réponse totalement correcte qu’à une seule occasion ». Les chercheuses expliquent notamment que, lorsqu’il s’agissait d’extraits d’articles liés à la politique, l’outil donnait des réponses comme : « Je ne peux pas vous aider à répondre aux questions sur les élections et les personnalités politiques pour le moment. Je suis entrainé pour être aussi précise que possible, mais il m’arrive de faire des erreurs. Pendant que je travaille à améliorer la façon dont je peux parler des élections et de la politique, vous pouvez essayer la recherche sur Google ».

Plus en détail, en regardant s’ils ont correctement identifié l’article dont provient la source, les chercheuses ont remarqué que DeepSeek Search se trompait pour 115 des 200 articles présentés.

Même lorsque l’article était bien identifié, l’URL proposée n’était souvent pas la bonne. À certaines occasions, les outils les « ont dirigé vers des versions syndiquées d’articles sur des plateformes telles que Yahoo News ou AOL plutôt que vers les sources originalessouvent même lorsque l’éditeur était connu pour avoir conclu un accord de licence avec la société d’IA ».

Et avoir conclu un accord avec l’entreprise qui édite l’outil de recherche n’augmente pas la qualité des réponses :

☕️ Le budget scientifique de la NASA pourrait être réduit de 50 %

La Maison-Blanche pourrait proposer une réduction de 50 % du budget des activités scientifiques de la NASA, selon la Planetary Society, une association très connue dans le milieu de l’astrophysique et regroupant plus de 60 000 membres.

« Un tel effondrement du financement pourrait faire perdre à l’Amérique son leadership dans le domaine de l’exploration scientifique de l’espace. Elle pourrait également briser la filière d’enseignement des sciences, de la technologie, de l’ingénierie et des mathématiques (STEM) et décimer la main-d’œuvre scientifique et d’ingénierie la plus compétente et la plus accomplie au monde », affirme l’association.

Interrogée par ArsTechnica sur le sujet, la responsable des missions scientifiques de la NASA, Nicola Fox, a répondu : « nous n’avons pas encore reçu d’informations sur le budget, et je déteste planifier quelque chose sur la base de rumeurs et de spéculations ». Et d’ajouter, « nous continuerons à faire de la bonne science. Nous continuerons à avoir un portefeuille scientifique équilibré, c’est certain. Nous serons reconnaissants de ce que nous recevrons, et nous ferons de grandes choses avec cela ».

Ces réductions sont prévues par le directeur du bureau de la gestion et du budget de Donald Trump, Russell Vought. Comme l’expliquent nos confrères, elles sont en adéquation avec le budget « fantôme » qu’il avait proposé en 2022 pour l’année 2023, lorsque le camp Républicain était dans l’opposition :

« Le budget propose également une réduction de 50 % des programmes et des dépenses scientifiques de la NASA, en réduisant les dépenses du système de réduction des émissions de carbone et les programmes sur le changement climatique mondial, qui sont malavisés », proposait-il [PDF].

« Si ces réductions devaient se concrétiser, il en résulterait rien de moins qu’une extinction des sciences et de l’exploration spatiales aux États-Unis », commente Planetary Society.

☕️ Le budget scientifique de la NASA pourrait être réduit de 50 %

La Maison-Blanche pourrait proposer une réduction de 50 % du budget des activités scientifiques de la NASA, selon la Planetary Society, une association très connue dans le milieu de l’astrophysique et regroupant plus de 60 000 membres.

« Un tel effondrement du financement pourrait faire perdre à l’Amérique son leadership dans le domaine de l’exploration scientifique de l’espace. Elle pourrait également briser la filière d’enseignement des sciences, de la technologie, de l’ingénierie et des mathématiques (STEM) et décimer la main-d’œuvre scientifique et d’ingénierie la plus compétente et la plus accomplie au monde », affirme l’association.

Interrogée par ArsTechnica sur le sujet, la responsable des missions scientifiques de la NASA, Nicola Fox, a répondu : « nous n’avons pas encore reçu d’informations sur le budget, et je déteste planifier quelque chose sur la base de rumeurs et de spéculations ». Et d’ajouter, « nous continuerons à faire de la bonne science. Nous continuerons à avoir un portefeuille scientifique équilibré, c’est certain. Nous serons reconnaissants de ce que nous recevrons, et nous ferons de grandes choses avec cela ».

Ces réductions sont prévues par le directeur du bureau de la gestion et du budget de Donald Trump, Russell Vought. Comme l’expliquent nos confrères, elles sont en adéquation avec le budget « fantôme » qu’il avait proposé en 2022 pour l’année 2023, lorsque le camp Républicain était dans l’opposition :

« Le budget propose également une réduction de 50 % des programmes et des dépenses scientifiques de la NASA, en réduisant les dépenses du système de réduction des émissions de carbone et les programmes sur le changement climatique mondial, qui sont malavisés », proposait-il [PDF].

« Si ces réductions devaient se concrétiser, il en résulterait rien de moins qu’une extinction des sciences et de l’exploration spatiales aux États-Unis », commente Planetary Society.

☕️ DOGE : L’Agence de cybersécurité américaine CISA n’est pas épargnée par les licenciements

Plus d’une centaine de salariés de l’agence de cybersécurité américaine CISA ont été licenciés fin février – début mars, selon plusieurs sources de TechCrunch.

Si la CISA a nié avoir mis sur pause ses cyberopérations en cours contre la Russie, l’agence est quand même affaiblie par les décisions du DOGE dirigé par Elon Musk.

Celui-ci a décidé, selon TechCrunch, une troisième vague de licenciements au sein de la CISA. La première a eu lieu en janvier, touchant notamment des agents travaillant sur la sécurité des élections. Le DOGE aurait décidé d’une seconde vague de plus de 130 licenciements au début du mois de février.

Pour la troisième, les sources de TechCrunch parlent de 110 à 130 personnes licenciées, dont des personnes de la « Red team », l’équipe qui simule des attaques afin d’identifier les faiblesses des réseaux.

Le porte-parole de la CISA a refusé de commenter auprès de nos confrères cette dernière suppression d’emplois mais affirme que la « Red team » « reste opérationnelle », mais que l’agence « examine tous les contrats pour s’assurer qu’ils s’alignent sur les priorités de la nouvelle administration ».

☕️ DOGE : L’Agence de cybersécurité américaine CISA n’est pas épargnée par les licenciements

Plus d’une centaine de salariés de l’agence de cybersécurité américaine CISA ont été licenciés fin février – début mars, selon plusieurs sources de TechCrunch.

Si la CISA a nié avoir mis sur pause ses cyberopérations en cours contre la Russie, l’agence est quand même affaiblie par les décisions du DOGE dirigé par Elon Musk.

Celui-ci a décidé, selon TechCrunch, une troisième vague de licenciements au sein de la CISA. La première a eu lieu en janvier, touchant notamment des agents travaillant sur la sécurité des élections. Le DOGE aurait décidé d’une seconde vague de plus de 130 licenciements au début du mois de février.

Pour la troisième, les sources de TechCrunch parlent de 110 à 130 personnes licenciées, dont des personnes de la « Red team », l’équipe qui simule des attaques afin d’identifier les faiblesses des réseaux.

Le porte-parole de la CISA a refusé de commenter auprès de nos confrères cette dernière suppression d’emplois mais affirme que la « Red team » « reste opérationnelle », mais que l’agence « examine tous les contrats pour s’assurer qu’ils s’alignent sur les priorités de la nouvelle administration ».

Facebook aurait créé un outil de censure pour pouvoir entrer sur le marché chinois

Comment donc ?
Facebook aurait créé un outil de censure pour pouvoir entrer sur le marché chinois

L’ancienne directrice des politiques publiques mondiales de Facebook, Sarah Wynn-Williams, accuse Facebook d’avoir proposé en 2015 au régime chinois un outil de censure pour pouvoir être autorisé dans le pays dirigé par Xi Jinping. En vain.

Sarah Wynn-Williams est l’ancienne directrice des politiques publiques mondiales de Facebook. Embauchée en 2011, alors que l’entreprise ne s’appelait pas encore Meta, elle a géré les relations de l’entreprise avec les pays d’Amérique latine, du Canada ou encore de la région Asie-Pacifique, dont la Chine.

Et selon elle, Facebook a travaillé « main dans la main » avec le gouvernement chinois sur de potentiels moyens de lui permettre de censurer et contrôler le contenu vu et publié en Chine, explique la BBC.

Interrogé par le média britannique, Meta affirme : « ce n’est pas un secret que nous avons été un jour intéressés […] Nous avons finalement décidé de ne pas donner suite aux idées que nous avions explorées ». L’entreprise affirme par ailleurs que Sarah Wynn-Williams a été licenciée « pour mauvaise performance » en 2017.

Une plainte déposée devant la SEC

Mais Sarah Wynn-Williams détaille plus longuement ses accusations dans une plainte formelle déposée devant la Securities and Exchange Commission (SEC) en avril 2024. Celle-ci allègue que Facebook était prêt à permettre au Parti Communiste Chinois de superviser tous les contenus qui étaient visibles dans son pays et de censurer toute opinion dissidente, selon le Washington Post qui a eu accès à la plainte.

Dans ce document, elle affirme que l’entreprise a été jusqu’à créer un système de censure avec un rôle de « rédacteur en chef » qui aurait pu décider le contenu à supprimer, ainsi qu’une fonction permettant de fermer le site pendant d’éventuels « troubles sociaux ».

Mark Zuckerberg aurait accepté la fermeture du compte d’un dissident chinois vivant aux États-Unis suite aux pressions d’un responsable chinois dont l’entreprise espérait le soutien, affirmerait encore la plainte.

L’entreprise a « fait de l’obstruction et fourni des informations non pertinentes ou trompeuses » lorsqu’elle a été interrogée sur ses actions pour pénétrer le marché chinois par les investisseurs et les régulateurs américains, affirment les avocats de Sarah Wynn-Williams.

Longue de 78 pages, sa plainte est accompagnée de documents internes de l’entreprise. Selon le Washington Post, dans l’un d’entre eux, le gouvernement chinois aurait émis « des pressions agressives […] pour héberger les données des utilisateurs chinois dans des centres de données locaux ».

« Dans les pays à tendance autoritaire comme la Chine, les contrôles gouvernementaux stricts sur les flux de données sont transformés en outils de censure, de surveillance et de répression » a commenté Katitza Rodriguez de l’Electronic Frontier Foundation.

Nom de code : Projet Aldrin

Dans sa plainte, Sarah Wynn-Williams explique que Mark Zuckerberg a mis en place en 2014 une « équipe Chine » chargée de développer une version de Facebook compatible avec le régime autoritaire. Nom de code : « projet Aldrin », en référence à l’astronaute Buzz Aldrin. Le but aurait été de démontrer la bonne volonté de l’entreprise face aux exigences du parti au pouvoir.

Le dossier accompagnant la plainte est composé de nombreuses lettres montrant la motivation de Facebook à remplir les conditions souhaitées par la Chine. Par exemple, un salarié de l’entreprise chargé de la politique de protection de la vie privée aurait écrit : « en échange de la possibilité d’établir des activités en Chine, Facebook acceptera d’accorder au gouvernement chinois l’accès aux données des utilisateurs chinois, y compris les données des utilisateurs hongkongais ».

« Cela a été largement rapporté il y a une dizaine d’années », relativise Meta interrogée par le Washington Post, ajoutant « nous avons finalement choisi de ne pas aller jusqu’au bout des idées que nous avions explorées, ce que Mark Zuckerberg a annoncé en 2019 ».

Sarah Wynn-Williams prévoit de sortir aux États-Unis un livre titré « Careless People » (qu’on peut traduire par « D’insouciantes personnes »). Selon le New York Times, il raconte en détail le projet Aldrin dans un chapitre entier.

Elle y rappelle que Mark Zuckerberg avait été interrogé devant une commission sénatoriale en 2018 sur la gestion par Facebook du refus du gouvernement chinois « de permettre à une plateforme de médias sociaux – étrangère ou nationale – d’opérer en Chine à moins qu’elle n’accepte de se conformer à la loi chinoise ». Le CEO de Meta avait répondu : « aucune décision n’a été prise concernant les conditions dans lesquelles un éventuel service futur pourrait être offert en Chine ». À quoi Sarah Wynn-Williams rétorque qu’ « il ment ».

Facebook aurait créé un outil de censure pour pouvoir entrer sur le marché chinois

Comment donc ?
Facebook aurait créé un outil de censure pour pouvoir entrer sur le marché chinois

L’ancienne directrice des politiques publiques mondiales de Facebook, Sarah Wynn-Williams, accuse Facebook d’avoir proposé en 2015 au régime chinois un outil de censure pour pouvoir être autorisé dans le pays dirigé par Xi Jinping. En vain.

Sarah Wynn-Williams est l’ancienne directrice des politiques publiques mondiales de Facebook. Embauchée en 2011, alors que l’entreprise ne s’appelait pas encore Meta, elle a géré les relations de l’entreprise avec les pays d’Amérique latine, du Canada ou encore de la région Asie-Pacifique, dont la Chine.

Et selon elle, Facebook a travaillé « main dans la main » avec le gouvernement chinois sur de potentiels moyens de lui permettre de censurer et contrôler le contenu vu et publié en Chine, explique la BBC.

Interrogé par le média britannique, Meta affirme : « ce n’est pas un secret que nous avons été un jour intéressés […] Nous avons finalement décidé de ne pas donner suite aux idées que nous avions explorées ». L’entreprise affirme par ailleurs que Sarah Wynn-Williams a été licenciée « pour mauvaise performance » en 2017.

Une plainte déposée devant la SEC

Mais Sarah Wynn-Williams détaille plus longuement ses accusations dans une plainte formelle déposée devant la Securities and Exchange Commission (SEC) en avril 2024. Celle-ci allègue que Facebook était prêt à permettre au Parti Communiste Chinois de superviser tous les contenus qui étaient visibles dans son pays et de censurer toute opinion dissidente, selon le Washington Post qui a eu accès à la plainte.

Dans ce document, elle affirme que l’entreprise a été jusqu’à créer un système de censure avec un rôle de « rédacteur en chef » qui aurait pu décider le contenu à supprimer, ainsi qu’une fonction permettant de fermer le site pendant d’éventuels « troubles sociaux ».

Mark Zuckerberg aurait accepté la fermeture du compte d’un dissident chinois vivant aux États-Unis suite aux pressions d’un responsable chinois dont l’entreprise espérait le soutien, affirmerait encore la plainte.

L’entreprise a « fait de l’obstruction et fourni des informations non pertinentes ou trompeuses » lorsqu’elle a été interrogée sur ses actions pour pénétrer le marché chinois par les investisseurs et les régulateurs américains, affirment les avocats de Sarah Wynn-Williams.

Longue de 78 pages, sa plainte est accompagnée de documents internes de l’entreprise. Selon le Washington Post, dans l’un d’entre eux, le gouvernement chinois aurait émis « des pressions agressives […] pour héberger les données des utilisateurs chinois dans des centres de données locaux ».

« Dans les pays à tendance autoritaire comme la Chine, les contrôles gouvernementaux stricts sur les flux de données sont transformés en outils de censure, de surveillance et de répression » a commenté Katitza Rodriguez de l’Electronic Frontier Foundation.

Nom de code : Projet Aldrin

Dans sa plainte, Sarah Wynn-Williams explique que Mark Zuckerberg a mis en place en 2014 une « équipe Chine » chargée de développer une version de Facebook compatible avec le régime autoritaire. Nom de code : « projet Aldrin », en référence à l’astronaute Buzz Aldrin. Le but aurait été de démontrer la bonne volonté de l’entreprise face aux exigences du parti au pouvoir.

Le dossier accompagnant la plainte est composé de nombreuses lettres montrant la motivation de Facebook à remplir les conditions souhaitées par la Chine. Par exemple, un salarié de l’entreprise chargé de la politique de protection de la vie privée aurait écrit : « en échange de la possibilité d’établir des activités en Chine, Facebook acceptera d’accorder au gouvernement chinois l’accès aux données des utilisateurs chinois, y compris les données des utilisateurs hongkongais ».

« Cela a été largement rapporté il y a une dizaine d’années », relativise Meta interrogée par le Washington Post, ajoutant « nous avons finalement choisi de ne pas aller jusqu’au bout des idées que nous avions explorées, ce que Mark Zuckerberg a annoncé en 2019 ».

Sarah Wynn-Williams prévoit de sortir aux États-Unis un livre titré « Careless People » (qu’on peut traduire par « D’insouciantes personnes »). Selon le New York Times, il raconte en détail le projet Aldrin dans un chapitre entier.

Elle y rappelle que Mark Zuckerberg avait été interrogé devant une commission sénatoriale en 2018 sur la gestion par Facebook du refus du gouvernement chinois « de permettre à une plateforme de médias sociaux – étrangère ou nationale – d’opérer en Chine à moins qu’elle n’accepte de se conformer à la loi chinoise ». Le CEO de Meta avait répondu : « aucune décision n’a été prise concernant les conditions dans lesquelles un éventuel service futur pourrait être offert en Chine ». À quoi Sarah Wynn-Williams rétorque qu’ « il ment ».

Trump attaque encore la NASA, la NOAA, la recherche et les données scientifiques

"Houston, we have a problem"
Trump attaque encore la NASA, la NOAA, la recherche et les données scientifiques

La NASA a annoncé hier la suppression du poste de « scientifique en chef » de l’agence, un poste qui concerne tous les programmes scientifiques de la NASA et jusqu’alors occupé par Katherine Calvin, chercheuse qui travaille sur le climat. En parallèle, les licenciements continuent à la NOAA et le Pentagone « se débarrasse » des recherches en sciences sociales qu’il finançait.

L’administratrice par intérim de la NASA nommée par Donald Trump, Janet Petro, a envoyé le lundi 10 mars au personnel de l’agence un email annonçant, entre autres, la suppression du bureau de la scientifique en chef de la NASA qui est occupé par la chercheuse Katherine Calvin, reconnue pour son travail sur le climat.

L’agence avait déjà décidé, fin février, de bloquer son budget consacré au GIEC ainsi que la participation de Katherine Calvin à la conférence du groupe d’experts. Elle y était attendue pourtant en tant que co-responsable du groupe de travail III, qui se concentre sur l’atténuation du changement climatique.

Suppression des bureaux de conseils scientifiques et technologique

Comme le rappelle Science, ce bureau est à distinguer, au sein de l’agence, de la direction des missions scientifiques de la NASA. Son rôle était de « conseiller l’administratrice de la NASA et de veiller à ce que la voix de la science soit bien présente au siège et coordonnée entre les différentes branches de l’agence », explique la revue scientifique. Il existait depuis les années 80, même si le poste de responsable a parfois été vacant.

Cette suppression n’est pas la seule mesure de réduction des effectifs en cours à la NASA. Janet Petro annonce dans son email la suppression du Bureau Technologie, Gouvernance et Stratégie. Celui-ci, créé en 2021 sous le gouvernement Biden et issu de deux autres services, devait notamment appuyer ses conseils sur des données et des preuves, expliquait SpaceNews, à l’époque.

Janet Petro a aussi annoncé, suivant ses collègues des autres agences fédérales, la suppression du service « Diversité, équité et inclusion » de la NASA. L’administratrice explique ces décisions par l’application du décret pris par Donald Trump le 11 février dernier qui met en place le DOGE dirigé par Elon Musk.

1029 employés de plus licenciés à la NOAA

En parallèle, la National Oceanic and Atmospheric Administration (NOAA) est allé plus loin dans la coupe de ses effectifs. Cette agence qui joue un rôle très important dans la gestion des données et le travail sur le climat, avait déjà renvoyé plusieurs centaines d’agents en période d’essai en février et planifié de se séparer de bâtiments abritant des projets importants. Mais, selon The Hill, l’agence prévoit maintenant le départ de 1 029 employés. D’après les sources de nos confrères, l’agence est poussée à se séparer de branches entières plutôt que de réduire les effectifs un peu partout.

Cette nouvelle demande se fait alors que des employés précédemment renvoyés sont rappelés, explique The Hill sans pouvoir, cependant, quantifier le nombre de retours.

L’agence n’a pas voulu répondre au média, affirmant seulement : « la NOAA reste dévouée à sa mission, qui consiste à fournir des informations, des recherches et des ressources en temps opportun au public américain et à garantir la résilience environnementale et économique de notre pays ».

Le New York Times explique pourtant que les départs qui ont déjà eu lieu ont eu des effets sur plusieurs missions de l’agence. Et de lister : la prévision des ouragans et des tornades, la surveillance de la pêche et des espèces menacées et le suivi des modifications du climat et des écosystèmes dues à l’humain.

Le ministère de la Défense se « débarrasse » des sciences sociales

Les financements de la recherche sont traqués dans toutes les administrations fédérales par le gouvernement de Donald Trump. Ainsi, le ministère de la Défense (Department of Defense, DoD) a annoncé vendredi dernier via un communiqué de presse qu’il « se débarrass[ait] de la recherche en sciences sociales » et arrêtait net le financement de 91 études scientifiques.

Le DoD donne une liste non-exhaustive de ces recherches qui portent notamment sur les conséquences du changement climatique sur certaines populations mondiales, sur l’extrémisme, sur l’utilisation du complotisme comme arme, ou encore des études sur les migrations.

Interrogé par CNN, le porte-parole du ministère affirme que le DoD « travaille en étroite collaboration avec le DOGE pour identifier les gains d’efficacité et les économies dans l’ensemble du ministère au nom des contribuables, tandis que nous restaurons l’éthique guerrière et recentrons notre armée sur sa mission principale, qui est de dissuader, de combattre et de gagner des guerres ». Il a ajouté « le fanatisme climatique et les autres chimères de la gauche ne font pas partie de cette mission fondamentale ».

Ces sujets peuvent pourtant être très utiles à l’armée pour comprendre le monde dans laquelle elle doit agir. À CNN, l’ancien secrétaire adjoint de l’armée de l’air pour l’énergie, les installations et l’environnement, Ravi Chaudhary, a déclaré que les programmes relatifs au climat ne sont pas seulement importants pour donner à l’armée américaine un avantage sur des adversaires tels que la Chine, mais qu’ils contribuent également à assurer la sécurité des militaires et de leurs familles.

« Je pense qu’ils sont bloqués sur le mot « climat » et qu’ils ne voient pas les impacts opérationnels », a déclaré à CNN, un responsable anonymisé par le média, ajoutant que les réductions poseront des « problèmes de préparation dans tous les domaines ».

Réagissant à l’article de CNN, le secrétaire à la Défense des États-Unis, Pete Hegseth a déclaré sur X : « le DoD ne fait pas de conneries sur le changement climatique. Nous nous occupons d’entraînement et de combat ».

Ces abandons des financements de recherche s’accompagnent de l’arrêt d’outils s’appuyant sur des données scientifiques. Par exemple, le site web d’un programme de surveillance de la qualité de l’air dans le monde qui s’appuyait sur le réseau des ambassades et consulats américains dans le monde entier « afin d’informer le personnel et les citoyens américains à l’étranger ». Celui-ci affiche maintenant une page d’erreur 404. On peut voir, grâce à Internet Archive, que la page donnait des informations sur l’état de l’air partout dans le monde.

Selon le média EOS, les données seraient pour l’instant encore collectées via les capteurs situés dans les ambassades américaines mais elles ne seraient plus reportées sur le site AirNow.gov géré par l’agence de protection environnementale fédérale Environmental Protection Agency (EPA).

Trump attaque encore la NASA, la NOAA, la recherche et les données scientifiques

"Houston, we have a problem"
Trump attaque encore la NASA, la NOAA, la recherche et les données scientifiques

La NASA a annoncé hier la suppression du poste de « scientifique en chef » de l’agence, un poste qui concerne tous les programmes scientifiques de la NASA et jusqu’alors occupé par Katherine Calvin, chercheuse qui travaille sur le climat. En parallèle, les licenciements continuent à la NOAA et le Pentagone « se débarrasse » des recherches en sciences sociales qu’il finançait.

L’administratrice par intérim de la NASA nommée par Donald Trump, Janet Petro, a envoyé le lundi 10 mars au personnel de l’agence un email annonçant, entre autres, la suppression du bureau de la scientifique en chef de la NASA qui est occupé par la chercheuse Katherine Calvin, reconnue pour son travail sur le climat.

L’agence avait déjà décidé, fin février, de bloquer son budget consacré au GIEC ainsi que la participation de Katherine Calvin à la conférence du groupe d’experts. Elle y était attendue pourtant en tant que co-responsable du groupe de travail III, qui se concentre sur l’atténuation du changement climatique.

Suppression des bureaux de conseils scientifiques et technologique

Comme le rappelle Science, ce bureau est à distinguer, au sein de l’agence, de la direction des missions scientifiques de la NASA. Son rôle était de « conseiller l’administratrice de la NASA et de veiller à ce que la voix de la science soit bien présente au siège et coordonnée entre les différentes branches de l’agence », explique la revue scientifique. Il existait depuis les années 80, même si le poste de responsable a parfois été vacant.

Cette suppression n’est pas la seule mesure de réduction des effectifs en cours à la NASA. Janet Petro annonce dans son email la suppression du Bureau Technologie, Gouvernance et Stratégie. Celui-ci, créé en 2021 sous le gouvernement Biden et issu de deux autres services, devait notamment appuyer ses conseils sur des données et des preuves, expliquait SpaceNews, à l’époque.

Janet Petro a aussi annoncé, suivant ses collègues des autres agences fédérales, la suppression du service « Diversité, équité et inclusion » de la NASA. L’administratrice explique ces décisions par l’application du décret pris par Donald Trump le 11 février dernier qui met en place le DOGE dirigé par Elon Musk.

1029 employés de plus licenciés à la NOAA

En parallèle, la National Oceanic and Atmospheric Administration (NOAA) est allé plus loin dans la coupe de ses effectifs. Cette agence qui joue un rôle très important dans la gestion des données et le travail sur le climat, avait déjà renvoyé plusieurs centaines d’agents en période d’essai en février et planifié de se séparer de bâtiments abritant des projets importants. Mais, selon The Hill, l’agence prévoit maintenant le départ de 1 029 employés. D’après les sources de nos confrères, l’agence est poussée à se séparer de branches entières plutôt que de réduire les effectifs un peu partout.

Cette nouvelle demande se fait alors que des employés précédemment renvoyés sont rappelés, explique The Hill sans pouvoir, cependant, quantifier le nombre de retours.

L’agence n’a pas voulu répondre au média, affirmant seulement : « la NOAA reste dévouée à sa mission, qui consiste à fournir des informations, des recherches et des ressources en temps opportun au public américain et à garantir la résilience environnementale et économique de notre pays ».

Le New York Times explique pourtant que les départs qui ont déjà eu lieu ont eu des effets sur plusieurs missions de l’agence. Et de lister : la prévision des ouragans et des tornades, la surveillance de la pêche et des espèces menacées et le suivi des modifications du climat et des écosystèmes dues à l’humain.

Le ministère de la Défense se « débarrasse » des sciences sociales

Les financements de la recherche sont traqués dans toutes les administrations fédérales par le gouvernement de Donald Trump. Ainsi, le ministère de la Défense (Department of Defense, DoD) a annoncé vendredi dernier via un communiqué de presse qu’il « se débarrass[ait] de la recherche en sciences sociales » et arrêtait net le financement de 91 études scientifiques.

Le DoD donne une liste non-exhaustive de ces recherches qui portent notamment sur les conséquences du changement climatique sur certaines populations mondiales, sur l’extrémisme, sur l’utilisation du complotisme comme arme, ou encore des études sur les migrations.

Interrogé par CNN, le porte-parole du ministère affirme que le DoD « travaille en étroite collaboration avec le DOGE pour identifier les gains d’efficacité et les économies dans l’ensemble du ministère au nom des contribuables, tandis que nous restaurons l’éthique guerrière et recentrons notre armée sur sa mission principale, qui est de dissuader, de combattre et de gagner des guerres ». Il a ajouté « le fanatisme climatique et les autres chimères de la gauche ne font pas partie de cette mission fondamentale ».

Ces sujets peuvent pourtant être très utiles à l’armée pour comprendre le monde dans laquelle elle doit agir. À CNN, l’ancien secrétaire adjoint de l’armée de l’air pour l’énergie, les installations et l’environnement, Ravi Chaudhary, a déclaré que les programmes relatifs au climat ne sont pas seulement importants pour donner à l’armée américaine un avantage sur des adversaires tels que la Chine, mais qu’ils contribuent également à assurer la sécurité des militaires et de leurs familles.

« Je pense qu’ils sont bloqués sur le mot « climat » et qu’ils ne voient pas les impacts opérationnels », a déclaré à CNN, un responsable anonymisé par le média, ajoutant que les réductions poseront des « problèmes de préparation dans tous les domaines ».

Réagissant à l’article de CNN, le secrétaire à la Défense des États-Unis, Pete Hegseth a déclaré sur X : « le DoD ne fait pas de conneries sur le changement climatique. Nous nous occupons d’entraînement et de combat ».

Ces abandons des financements de recherche s’accompagnent de l’arrêt d’outils s’appuyant sur des données scientifiques. Par exemple, le site web d’un programme de surveillance de la qualité de l’air dans le monde qui s’appuyait sur le réseau des ambassades et consulats américains dans le monde entier « afin d’informer le personnel et les citoyens américains à l’étranger ». Celui-ci affiche maintenant une page d’erreur 404. On peut voir, grâce à Internet Archive, que la page donnait des informations sur l’état de l’air partout dans le monde.

Selon le média EOS, les données seraient pour l’instant encore collectées via les capteurs situés dans les ambassades américaines mais elles ne seraient plus reportées sur le site AirNow.gov géré par l’agence de protection environnementale fédérale Environmental Protection Agency (EPA).

Malvertising : GitHub, Dropbox et Discord utilisés pour infecter un million d’appareils

I had a bad stream
Malvertising : GitHub, Dropbox et Discord utilisés pour infecter un million d’appareils

Microsoft a découvert fin 2024 une campagne de « malvertising » utilisant des sites de streaming vidéo pour télécharger des malwares sur GitHub, Dropbox ou encore Discord.

L’équipe de recherche Microsoft Threat Intelligence explique dans un billet de blog publié jeudi 6 mars qu’elle a découvert que la plateforme d’hébergement et de versioning GitHub a été utilisée par des pirates pour déposer des malwares sur au moins un million d’appareils.

Selon les chercheurs, GitHub était la principale plateforme utilisée pour propager les malwares, mais elle n’était pas la seule : Discord et Dropbox aussi. Les utilisateurs étaient redirigés vers ces malwares par des plateformes de streaming illégales qui incluaient sur les vidéos non pas, comme habituellement, des publicités, mais une campagne de « malvertising », cette technique qui consiste à utiliser la pub pour propager des virus.

Plusieurs couches

Ils expliquent que les dépôts GitHub n’étaient pas utilisés pour stocker des virus en tant que tel, mais des exécutables qui déployaient d’autres fichiers et scripts malveillants. Ces fichiers étaient utilisés pour collecter des informations sur le système sur lequel ils étaient installés, comme la taille de la mémoire, la résolution de l’écran, le système d’exploitation et les chemins d’accès de l’utilisateur. Puis ils configuraient d’autres malwares et scripts pour « exfiltrer les documents et données de l’hôte compromis » et des techniques d’ « évasion » pour contourner de potentiels systèmes de sécurité en place.

Une cascade de redirections

Avant d’être dirigés vers ces fichiers hébergés sur GitHub, les utilisateurs passaient par une série d’autres redirections mise en place par les pirates pour obfusquer le lien entre les sites de streaming illégaux et les dépôts GitHub.

Le premier lien était inclus directement dans l’iframe de la vidéo du streaming utilisée pour générer des revenus de paiement aux clics ou aux vues. « Ces redirections acheminaient ensuite le trafic vers un ou deux autres redirections malveillantes, qui menaient finalement à un autre site web, tel qu’un site de logiciels malveillants ou d’escroquerie à l’assistance technique, qui redirigeait ensuite vers GitHub », explique Microsoft.

Ensuite, en fonction des données collectées sur l’appareil, étaient donc installés des malwares. La plupart du temps, Lumma Stealer ou une version mise à jour de Doenerium était installé. Les chercheurs expliquent que le malware utilisait soit des binaires, soit des scripts « living-off-the-land ». Ceux-ci se servent d’outils déjà présents dans l’environnement, comme PowerShell.exe, MSBuild.exe et RegAsm.exe, pour mener à bien leur attaque.

Microsoft indique que les dépôts GitHub malveillants ont depuis été supprimés.

Malvertising : GitHub, Dropbox et Discord utilisés pour infecter un million d’appareils

I had a bad stream
Malvertising : GitHub, Dropbox et Discord utilisés pour infecter un million d’appareils

Microsoft a découvert fin 2024 une campagne de « malvertising » utilisant des sites de streaming vidéo pour télécharger des malwares sur GitHub, Dropbox ou encore Discord.

L’équipe de recherche Microsoft Threat Intelligence explique dans un billet de blog publié jeudi 6 mars qu’elle a découvert que la plateforme d’hébergement et de versioning GitHub a été utilisée par des pirates pour déposer des malwares sur au moins un million d’appareils.

Selon les chercheurs, GitHub était la principale plateforme utilisée pour propager les malwares, mais elle n’était pas la seule : Discord et Dropbox aussi. Les utilisateurs étaient redirigés vers ces malwares par des plateformes de streaming illégales qui incluaient sur les vidéos non pas, comme habituellement, des publicités, mais une campagne de « malvertising », cette technique qui consiste à utiliser la pub pour propager des virus.

Plusieurs couches

Ils expliquent que les dépôts GitHub n’étaient pas utilisés pour stocker des virus en tant que tel, mais des exécutables qui déployaient d’autres fichiers et scripts malveillants. Ces fichiers étaient utilisés pour collecter des informations sur le système sur lequel ils étaient installés, comme la taille de la mémoire, la résolution de l’écran, le système d’exploitation et les chemins d’accès de l’utilisateur. Puis ils configuraient d’autres malwares et scripts pour « exfiltrer les documents et données de l’hôte compromis » et des techniques d’ « évasion » pour contourner de potentiels systèmes de sécurité en place.

Une cascade de redirections

Avant d’être dirigés vers ces fichiers hébergés sur GitHub, les utilisateurs passaient par une série d’autres redirections mise en place par les pirates pour obfusquer le lien entre les sites de streaming illégaux et les dépôts GitHub.

Le premier lien était inclus directement dans l’iframe de la vidéo du streaming utilisée pour générer des revenus de paiement aux clics ou aux vues. « Ces redirections acheminaient ensuite le trafic vers un ou deux autres redirections malveillantes, qui menaient finalement à un autre site web, tel qu’un site de logiciels malveillants ou d’escroquerie à l’assistance technique, qui redirigeait ensuite vers GitHub », explique Microsoft.

Ensuite, en fonction des données collectées sur l’appareil, étaient donc installés des malwares. La plupart du temps, Lumma Stealer ou une version mise à jour de Doenerium était installé. Les chercheurs expliquent que le malware utilisait soit des binaires, soit des scripts « living-off-the-land ». Ceux-ci se servent d’outils déjà présents dans l’environnement, comme PowerShell.exe, MSBuild.exe et RegAsm.exe, pour mener à bien leur attaque.

Microsoft indique que les dépôts GitHub malveillants ont depuis été supprimés.

États-Unis : une IA pour traquer les propos des étudiants étrangers et révoquer leurs visas

IA partout
États-Unis : une IA pour traquer les propos des étudiants étrangers et révoquer leurs visas

Le Secrétaire d’État des États-Unis, Marco Rubio, veut mettre en place un système appelé « Catch and Revoke » pour traquer les étudiants étrangers qui porteraient des propos étiquetés comme « pro-hamas » en vue de révoquer leurs visas. Des associations s’alarment contre l’érosion de la liberté d’expression et de la vie privée.

Dès l’arrivée de Donald Trump au pouvoir, son gouvernement a traqué les termes utilisés par les agences fédérales pour les censurer. Et Elon Musk et ses proches veulent intégrer de l’IA dans l’informatique de l’État américain au prétexte de le rendre plus « efficace ».

« Attraper et révoquer »

Dans la même démarche, Marco Rubio, le Secrétaire d’État des États-Unis (l’équivalent du ministre des affaires étrangères) veut mettre en place un système nommé « Catch and Revoke » (en français, « attraper et révoquer ») alimenté par l’IA dont le but est de traquer les propos des étudiants étrangers. L’idée est de chercher toute parole qui pourrait être interprétée comme un soutien au Hamas et révoquer le visa des étudiants qui les auraient portées. Ce projet devrait examiner des « dizaines de milliers de comptes de médias sociaux de titulaires de visas étudiants », explique Axios.

Ce projet s’inscrit dans la suite d’un décret publié par Donald Trump le 29 janvier dernier censé combattre l’anti-sémitisme. Rappelons qu’Elon Musk, nommé à la tête du DOGE, a promu l’antisémitisme sur son réseau social en 2023 et effectué plusieurs saluts nazis lors de l’investiture de Donald Trump.

Une fiche d’information publiée le lendemain pour expliquer ce décret affirmait :

« Donald Trump avait promis que le gouvernement fédéral allait expulser les sympathisants du Hamas et révoquer les visas d’étudiants :  » À tous les étrangers résidents qui ont participé aux manifestations pro-djihadistes, nous vous mettons en garde : 2025 arrive, nous vous trouverons et nous vous expulserons. Je vais également annuler rapidement les visas d’étudiants de tous les sympathisants du Hamas sur les campus universitaires, qui ont été infestés par le radicalisme comme jamais auparavant. »»

Cela « marque une escalade spectaculaire dans la surveillance par le gouvernement américain des comportements et des propos des ressortissants étrangers », commentent nos confrères.

Selon Axios, les responsables de ce projet le justifient en arguant qu’ils n’ont constaté aucun visa révoqué pour cause d’arrestation ou de suspension d’un campus universitaire sous le mandat de Joe Biden dans la base de données du ministère. En octobre 2023, après l’attaque terroriste du Hamas contre Israël, Marco Rubio avait déjà exprimé sa volonté d’ « annuler le visa de tous les ressortissants étrangers qui soutiennent le Hamas et les expulser d’Amérique ».

La liberté d’expression érodée selon des associations américaines

Les outils d’IA « ne peuvent pas être utilisés pour analyser les nuances de l’expression sur des sujets complexes et contestés comme le conflit israélo-palestinien », a déclaré Sarah McLaughlin, chercheuse de l’ONG FIRE à Reuters. L’agence de presse cite aussi un communiqué de l’American-Arab Anti-Discrimination Committee que ce projet « signale une érosion alarmante de la liberté d’expression et des droits à la vie privée protégés par la Constitution ». Reuters rappelle que le premier amendement de la Constitution américaine protège la liberté d’expression et de réunion.

Arrestation d’un militant pro-palestinien ce week-end sans mandat

Ce samedi 8 mars, des policiers de l’agence de l’immigration ICE ont arrêté le leader du Campement de solidarité avec Gaza à l’Université de Columbia, Mahmoud Khalil, explique Reuters. Cet étudiant palestinien a joué un rôle important lors des manifestations pro-palestiniennes sur le campus de l’université. Il a été arrêté au sein de sa résidence universitaire qui se trouve sur le campus de Columbia.

Sa femme, une citoyenne américaine enceinte de 8 mois, était avec lui au moment de l’arrestation, explique le journaliste Meghnad Bose, dans sa newsletter Drop Site. Celle-ci cite le communiqué du groupe militant Writers Against the War on Gaza (WAWOG) qui affirme que Mahmoud Khalil a été « enlevé et détenu sans qu’un mandat d’arrêt n’ait été délivré ou que des charges n’aient été officiellement retenues ».

Selon Reuters, l’université Columbia a révisé la semaine dernière le protocole concernant les agents fédéraux de l’immigration au sein de son campus leur laissant la possibilité d’entrer sans mandat d’arrêt judiciaire dans des « circonstances urgentes », qu’elle n’a pas précisées. Mais l’université a affirmé sur son site : « Conformément à notre pratique de longue date et à celle des villes et institutions du pays, les forces de l’ordre doivent disposer d’un mandat judiciaire pour pénétrer dans les zones non publiques de l’université, y compris les bâtiments de l’université. Columbia s’engage à respecter toutes les obligations légales et à soutenir ses étudiants et la communauté universitaire ».

Citant la dépêche d’Associated Press sur le sujet, Marco Rubio a affirmé sur X : « Nous allons révoquer les visas et/ou les cartes vertes des partisans du Hamas en Amérique afin qu’ils puissent être expulsés ».

Pourtant, Reuters explique qu’aucun ministère n’a indiqué que Khalil était accusé d’avoir apporté un soutien matériel au Hamas ou d’avoir commis un autre crime. L’agence de presse explique que Khalil a qualifié le mouvement d’anti-guerre comprenant des étudiants et des groupes juifs et rejetant les allégations d’antisémitisme.

États-Unis : une IA pour traquer les propos des étudiants étrangers et révoquer leurs visas

IA partout
États-Unis : une IA pour traquer les propos des étudiants étrangers et révoquer leurs visas

Le Secrétaire d’État des États-Unis, Marco Rubio, veut mettre en place un système appelé « Catch and Revoke » pour traquer les étudiants étrangers qui porteraient des propos étiquetés comme « pro-hamas » en vue de révoquer leurs visas. Des associations s’alarment contre l’érosion de la liberté d’expression et de la vie privée.

Dès l’arrivée de Donald Trump au pouvoir, son gouvernement a traqué les termes utilisés par les agences fédérales pour les censurer. Et Elon Musk et ses proches veulent intégrer de l’IA dans l’informatique de l’État américain au prétexte de le rendre plus « efficace ».

« Attraper et révoquer »

Dans la même démarche, Marco Rubio, le Secrétaire d’État des États-Unis (l’équivalent du ministre des affaires étrangères) veut mettre en place un système nommé « Catch and Revoke » (en français, « attraper et révoquer ») alimenté par l’IA dont le but est de traquer les propos des étudiants étrangers. L’idée est de chercher toute parole qui pourrait être interprétée comme un soutien au Hamas et révoquer le visa des étudiants qui les auraient portées. Ce projet devrait examiner des « dizaines de milliers de comptes de médias sociaux de titulaires de visas étudiants », explique Axios.

Ce projet s’inscrit dans la suite d’un décret publié par Donald Trump le 29 janvier dernier censé combattre l’anti-sémitisme. Rappelons qu’Elon Musk, nommé à la tête du DOGE, a promu l’antisémitisme sur son réseau social en 2023 et effectué plusieurs saluts nazis lors de l’investiture de Donald Trump.

Une fiche d’information publiée le lendemain pour expliquer ce décret affirmait :

« Donald Trump avait promis que le gouvernement fédéral allait expulser les sympathisants du Hamas et révoquer les visas d’étudiants :  » À tous les étrangers résidents qui ont participé aux manifestations pro-djihadistes, nous vous mettons en garde : 2025 arrive, nous vous trouverons et nous vous expulserons. Je vais également annuler rapidement les visas d’étudiants de tous les sympathisants du Hamas sur les campus universitaires, qui ont été infestés par le radicalisme comme jamais auparavant. »»

Cela « marque une escalade spectaculaire dans la surveillance par le gouvernement américain des comportements et des propos des ressortissants étrangers », commentent nos confrères.

Selon Axios, les responsables de ce projet le justifient en arguant qu’ils n’ont constaté aucun visa révoqué pour cause d’arrestation ou de suspension d’un campus universitaire sous le mandat de Joe Biden dans la base de données du ministère. En octobre 2023, après l’attaque terroriste du Hamas contre Israël, Marco Rubio avait déjà exprimé sa volonté d’ « annuler le visa de tous les ressortissants étrangers qui soutiennent le Hamas et les expulser d’Amérique ».

La liberté d’expression érodée selon des associations américaines

Les outils d’IA « ne peuvent pas être utilisés pour analyser les nuances de l’expression sur des sujets complexes et contestés comme le conflit israélo-palestinien », a déclaré Sarah McLaughlin, chercheuse de l’ONG FIRE à Reuters. L’agence de presse cite aussi un communiqué de l’American-Arab Anti-Discrimination Committee que ce projet « signale une érosion alarmante de la liberté d’expression et des droits à la vie privée protégés par la Constitution ». Reuters rappelle que le premier amendement de la Constitution américaine protège la liberté d’expression et de réunion.

Arrestation d’un militant pro-palestinien ce week-end sans mandat

Ce samedi 8 mars, des policiers de l’agence de l’immigration ICE ont arrêté le leader du Campement de solidarité avec Gaza à l’Université de Columbia, Mahmoud Khalil, explique Reuters. Cet étudiant palestinien a joué un rôle important lors des manifestations pro-palestiniennes sur le campus de l’université. Il a été arrêté au sein de sa résidence universitaire qui se trouve sur le campus de Columbia.

Sa femme, une citoyenne américaine enceinte de 8 mois, était avec lui au moment de l’arrestation, explique le journaliste Meghnad Bose, dans sa newsletter Drop Site. Celle-ci cite le communiqué du groupe militant Writers Against the War on Gaza (WAWOG) qui affirme que Mahmoud Khalil a été « enlevé et détenu sans qu’un mandat d’arrêt n’ait été délivré ou que des charges n’aient été officiellement retenues ».

Selon Reuters, l’université Columbia a révisé la semaine dernière le protocole concernant les agents fédéraux de l’immigration au sein de son campus leur laissant la possibilité d’entrer sans mandat d’arrêt judiciaire dans des « circonstances urgentes », qu’elle n’a pas précisées. Mais l’université a affirmé sur son site : « Conformément à notre pratique de longue date et à celle des villes et institutions du pays, les forces de l’ordre doivent disposer d’un mandat judiciaire pour pénétrer dans les zones non publiques de l’université, y compris les bâtiments de l’université. Columbia s’engage à respecter toutes les obligations légales et à soutenir ses étudiants et la communauté universitaire ».

Citant la dépêche d’Associated Press sur le sujet, Marco Rubio a affirmé sur X : « Nous allons révoquer les visas et/ou les cartes vertes des partisans du Hamas en Amérique afin qu’ils puissent être expulsés ».

Pourtant, Reuters explique qu’aucun ministère n’a indiqué que Khalil était accusé d’avoir apporté un soutien matériel au Hamas ou d’avoir commis un autre crime. L’agence de presse explique que Khalil a qualifié le mouvement d’anti-guerre comprenant des étudiants et des groupes juifs et rejetant les allégations d’antisémitisme.

Le réseau de désinformation prorusse « Portal Kombat » contamine les IA génératives

PravdIA
Le réseau de désinformation prorusse « Portal Kombat » contamine les IA génératives

Les contenus des sites du réseau désinformation prorusse « Portal Kombat » se retrouvent dans les données utilisées par les différents chatbots des entreprises d’IA générative, alerte Newsguard.

En testant 10 des principaux chatbots d’entreprises d’IA générative, l’entreprise américaine NewsGuard a confirmé qu’ils répercutent parfois la désinformation russe propagée par le réseau de sites « Portal Kombat » débusqué l’année dernière par Viginum.

ChatGPT-4o d’Open AI, Smart Assistant de You.com, Grok de xAI, Pi de Inflection, Le Chat de Mistral, Copilot de Microsoft, Meta AI, Claude d’Anthropic, Gemini de Google et Perplexity. Tous ont répété certaines désinformations publiées sur le réseau Portal Kombat, explique Newsguard. Elle précise que ce n’est pas toujours le cas, mais qu’ils ont propagé « les récits faux de désinformation russe dans 33,55 % des cas, ont fourni une non-réponse dans 18,22 % des cas et ont fourni une réfutation des faits dans 48,22 % des cas ».

Ces désinformations viendraient, au moins en partie, de l’écosystème « Pravda », une sous-partie du réseau Portal Kombat visant particulièrement l’Europe et dont parlait déjà Viginum.

Dans un rapport publié le 28 février dernier [PDF], l’association American Sunlight Project (ASP) se posait des questions sur son utilisation : ASP « estime que le public cible le plus probable du réseau Pravda n’est pas constitué d’utilisateurs humains, mais d’utilisateurs automatisés ».

ASP précisait ces doutes : « le réseau n’est pas convivial pour les utilisateurs humains ; les sites du réseau ne disposent d’aucune fonction de recherche, leur formatage est médiocre et le défilement n’est pas fiable, entre autres problèmes de convivialité ».

Elle observait que « le réseau et le modèle d’exploitation de l’information sur lequel il repose mettent l’accent sur la production de masse et la reproduction de récits adaptés à de nombreuses plateformes (sites, comptes de médias sociaux, etc.) susceptibles d’attirer des entités telles que les robots d’indexation des moteurs de recherche et les algorithmes de scraping utilisés pour entrainer des LLM ». L’association nomme cette tactique « LLM grooming » ou « manipulation des LLM ».

ASP a analysé la fréquence d’un échantillon de ces sites et estime la masse de publication de l’écosystème Pravda « à 20 273 articles par 48 heures, soit plus de 3,6 millions d’articles par an ».

« Plus un ensemble de récits pro-russes est important, plus il a de chances d’être intégré dans un LLM », faisait remarquer ASP. « Le réseau Pravda se compose d’un très grand nombre de pages web hébergées sur des URL uniques qui reprennent toutes, souvent mot pour mot, le même contenu […]. En résumé, le flux de sources combiné et l’empreinte numérique de ce réseau sont énormes ».

« Les risques à long terme – politiques, sociaux et technologiques – associés à la manipulation des LLM par ce réseau sont élevés », estimait l’association.

Selon Newsguard, « le réseau Pravda ne produit pas de contenu original. Il fonctionne plutôt comme une machine à blanchir la propagande du Kremlin, en agrégeant le contenu de médias d’État russes, d’influenceurs pro-Kremlin et d’agences et fonctionnaires gouvernementaux par le biais d’un ensemble plus large de sites semblant indépendants ».

L’entreprise explique avoir testé les 10 chatbots cité plus haut avec un échantillon de 15 récits faux diffusés par le réseau Pravda. Newsguard a utilisé son cadre créé pour repérer les sites d’information non-fiable générée par IA.

« Chaque récit faux a été testé à l’aide de trois styles de requêtes différents – “Innocent”, “Orienté” et “Acteur Malveillant” – qui reflètent la façon dont les utilisateurs interagissent avec les modèles d’IA générative pour l’actualité et les informations. Cela a donné lieu à 450 réponses au total (45 réponses par chatbot) », explique l’entreprise.

Elle précise ne pas révéler publiquement les résultats pour chaque modèle « en raison de la nature systémique du problème ».

Sur ces 450 réponses, 56 comprenaient des liens directs vers des articles diffusant des fausses informations publiées par l’écosystème Pravda. En tout, 92 liens pointaient vers des articles du réseau, deux modèles diffusant la majorité avec 27 liens chacun :

Selon Newsguard, tous les chatbots ont diffusé de fausses informations en réponse à des requêtes sur des récits faux provenant du réseau Pravda, mais certains beaucoup plus que d’autres :

Peu de fois, ces chatbots refusent de répondre lorsque Newsguard s’appuie sur le réseau Pravda pour leur poser des questions :

Les chatbots réfutent peu souvent la désinformation propagée par cet écosystème :

Newsguard explique que l’ancien policier américain, théoricien du complot et agent d’influence russe John Mark Dougan a exposé cette stratégie lors d’une table ronde organisée à Moscou le 27 janvier 2025 : « Plus ces informations sont diversifiées, plus elles ont un effet d’amplification. Non seulement cela affecte l’amplification, mais cela affecte aussi l’IA future […] en poussant ces récits russes du point de vue russe, nous pouvons réellement changer l’IA mondiale ». Il concluait « ce n’est pas un outil dont il faut avoir peur, c’est un outil dont il faut tirer parti ».

☕️ Nouvelle explosion de Starship

Cette nuit, SpaceX a essuyé son deuxième échec consécutif lors de l’envoi d’un vol test pour sa fusée. Starship a été lancée depuis le Texas à 17h30 heure locale (23h30 GMT), les deux étages se sont séparés sans encombre et Super Heavy est bien retourné vers le pas de tir récupéré par les bras mécaniques de SpaceX.

Mais quatre des six moteurs du second étage se sont petit à petit éteints huit minutes après le lancement et la fusée est redescendue vers le sol avant d’exploser et de rentrer dans l’atmosphère au-dessus des Caraïbes, explique Spacenews.

« Avant la fin de l’ascension, un événement énergétique dans la partie arrière du vaisseau a entraîné la perte de plusieurs moteurs Raptor », affirme SpaceX.

Comme lors du précédent échec, des débris ont chuté à proximité des îles des Caraïbes. Certains avaient été retrouvés sur les Îles Britanniques habitées de Turques-et-Caïques.

Et comme lors de ce précédent échec, la Federal Aviation Administration (FAA) a dû fermer temporairement l’espace aérien, obliger certains vols à se dérouter ou immobiliser des avions au sol, ce qui a entrainé des retards.

Les débris ont pu être observés via les hublots de certains avions qui étaient dans la zone :

Post by @GossiTheDog@cyberplace.social
View on Mastodon

« La FAA demande à SpaceX de mener une enquête sur la perte du véhicule Starship lors des opérations de lancement du 6 mars », a déclaré l’agence dans un communiqué obtenu par Spacenews. Elle avait fait la même demande pour le précédent échec de Starship.

Dans un message public publié le 24 février, l’entreprise avait affirmé que la cause principale la plus probable de l’échec précédent était sans doute « une réponse harmonique plusieurs fois plus forte en vol que ce qui avait été observé pendant les essais, ce qui a entraîné une augmentation des contraintes sur le matériel du système de propulsion ». SpaceX ajoutait que « les fuites de propergol qui en ont résulté ont dépassé la capacité de ventilation des combles du vaisseau et ont provoqué des incendies prolongés ».

Elle disait avoir apporté des modifications afin d’éviter que des problèmes similaires ne se reproduisent.

L’armée israélienne a entrainé une IA sur des millions de conversations palestiniennes

L’armée israélienne a entrainé une IA sur des millions de conversations palestiniennes

Après avoir récupéré des millions de conversations en arabe via les outils qu’elle utilise pour surveiller les palestiniens dans les territoires occupés, l’armée israélienne les a mises à profit pour entrainer un modèle de langage, explique une enquête du Guardian, d’Appel Local et du magazine + 972.

L’IA générative étant sur toutes les lèvres, il n’est pas étonnant que les armées de tous les pays s’y essayent. Notamment en Israël, cette « start-up nation » façonnée par l’armée.

Une enquête menée par le Guardian, le magazine israélo-palestinien + 972 et שִׂיחָה מְקוֹמִית (un média dont le titre veut dire « Appel local » en hébreu) révèle que l’armée israélienne a entrainé un grand modèle de langage sur des millions de conversations obtenues via la surveillance des Palestiniens dans les territoires qu’elle occupe.

Selon plusieurs sources de ces trois médias, l’unité 8200 de l’armée chargée de la cyberguerre au sein de la direction du renseignement militaire israélien entrainait toujours ce modèle à la fin de l’année dernière. Nos confrères n’ont pas pu obtenir de confirmation sur le calendrier éventuel de déploiement d’une IA qui s’appuierait sur ce modèle.

L’arabe dialectal visé

Mais l’armée israélienne espérerait tirer les bénéfices de ce modèle pour traiter rapidement de grandes quantités de données de surveillance et répondre à des questions précises concernant des personnes qu’elle cible spécifiquement.

Le Guardian explique que ce projet a été partiellement révélé lors d’une conférence l’année dernière à Tel-Aviv par Chaked Roger Joseph Sayedoff, un ancien expert du renseignement militaire. « Nous avons essayé de créer le plus grand ensemble de données possible [et] de rassembler toutes les données que l’État d’Israël n’a jamais eues en arabe », a déclaré ce dernier, ajoutant que le modèle aurait nécessité une « quantité psychotique » de données.

La spécificité de ce modèle, c’est qu’en s’appuyant sur les conversations écrites et audio des palestiniens, il est entrainé sur des langues et dialectes particuliers.+ 972 raconte que Roger Joseph Sayedoff a expliqué lors de cette conférence que les modèles de langage existants ne pouvaient traiter que l’arabe littéral – utilisé dans les communications officielles, la littérature et les médias – et non l’arabe dialectal, qui prend des formes bien différentes.

Selon une source du Guardian, le modèle utiliserait notamment des conversations en arabe palestinien et libanais.

Un projet boosté par des réservistes

Le média israélo-palestinien explique qu’octobre 2023 a été une date clé pour ce projet qui était déjà en route. Mais, à ce moment-là, l’Unité 8 200 a commencé à recruter en tant que réservistes des experts de modèles de langage venant d’entreprises privées.

Le Co-CEO de l’entreprise israélienne AI21, Ori Goshen, a confirmé à nos confrères que des salariés de son entreprise ont travaillé sur le projet. Celui-ci estime que les modèles de langage pourraient générer des listes de « suspects » en vue d’une arrestation. Mais il espère surtout pouvoir récupérer des données dispersées dans les multiples conversations utilisées pour entrainer les modèles. Il concède dans le même temps que les « hallucinations » des IA génératives peuvent mener à des erreurs et qu’il ne faut pas avoir une confiance aveugle en ces outils.

Interrogé par nos confrères, le chercheur de l’ONG Human Rights Watch, Zach s’est dit alarmé par le fait que l’Unité 8200 utiliserait les LLM pour prendre des décisions importantes concernant la vie des Palestiniens sous occupation militaire.

D’énormes quantités de données sans grande valeur pour le renseignement

Selon le Guardian, l’unité a notamment cherché à entrainer le modèle pour comprendre la terminologie militaire mais s’est retrouvée avec d’énormes quantités de données sur la vie quotidienne des Palestiniens sans grande valeur pour le renseignement.

L’armée israélienne n’a pas voulu répondre aux questions du Guardian mais affirme qu’elle « déploie diverses méthodes de renseignement pour identifier et contrecarrer les activités terroristes d’organisations hostiles au Moyen-Orient ».

L’armée israélienne a entrainé une IA sur des millions de conversations palestiniennes

L’armée israélienne a entrainé une IA sur des millions de conversations palestiniennes

Après avoir récupéré des millions de conversations en arabe via les outils qu’elle utilise pour surveiller les palestiniens dans les territoires occupés, l’armée israélienne les a mises à profit pour entrainer un modèle de langage, explique une enquête du Guardian, d’Appel Local et du magazine + 972.

L’IA générative étant sur toutes les lèvres, il n’est pas étonnant que les armées de tous les pays s’y essayent. Notamment en Israël, cette « start-up nation » façonnée par l’armée.

Une enquête menée par le Guardian, le magazine israélo-palestinien + 972 et שִׂיחָה מְקוֹמִית (un média dont le titre veut dire « Appel local » en hébreu) révèle que l’armée israélienne a entrainé un grand modèle de langage sur des millions de conversations obtenues via la surveillance des Palestiniens dans les territoires qu’elle occupe.

Selon plusieurs sources de ces trois médias, l’unité 8200 de l’armée chargée de la cyberguerre au sein de la direction du renseignement militaire israélien entrainait toujours ce modèle à la fin de l’année dernière. Nos confrères n’ont pas pu obtenir de confirmation sur le calendrier éventuel de déploiement d’une IA qui s’appuierait sur ce modèle.

L’arabe dialectal visé

Mais l’armée israélienne espérerait tirer les bénéfices de ce modèle pour traiter rapidement de grandes quantités de données de surveillance et répondre à des questions précises concernant des personnes qu’elle cible spécifiquement.

Le Guardian explique que ce projet a été partiellement révélé lors d’une conférence l’année dernière à Tel-Aviv par Chaked Roger Joseph Sayedoff, un ancien expert du renseignement militaire. « Nous avons essayé de créer le plus grand ensemble de données possible [et] de rassembler toutes les données que l’État d’Israël n’a jamais eues en arabe », a déclaré ce dernier, ajoutant que le modèle aurait nécessité une « quantité psychotique » de données.

La spécificité de ce modèle, c’est qu’en s’appuyant sur les conversations écrites et audio des palestiniens, il est entrainé sur des langues et dialectes particuliers.+ 972 raconte que Roger Joseph Sayedoff a expliqué lors de cette conférence que les modèles de langage existants ne pouvaient traiter que l’arabe littéral – utilisé dans les communications officielles, la littérature et les médias – et non l’arabe dialectal, qui prend des formes bien différentes.

Selon une source du Guardian, le modèle utiliserait notamment des conversations en arabe palestinien et libanais.

Un projet boosté par des réservistes

Le média israélo-palestinien explique qu’octobre 2023 a été une date clé pour ce projet qui était déjà en route. Mais, à ce moment-là, l’Unité 8 200 a commencé à recruter en tant que réservistes des experts de modèles de langage venant d’entreprises privées.

Le Co-CEO de l’entreprise israélienne AI21, Ori Goshen, a confirmé à nos confrères que des salariés de son entreprise ont travaillé sur le projet. Celui-ci estime que les modèles de langage pourraient générer des listes de « suspects » en vue d’une arrestation. Mais il espère surtout pouvoir récupérer des données dispersées dans les multiples conversations utilisées pour entrainer les modèles. Il concède dans le même temps que les « hallucinations » des IA génératives peuvent mener à des erreurs et qu’il ne faut pas avoir une confiance aveugle en ces outils.

Interrogé par nos confrères, le chercheur de l’ONG Human Rights Watch, Zach s’est dit alarmé par le fait que l’Unité 8200 utiliserait les LLM pour prendre des décisions importantes concernant la vie des Palestiniens sous occupation militaire.

D’énormes quantités de données sans grande valeur pour le renseignement

Selon le Guardian, l’unité a notamment cherché à entrainer le modèle pour comprendre la terminologie militaire mais s’est retrouvée avec d’énormes quantités de données sur la vie quotidienne des Palestiniens sans grande valeur pour le renseignement.

L’armée israélienne n’a pas voulu répondre aux questions du Guardian mais affirme qu’elle « déploie diverses méthodes de renseignement pour identifier et contrecarrer les activités terroristes d’organisations hostiles au Moyen-Orient ».

Les chatbots IA ne ramènent quasiment pas de trafic aux éditeurs de sites

Pwned?
Les chatbots IA ne ramènent quasiment pas de trafic aux éditeurs de sites

De nombreux éditeurs de presse ont signé des accords avec OpenAI et autres entreprises d’IA génératives, obtenant notamment que leurs chatbots renvoient vers leurs articles. Mais, selon un rapport de Tollbit, ces outils « génèrent en moyenne 95,7 % de clics en moins que les recherches traditionnelles sur Google ».

« Malgré les affirmations des entreprises d’IA, [nous] constatons que les bots IA génèrent en moyenne 95,7 % de trafic de clics en moins que la recherche traditionnelle sur Google », affirme la plateforme de monétisation de contenus Tollbit dans un rapport [PDF] publié la semaine dernière.

Très peu de clics venant des outils d’IA

Cette startup, créée en 2023, peut mesurer ce trafic puisque sa principale activité est justement, comme l’explique la newsletter Twipe, de négocier pour des éditeurs comme TIME et Adweek le scraping de leurs contenus par les entreprises d’IA génératives. Elle a donc aussi tout intérêt à ce que ces chiffres sortent.

TollBit fait la part des choses entre les moteurs de recherche qui ne s’appuient que sur l’IA et les chatbots basés sur l’IA génératives. Elle affirme que, d’après ses données, « les moteurs de recherche IA offrent un taux de référencement de 0,74 % par scrap, soit le double du taux de 0,33 % pour les chatbots ». Elle précise que « ces chiffres doivent être considérés comme un maximum ; l’utilisation de user agents tiers et cachés peut gonfler artificiellement le taux des produits de recherche d’IA ».

« Ces taux restent extrêmement faibles par rapport au référencement à partir d’une page de résultats du moteur de recherche Google conventionnelle (sans IA). Même en prenant le taux moyen de clics sur les 10 premiers résultats de recherche organique (8,63 %), les interfaces de moteur de recherche IA génèrent 91 % de renvois en moins et les chatbots 96 % », constate Tollbit, en renvoyant au schéma ci-dessous :

Des sites visités 2 millions de fois par un bot en un trimestre

Dans le même temps, Tollbit explique qu’en analysant les données de ses clients, elle a remarqué que les bots des entreprises d’IA sont passés en moyenne 2 millions de fois sur un site pendant le quatrième trimestre 2024, en passant 7 fois sur une même page :

Premiers visés : les sites de ventes dont une page a été visitée plus de 16 fois pendant ce quatrième trimestre par ces bots. La presse nationale américaine voit ses pages visitées plus de 10 fois chacune lors de cette même période :

Scraping levels per page by content category in Q4

L’entreprise a aussi analysé une cohorte de sites de ses clients en gardant la même stratégie de blocage de bots pendant le deuxième semestre de l’année dernière. Elle a remarqué que, sur le trafic total que ces sites accueillent, le taux lié aux bots des entreprises d’IA générative a plus que doublé entre le troisième et le quatrième trimestre de 2024 :

« Nous constatons un afflux de bots sur ces sites chaque fois qu’un utilisateur pose une question », explique le CEO de Tollbit, Toshit Panigrahi, à Forbes : « la demande de contenu des éditeurs n’est pas négligeable ».

Difficile de se couper de ces bots sans perdre en SEO quand même

Il pointe aussi le fait qu’il est difficile pour les éditeurs de site de s’y retrouver dans les différents bots utilisés par ces entreprises pour scraper leur site : « certains, comme Google, semblent utiliser les mêmes robots à des fins multiples, notamment pour indexer le web et récupérer des données pour leurs outils d’intelligence artificielle ».

« Il est très difficile pour les éditeurs de vouloir bloquer Google. Cela pourrait avoir un impact sur leur référencement, et il nous est impossible de déduire exactement à quoi servent leurs robots », ajoute Olivia Joslin, cofondatrice de TollBit.

Les chatbots IA ne ramènent quasiment pas de trafic aux éditeurs de sites

Pwned?
Les chatbots IA ne ramènent quasiment pas de trafic aux éditeurs de sites

De nombreux éditeurs de presse ont signé des accords avec OpenAI et autres entreprises d’IA génératives, obtenant notamment que leurs chatbots renvoient vers leurs articles. Mais, selon un rapport de Tollbit, ces outils « génèrent en moyenne 95,7 % de clics en moins que les recherches traditionnelles sur Google ».

« Malgré les affirmations des entreprises d’IA, [nous] constatons que les bots IA génèrent en moyenne 95,7 % de trafic de clics en moins que la recherche traditionnelle sur Google », affirme la plateforme de monétisation de contenus Tollbit dans un rapport [PDF] publié la semaine dernière.

Très peu de clics venant des outils d’IA

Cette startup, créée en 2023, peut mesurer ce trafic puisque sa principale activité est justement, comme l’explique la newsletter Twipe, de négocier pour des éditeurs comme TIME et Adweek le scraping de leurs contenus par les entreprises d’IA génératives. Elle a donc aussi tout intérêt à ce que ces chiffres sortent.

TollBit fait la part des choses entre les moteurs de recherche qui ne s’appuient que sur l’IA et les chatbots basés sur l’IA génératives. Elle affirme que, d’après ses données, « les moteurs de recherche IA offrent un taux de référencement de 0,74 % par scrap, soit le double du taux de 0,33 % pour les chatbots ». Elle précise que « ces chiffres doivent être considérés comme un maximum ; l’utilisation de user agents tiers et cachés peut gonfler artificiellement le taux des produits de recherche d’IA ».

« Ces taux restent extrêmement faibles par rapport au référencement à partir d’une page de résultats du moteur de recherche Google conventionnelle (sans IA). Même en prenant le taux moyen de clics sur les 10 premiers résultats de recherche organique (8,63 %), les interfaces de moteur de recherche IA génèrent 91 % de renvois en moins et les chatbots 96 % », constate Tollbit, en renvoyant au schéma ci-dessous :

Des sites visités 2 millions de fois par un bot en un trimestre

Dans le même temps, Tollbit explique qu’en analysant les données de ses clients, elle a remarqué que les bots des entreprises d’IA sont passés en moyenne 2 millions de fois sur un site pendant le quatrième trimestre 2024, en passant 7 fois sur une même page :

Premiers visés : les sites de ventes dont une page a été visitée plus de 16 fois pendant ce quatrième trimestre par ces bots. La presse nationale américaine voit ses pages visitées plus de 10 fois chacune lors de cette même période :

Scraping levels per page by content category in Q4

L’entreprise a aussi analysé une cohorte de sites de ses clients en gardant la même stratégie de blocage de bots pendant le deuxième semestre de l’année dernière. Elle a remarqué que, sur le trafic total que ces sites accueillent, le taux lié aux bots des entreprises d’IA générative a plus que doublé entre le troisième et le quatrième trimestre de 2024 :

« Nous constatons un afflux de bots sur ces sites chaque fois qu’un utilisateur pose une question », explique le CEO de Tollbit, Toshit Panigrahi, à Forbes : « la demande de contenu des éditeurs n’est pas négligeable ».

Difficile de se couper de ces bots sans perdre en SEO quand même

Il pointe aussi le fait qu’il est difficile pour les éditeurs de site de s’y retrouver dans les différents bots utilisés par ces entreprises pour scraper leur site : « certains, comme Google, semblent utiliser les mêmes robots à des fins multiples, notamment pour indexer le web et récupérer des données pour leurs outils d’intelligence artificielle ».

« Il est très difficile pour les éditeurs de vouloir bloquer Google. Cela pourrait avoir un impact sur leur référencement, et il nous est impossible de déduire exactement à quoi servent leurs robots », ajoute Olivia Joslin, cofondatrice de TollBit.

❌