Vue normale

Hier — 25 avril 2025Actualités numériques

Vidéosurveillance algorithmique : les Sages censurent la prolongation de l’expérimentation

25 avril 2025 à 15:01
Le pied de Latombe
Vidéosurveillance algorithmique : les Sages censurent la prolongation de l’expérimentation

Initialement censée se terminer en mars 2025, l’expérimentation de vidéosurveillance algorithmique (VSA) a été prolongée jusqu’en mars 2027, à la demande du gouvernement, afin de permettre à la SNCF et la RATP de pouvoir continuer à l’évaluer.

Testée à l’occasion des Jeux olympiques et paralympiques (JOP), l’expérimentation de vidéosurveillance algorithmique (VSA) était initialement censée se terminer fin mars 2025. Or, mi-mars, elle a été prolongée, dans le cadre d’une proposition de loi relative au renforcement de la sûreté dans les transports, jusqu’à fin mars 2027.

L’objectif affiché par le gouvernement était de permettre à la SNCF et à la RATP de continuer à l’expérimenter. Ces dernières déploraient en effet « de ne pas avoir pu évaluer plusieurs solutions technologiques en parallèle afin de pouvoir réaliser de véritables conclusions quant aux performances techniques des traitements mis en œuvre ».

L’expérimentation, qui aurait coûté près de 882 000 euros, n’avait en outre permis aux deux députés chargés de l’auditer d’identifier qu’ « un cas seulement où la vidéoprotection algorithmique a été utile et encore c’était un ramasseur de champignons qui s’était égaré », sans plus de précisions.

Un « cavalier législatif » sans lien, même indirect, avec la proposition initiale


Il reste 83% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Aux États-Unis, les plus de 60 ans sont les principales victimes des cyber-arnaques

25 avril 2025 à 06:05
Oldies but Goodies
Aux États-Unis, les plus de 60 ans sont les principales victimes des cyber-arnaques

Un rapport de l’unité cyber du FBI révèle que les personnes de plus de 60 ans, qui déploraient moins de 1 milliard de dollars de pertes jusqu’en 2020, en ont subi près de 5 milliards en 2024, contre environ 2 milliards pour les tranches d’âges précédentes. Le nombre de plaintes qu’elles ont déposé a également explosé, passant d’environ 100 000 par an à près de 150 000 l’an passé.

Le rapport 2024 de l’Internet Crime Complaint Center (IC3) du FBI évoque 859 532 plaintes enregistrées l’an passé aux États-Unis, pour des pertes de plus de 16 milliards de dollars, en augmentation de 33 % par rapport à 2023.

C’est le plus gros montant de pertes enregistré par l’IC3 depuis sa création en l’an 2000. Pour mettre ce chiffre en perspective, l’IC3 relevait moins de 4 milliards de dollars de pertes en 2020, 6 en 2021, 10 en 2022, et 12 en 2023.

En 25 ans, l’IC3 a enregistré plus de 9 millions de plaintes, dont 4,2 ces cinq dernières années, pour un total de 50 milliards de dollars de pertes. Le FBI souligne qu’à ses débuts, l’IC3 recevait environ 2 000 plaintes par mois. Ces cinq dernières années, il en a reçu, en moyenne, plus de 2 000 par jour.


Il reste 87% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

À partir d’avant-hierActualités numériques

En 2024, 51 % du trafic web a été généré par des bots automatisés

23 avril 2025 à 13:02
Méga BaaS In
En 2024, 51 % du trafic web a été généré par des bots automatisés

Les robots utilisés par les grands modèles de langage (LLM) pour indexer le web ne sont que la partie émergée de l’iceberg. Une étude portant sur le trafic web des clients d’une entreprise de cybersécurité proposant des services de lutte contre les bots avance que 37 % émanerait en effet de « robots malveillants » (contre 19 % il y a 10 ans), contre 14 % pour les robots légitimes, et 49 % pour les internautes humains (contre plus de 60 % il y a encore 5 ans).

Mise à jour, 19h48 : en réponse à des remarques effectuées en commentaires, l’article a été modifié pour préciser que l’étude porte sur le trafic web des clients d’une entreprise de cybersécurité proposant des services de lutte contre les bots (et non sur le « trafic Internet » en général), et le titre modifié en conséquence.


« Pour la première fois en dix ans, le trafic automatisé a dépassé l’activité humaine, représentant 51 % de l’ensemble du trafic web en 2024 ». Ces derniers représentaient en effet un peu plus de 60 % du trafic web jusqu’en 2020, contre 49 % seulement en 2024.

Les « gentils bots », tels que les crawlers qui indexent les pages web, sont quant à eux passés de 20 % environ à 14 %. Les « robots malveillants », a contrario, voient leur trafic augmenter depuis six ans, passant de 19 à 37 %.

Imperva Bad Bot Report 2025
Imperva Bad Bot Report 2025

Les chiffres émanent du 12e rapport « Bad Bot » (.pdf) d’Imperva, une entreprise états-unienne de cybersécurité rachetée par Thales en 2023 pour 3,6 milliards de dollars. Elle précise que son analyse « s’appuie sur des données collectées sur l’ensemble du réseau mondial d’Imperva en 2024, y compris le blocage de 13 000 milliards de requêtes de robots malveillants dans des milliers de domaines et d’industries ».

Le rapport définit ces robots malveillants comme des programmes automatisés conçus pour effectuer des activités nuisibles, telles que la récupération de données, le spam et le lancement d’attaques par déni de service distribué (DDoS).

Ils peuvent également extraire des données de sites web sans autorisation pour les réutiliser, obtenir un avantage concurrentiel, et « sont souvent utilisés pour le scalping, qui consiste à obtenir des articles à disponibilité limitée et à les revendre à un prix plus élevé », souligne le rapport.

Ils peuvent aussi, a contrario, être utilisés pour remplir des formulaires pour, par exemple, créer des comptes fictifs, tromper les CAPTCHA, s’attaquer à la double authentification et voler des identités (« Credential Stuffing / Cracking »).

Le nombre de vols d’identités numériques imputables à des « bad bots » aurait ainsi augmenté de 40 % depuis 2023, et 54 % depuis 2022. Une explosion « probablement due » au fait que les cybercriminels utilisent l’IA pour automatiser les tentatives d’authentification et les attaques par force brute, ce qui les rend en outre plus sophistiquées et plus difficiles à détecter.

Le rapport souligne que l’augmentation de fuites et de vols de données rend également ce type d’attaques plus faciles à exploiter. Or, le centre de ressources sur le vol d’identité (Identity Theft Resource Center), qui documente depuis 2005 les violations de données signalées publiquement aux États-Unis, a de son côté identifié une augmentation de 211 % de notifications par rapport à 2023.

Des plateformes de Bots-as-a-Service (BaaS)

Le rapport précise aussi que « les attaquants utilisent de plus en plus des techniques sophistiquées pour imiter le trafic humain et mener des activités malveillantes, ce qui rend ces attaques plus difficiles à détecter et à atténuer ».

Cette expansion serait largement due à l’adoption rapide de l’IA et des grands modèles de langage (LLM), « qui ont rendu le développement de robots plus accessible et réalisable même pour les moins qualifiés techniquement », mais également permis le lancement de plateformes de Bots-as-a-Service (BaaS).

Bytespider, un robot d’exploration du web exploité par ByteDance, le propriétaire chinois de TikTok, officiellement utilisé pour télécharger des données d’entraînement pour ses LLM, serait à lui seul responsable de 54 % de toutes les attaques basées sur l’IA, devant AppleBot (26 %), ClaudeBot (13 %) et ChatGPT User Bot (6 %).

Le rapport précise, cela dit, que cette prévalence de ByteSpider « peut être attribuée en grande partie au fait qu’il est largement reconnu comme un robot d’exploration légitime, ce qui en fait un candidat idéal pour l’usurpation d’identité » :

« Les cybercriminels déguisent souvent leurs robots malveillants en robots d’exploration pour échapper à la détection et contourner les mesures de sécurité qui placent les robots d’exploration connus sur liste blanche. »

L’équipe Threat Research d’Imperva a également constaté une augmentation de 55 % des attaques dirigées contre les API. 44 % du trafic de bots avancés prennent ces interfaces pour cibles, contre seulement 10 % ciblant les applications.

Les cybercriminels déploient en effet des bots spécifiquement conçus pour exploiter les vulnérabilités dans les flux des API, se livrant à des fraudes automatisées aux paiements, à des détournements de comptes ou encore à l’exfiltration de données.

31 % des attaques enregistrées l’an passé émanaient de « bad bots »

Au total, 31 % de toutes les attaques enregistrées l’an passé par Imperva émanaient de tels « bad bots » et de l’un des 21 types d’attaques automatisées identifiés par l’Open Web Application Security Project (OWASP).

OWASP Automated Threats to Web Applications identification chart

L’entreprise recommande dès lors de renforcer les défenses des sites web afin de de pouvoir distinguer les consommateurs légitimes des robots malveillants :

« La mise en œuvre d’une analyse avancée du trafic, de mécanismes de détection des robots en temps réel et de mesures d’authentification robustes peut contribuer à protéger votre plateforme, en garantissant un accès équitable aux clients réels. »

Imperva souligne à ce titre que de nombreux outils et scripts de robots reposent sur des user-agents de versions de navigateurs obsolètes. Alors qu’a contrario, les internautes humains sont quant à eux obligés de mettre à jour automatiquement leurs navigateurs vers des versions plus récentes.

L’entreprise, qui a également constaté un recours accru aux services de proxies, afin de masquer la provenance des robots malveillants, recommande la mise en œuvre de contrôles d’accès pour les fournisseurs d’IP connus pour être utilisés à cet effet, « tels que Host Europe GmbH, Dedibox SAS, Digital Ocean, OVH SAS et Choopa LLC ».

En 2024, 51 % du trafic web a été généré par des bots automatisés

23 avril 2025 à 13:02
Méga BaaS In
En 2024, 51 % du trafic web a été généré par des bots automatisés

Les robots utilisés par les grands modèles de langage (LLM) pour indexer le web ne sont que la partie émergée de l’iceberg. Une étude portant sur le trafic web des clients d’une entreprise de cybersécurité proposant des services de lutte contre les bots avance que 37 % émanerait en effet de « robots malveillants » (contre 19 % il y a 10 ans), contre 14 % pour les robots légitimes, et 49 % pour les internautes humains (contre plus de 60 % il y a encore 5 ans).

Mise à jour, 19h48 : en réponse à des remarques effectuées en commentaires, l’article a été modifié pour préciser que l’étude porte sur le trafic web des clients d’une entreprise de cybersécurité proposant des services de lutte contre les bots (et non sur le « trafic Internet » en général), et le titre modifié en conséquence.


« Pour la première fois en dix ans, le trafic automatisé a dépassé l’activité humaine, représentant 51 % de l’ensemble du trafic web en 2024 ». Ces derniers représentaient en effet un peu plus de 60 % du trafic web jusqu’en 2020, contre 49 % seulement en 2024.

Les « gentils bots », tels que les crawlers qui indexent les pages web, sont quant à eux passés de 20 % environ à 14 %. Les « robots malveillants », a contrario, voient leur trafic augmenter depuis six ans, passant de 19 à 37 %.

Imperva Bad Bot Report 2025
Imperva Bad Bot Report 2025

Les chiffres émanent du 12e rapport « Bad Bot » (.pdf) d’Imperva, une entreprise états-unienne de cybersécurité rachetée par Thales en 2023 pour 3,6 milliards de dollars. Elle précise que son analyse « s’appuie sur des données collectées sur l’ensemble du réseau mondial d’Imperva en 2024, y compris le blocage de 13 000 milliards de requêtes de robots malveillants dans des milliers de domaines et d’industries ».

Le rapport définit ces robots malveillants comme des programmes automatisés conçus pour effectuer des activités nuisibles, telles que la récupération de données, le spam et le lancement d’attaques par déni de service distribué (DDoS).

Ils peuvent également extraire des données de sites web sans autorisation pour les réutiliser, obtenir un avantage concurrentiel, et « sont souvent utilisés pour le scalping, qui consiste à obtenir des articles à disponibilité limitée et à les revendre à un prix plus élevé », souligne le rapport.

Ils peuvent aussi, a contrario, être utilisés pour remplir des formulaires pour, par exemple, créer des comptes fictifs, tromper les CAPTCHA, s’attaquer à la double authentification et voler des identités (« Credential Stuffing / Cracking »).

Le nombre de vols d’identités numériques imputables à des « bad bots » aurait ainsi augmenté de 40 % depuis 2023, et 54 % depuis 2022. Une explosion « probablement due » au fait que les cybercriminels utilisent l’IA pour automatiser les tentatives d’authentification et les attaques par force brute, ce qui les rend en outre plus sophistiquées et plus difficiles à détecter.

Le rapport souligne que l’augmentation de fuites et de vols de données rend également ce type d’attaques plus faciles à exploiter. Or, le centre de ressources sur le vol d’identité (Identity Theft Resource Center), qui documente depuis 2005 les violations de données signalées publiquement aux États-Unis, a de son côté identifié une augmentation de 211 % de notifications par rapport à 2023.

Des plateformes de Bots-as-a-Service (BaaS)

Le rapport précise aussi que « les attaquants utilisent de plus en plus des techniques sophistiquées pour imiter le trafic humain et mener des activités malveillantes, ce qui rend ces attaques plus difficiles à détecter et à atténuer ».

Cette expansion serait largement due à l’adoption rapide de l’IA et des grands modèles de langage (LLM), « qui ont rendu le développement de robots plus accessible et réalisable même pour les moins qualifiés techniquement », mais également permis le lancement de plateformes de Bots-as-a-Service (BaaS).

Bytespider, un robot d’exploration du web exploité par ByteDance, le propriétaire chinois de TikTok, officiellement utilisé pour télécharger des données d’entraînement pour ses LLM, serait à lui seul responsable de 54 % de toutes les attaques basées sur l’IA, devant AppleBot (26 %), ClaudeBot (13 %) et ChatGPT User Bot (6 %).

Le rapport précise, cela dit, que cette prévalence de ByteSpider « peut être attribuée en grande partie au fait qu’il est largement reconnu comme un robot d’exploration légitime, ce qui en fait un candidat idéal pour l’usurpation d’identité » :

« Les cybercriminels déguisent souvent leurs robots malveillants en robots d’exploration pour échapper à la détection et contourner les mesures de sécurité qui placent les robots d’exploration connus sur liste blanche. »

L’équipe Threat Research d’Imperva a également constaté une augmentation de 55 % des attaques dirigées contre les API. 44 % du trafic de bots avancés prennent ces interfaces pour cibles, contre seulement 10 % ciblant les applications.

Les cybercriminels déploient en effet des bots spécifiquement conçus pour exploiter les vulnérabilités dans les flux des API, se livrant à des fraudes automatisées aux paiements, à des détournements de comptes ou encore à l’exfiltration de données.

31 % des attaques enregistrées l’an passé émanaient de « bad bots »

Au total, 31 % de toutes les attaques enregistrées l’an passé par Imperva émanaient de tels « bad bots » et de l’un des 21 types d’attaques automatisées identifiés par l’Open Web Application Security Project (OWASP).

OWASP Automated Threats to Web Applications identification chart

L’entreprise recommande dès lors de renforcer les défenses des sites web afin de de pouvoir distinguer les consommateurs légitimes des robots malveillants :

« La mise en œuvre d’une analyse avancée du trafic, de mécanismes de détection des robots en temps réel et de mesures d’authentification robustes peut contribuer à protéger votre plateforme, en garantissant un accès équitable aux clients réels. »

Imperva souligne à ce titre que de nombreux outils et scripts de robots reposent sur des user-agents de versions de navigateurs obsolètes. Alors qu’a contrario, les internautes humains sont quant à eux obligés de mettre à jour automatiquement leurs navigateurs vers des versions plus récentes.

L’entreprise, qui a également constaté un recours accru aux services de proxies, afin de masquer la provenance des robots malveillants, recommande la mise en œuvre de contrôles d’accès pour les fournisseurs d’IP connus pour être utilisés à cet effet, « tels que Host Europe GmbH, Dedibox SAS, Digital Ocean, OVH SAS et Choopa LLC ».

Google pénalise les publicités générées par IA (mais pas les médias générés par IA)

22 avril 2025 à 13:36
IAdvertising
Google pénalise les publicités générées par IA (mais pas les médias générés par IA)

L’an passé, Google a fait face à une crue de publicités reposant sur l’usurpation d’identité, générée par IA, de personnalités, afin de promouvoir des escroqueries. La régie publicitaire de Google a « rapidement constitué une équipe de plus de 100 experts », et suspendu « plus de 700 000 comptes d’annonceurs ». Une célérité qui contraste fortement avec le laxisme de Google et de son algorithme de recommandation de contenus Discover pour ce qui est des médias générés par IA.

Le rapport 2024 de Google consacré à la sécurité de ses publicités, et aux efforts de ses équipes pour lutter contre l’utilisation malveillante de ses plateformes publicitaires, n’est pas bien long : 6 pages. S’il comporte de nombreux chiffres, il ne fournit pas d’informations détaillées sur les modus operandi des acteurs malveillants, contrairement à ses rapports orientés cybersécurité.

Il souligne cela dit que « l’une des tendances qui s’est dégagée dans l’ensemble du secteur est l’augmentation des publicités reposant sur l’usurpation d’identité de personnalités publiques » par des acteurs malveillants utilisant des images ou des sons générés par l’intelligence artificielle pour suggérer une affiliation avec une célébrité afin de promouvoir une escroquerie.

« Pour riposter », Google explique avoir alors « rapidement constitué une équipe de plus de 100 experts », dont des membres de la division Trust and Safety de Google, et des chercheurs de DeepMind, sa filiale spécialisée dans l’IA, précise TechCrunch.

Ils avaient été chargés d’analyser ces escroqueries afin de mettre au point des contre-mesures techniques, « telles que la mise à jour de notre politique en matière de fausses déclarations » en mars 2024 « afin de suspendre les annonceurs qui font la promotion de ces escroqueries » :

« Nous avons ainsi pu suspendre de façon permanente plus de 700 000 comptes d’annonceurs en infraction. Cela a entraîné une baisse de 90 % des signalements de ce type d’annonces frauduleuses l’année dernière. […] En 2024, nous avons bloqué ou supprimé 415 millions de publicités et suspendu plus de 5 millions de comptes pour avoir enfreint nos politiques en matière de publicités les plus étroitement associées à des escroqueries. »

Une célérité et une efficacité qui contrastent fortement avec le laxisme que nous avons pu documenter pour ce qui est du moteur de recherche de ce même Google. Celle-ci n’arrive pas à appliquer ses propres règles pour ce qui est des contenus non publicitaires indexés par son moteur de recherche.

Une quarantaine (au moins) de sites d’information générés par IA (GenAI) polluent en effet depuis des mois l’algorithme de recommandation Discover de Google, et les résultats de Google Actualités sont truffés d’articles GenAI reposant sur du plagiat.

Seuls les publicitaires doivent mentionner les contenus générés par IA


Il reste 75% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

En pleine épidémie d’infox, les États-Unis ferment leur unité anti-désinformation

18 avril 2025 à 10:03
Fake America Great Again
En pleine épidémie d’infox, les États-Unis ferment leur unité anti-désinformation

Un sous-secrétaire d’État complotiste de l’administration Trump vient d’annoncer la fermeture du service de lutte contre la manipulation de l’information et les ingérences étrangères. Et ce, alors qu’un sondage révèle « une croyance généralisée dans les fausses informations » de la part des citoyens états-uniens. Au point que 20 % croient que les vaccins ont fait plus de morts que la Covid-19, et qu’un peu moins de la moitié ne sont « pas sûr » de savoir si cette affirmation est vraie, ou pas.

Le chef de la diplomatie américaine, Marco Rubio vient d’annoncer, ce mercredi 16 avril, la fermeture de la seule agence fédérale américaine qui traquait et contrait la désinformation en provenance des pays étrangers, rapporte l’AFP.

La fermeture du Counter Foreign Information Manipulation and Interference (R/FIMI, pour « service de lutte contre la manipulation de l’information et les ingérences étrangères ») a été justifiée par la nécessité de « défendre la liberté d’expression des Américains ».

« Sous l’administration précédente, ce service, qui coûtait aux contribuables plus de 50 millions de dollars par an, a dépensé des millions de dollars pour faire taire et censurer activement les voix des Américains qu’il était censé servir », a accusé M. Rubio dans un communiqué.

En fermant le R/FIMI, le controversé sous-secrétaire intérimaire du ministère, Darren Beattie, « offre une victoire importante aux critiques conservateurs qui ont allégué qu’il censurait les voix conservatrices », estime la MIT Technology Review.

Darren Beattie, qui avait été renvoyé de la première administration Trump pour avoir assisté à une conférence sur le nationalisme blanc, a depuis suggéré que le FBI avait organisé l’attaque du 6 janvier contre le Congrès, déclaré que défendre Taïwan contre la Chine ne valait pas la peine, appelé à la stérilisation de ce qu’il appelle les « déchets à faible QI », et laissé entendre que la communauté du renseignement des États-Unis était plus susceptible que l’Iran d’être à l’origine des tentatives d’assassinat contre Donald Trump.

En octobre 2024, Darren Beattie avait aussi tweeté que « les hommes blancs compétents doivent être aux commandes si l’on veut que les choses fonctionnent. Malheureusement, toute notre idéologie nationale est fondée sur le fait de dorloter les sentiments des femmes et des minorités, et de démoraliser les hommes blancs compétents ».

« Le Kremlin et le Parti communiste chinois peuvent aujourd’hui se réjouir »

Le R/FIMI a été créé à la fin de l’année 2024, sur les cendres de son prédécesseur, le Global Engagement Center (GEC), après qu’une mesure visant à ré-autoriser son budget de 61 millions de dollars a été bloquée par les républicains du Congrès. Ces derniers l’accusaient d’aider les grandes entreprises technologiques à censurer les voix conservatrices américaines.

En 2023, Elon Musk avait par exemple qualifié le centre de « pire délinquant en matière de censure [et] de manipulation des médias par le gouvernement américain » et de « menace pour notre démocratie ».

Le R/FIMI avait un objectif similaire de lutte contre la désinformation étrangère, mais avec moins de moyens, relève la MIT : doté d’un budget de 51,9 millions de dollars, son personnel ne comptait plus que 40 employés, contre 125 au GEC.

Les conservateurs qui s’insurgent contre ce qu’ils qualifient de « complexe industriel de la désinformation et de la censure », note la MIT Technology Review, se sont également attaqués à l’Agence de cybersécurité et de sécurité des infrastructures (CISA) du département de la sécurité intérieure (DHS) et à l’Observatoire de l’internet de Stanford, connu pour ses recherches consacrées à la désinformation pendant les élections. 

L’ancien directeur de la CISA, l’équivalent américain de l’Agence nationale de la sécurité des systèmes d’information (Anssi) en France, Chris Krebs, a été personnellement visé dans un mémo de la Maison Blanche daté du 9 avril, et l’université de Stanford a fermé le Stanford Internet Observatory avant les élections présidentielles de 2024.

Chris Krebs a en effet été licencié pour avoir indiqué n’avoir « aucune preuve » d’une éventuelle fraude lors de la défaite de Donald Trump aux élections de 2020, ajoutant même que « l’élection du 3 novembre a été la plus sûre de l’histoire des États-Unis ».

Le décret visant Chris Krebs contient même « des attaques ad personam contre M. Krebs et des accusations de nature politique et non étayées », relève Le Monde. Il l’accuse en effet et notamment d’avoir sciemment cherché à « censurer » les voix conservatrices – Chris Krebs est pourtant un républicain – ou encore d’avoir « perturbé les débats sur le Covid-19 en tentant de discréditer les opinions populaires qui étaient contraires à la vision de la CISA ».

Et ce, alors que la Russie dépenserait 1,5 milliard de dollars par an pour des campagnes d’influence à l’étranger, que la Radiodiffusion de la République islamique d’Iran, son principal organe de propagande étrangère, disposait d’un budget de 1,26 milliard de dollars en 2022, et que la Chine dépenserait jusqu’à 10 milliards de dollars par an pour des médias ciblant les étrangers non chinois, relève la MIT Technology Review.

Cité par Politico, un responsable du département d’État, qui a requis l’anonymat par crainte de représailles, a déclaré que « le Kremlin et le Parti communiste chinois peuvent aujourd’hui se réjouir. […] Une nouvelle faille a été créée dans notre sécurité nationale, rendant l’Amérique encore plus vulnérable ».

Un Américain sur cinq croit que les vaccins ont plus tué que la Covid-19

Ces annonces interviennent alors que l’entreprise NewsGuard, spécialisée dans la lutte contre la désinformation, déplore de son côté « une croyance généralisée dans les fausses informations » de la part des citoyens états-uniens.

« Les Américains sont largement enclins à croire les fausses infos diffusées en ligne sur toute une série de sujets, notamment la santé et la médecine, les élections et les conflits internationaux » relève en effet NewsGuard, qui souligne également que « les Américains sont dupés dans des proportions alarmantes par les affirmations de désinformation du Kremlin ».

NewsGuard a en effet demandé à YouGov de présenter à un échantillon représentatif de 1 000 citoyens états-uniens de plus de 18 ans une liste de « 10 fausses informations largement répandues en ligne, dont trois proviennent de médias russes ou ont été principalement diffusées par ces derniers ». Les personnes interrogées devaient indiquer si elles étaient vraies, fausses, ou si elles n’étaient « pas sûres » de leur véracité.

NewsGuard n’a pas mis en ligne l’intégralité de l’étude de YouGov. Reste que la probabilité statistique que les personnes interrogées puissent avoir été induites en erreur était donc élevée. 78 % d’entre elles ont, de fait, cru à au moins une affirmation, et moins de 1 % des personnes interrogées seulement ont correctement identifié les 10 affirmations comme étant fausses.

Il n’empêche : plusieurs de ces 10 désinformations sont tellement grossières qu’on peine à comprendre ce pourquoi autant de citoyens états-uniens y croient, ou peinent à les identifier comme fausses. Il leur était par exemple demandé si le fait d’avorter favorisait le risque d’avoir un cancer du sein. Ou encore si les vaccins contre la poliomyélite contenaient des ingrédients basés sur du mercure (ce qui n’a jamais été le cas, précise NewsGuard).

Moins de la moitié des personnes interrogées ont en outre correctement identifié comme fausse l’affirmation selon laquelle « les vaccins COVID-19 ont tué entre 7,3 et 15 millions de personnes dans le monde, alors qu’une personne interrogée sur cinq pensait que cette affirmation était vraie ».

Outre le fait que les données des agences sanitaires et études validées par des pairs montrent que les vaccins COVID-19 approuvés sont sûrs et efficaces, le nombre de personnes mortes du Covid-19 est lui-même estimé à un peu plus de 7 millions, la surmortalité étant de son côté estimée à un peu plus de 27 millions, relève OurWorldinData.

Une autre désinformation était, cela dit, plus sujette à caution. Seuls 13 % des répondants ont en effet été en mesure d’identifier correctement comme fausse l’affirmation selon laquelle le Projet 2025 néoconservateur proposait d’éliminer la sécurité sociale. Bien que le texte, qui visait notamment à remplacer des dizaines de milliers de fonctionnaires fédéraux par des personnes nommées pour leurs positions conservatrices, puisse être qualifié de xénophobe, protectionniste et climatodénialiste, il ne mentionne effectivement pas ce point.

Un tiers des états-uniens croient à au moins une désinformation russe

Reste qu’un tiers (33,9 %) des personnes interrogées ont estimé qu’au moins une des trois désinformations d’origine russe était vraie. Et que moins d’un quart (23,8 %) ont identifié correctement les trois fausses informations. Les trois quarts des sondées étaient en outre « incapables d’identifier systématiquement les récits de désinformation russes comme étant faux », souligne NewsGuard.

61 % ont ainsi été incapables de qualifier de fausse l’affirmation selon laquelle « entre 30 et 50 % de l’aide financière américaine fournie à l’Ukraine a été volée par des fonctionnaires ukrainiens à des fins personnelles ». Une personne interrogée sur quatre a estimé que cette affirmation, tirée d’un article du média d’État russe RT (anciennement Russia Today), était vraie.

Près des deux tiers des personnes interrogées (64 %) n’ont pas, non plus, identifié comme fausse l’affirmation selon laquelle « la cote de popularité du président ukrainien Zelensky est tombée à 4 % », émanant elle aussi de plusieurs médias d’État russes. Pire, déplore NewsGuard : près d’un Américain sur cinq a déclaré que cette fausse information était vraie, alors que des sondages récents ont montré que Zelensky disposait d’un taux d’approbation compris entre 57 et 63 %.

Moins de la moitié des personnes interrogées (44 %) a en outre correctement identifié comme fausse l’affirmation selon laquelle « l’Ukraine a vendu au Hamas des armes qui lui ont été données par les États-Unis », infox là encore largement relayée par les médias d’État russes ainsi que « certains sites américains », et amplifiée par de hauts responsables russes sur les réseaux sociaux.

Au-delà de la désinformation russe, le confusionnisme serait massif

15 % des personnes interrogées ont au surplus qualifié de vrai le fait que des immigrants haïtiens avaient volé, tué et mangés des animaux domestiques à Springfiled dans l’Ohio (comme l’avait affirmé Donald Trump pendant sa campagne électorale), mais également que Starlink avait été utilisé pour truquer les élections de 2024 en faveur de Donald Trump. Et 45 % d’entre elles n’ont pas non plus correctement identifié ces deux affirmations comme fausses.

« Dans un pays politiquement divisé », constate NewsGuard, les résultats de l’enquête montrent aussi « une croyance généralisée dans les fausses affirmations », qui « dépasse les frontières des partis » :

« Les personnes interrogées s’identifiant comme démocrates sont à peu près aussi susceptibles (82 %) de croire à au moins une des dix fausses affirmations que celles s’identifiant comme républicaines (81 %). »

Les personnes interrogées ne s’identifiant pas à un parti politique sont « légèrement moins enclines à croire à la désinformation », 72 % d’entre elles considérant « au moins une fausse affirmation comme vraie ».

NewsGuard relève toutefois que les républicains « sont plus enclins à croire les allégations de désinformation russe que leurs homologues démocrates » :

« Parmi les républicains, 57,6 % ont identifié au moins une allégation de désinformation russe comme étant vraie, contre 17,9 % des démocrates et 29,5 % des personnes interrogées n’ayant pas identifié de parti. »

Un confusionnisme conspirationniste qui correspond en tous points aux agendas politiques de la propagande russe, ainsi qu’à celui de Steve Bannon.

La première repose en effet, notamment, sur le fait d’inonder les réseaux sociaux et médias de plusieurs versions « alternatives » des faits dont il est question, de sorte de les « noyer » dans la masse, « afin de saper les faits authentiques », expliquait à Newsweek Vitaliy Naida, haut fonctionnaire du service de sécurité de l’État ukrainien.

L’ex-directeur de la campagne présidentielle de Donald Trump Steve Bannon s’était quant à lui illustré en avançant que « Les démocrates n’ont pas d’importance. La véritable opposition, ce sont les médias. Et la façon de traiter avec eux est d’inonder la zone avec de la merde » :

« Les médias sont l’opposition, et comme ils sont stupides et paresseux, ils ne peuvent s’intéresser qu’à une chose à la fois. Tout ce que nous avons à faire, c’est noyer la zone. Chaque jour, nous devons leur balancer trois choses. Ils en mordront une et nous pourrons faire nos affaires. Bang, bang, bang, ils ne s’en remettront jamais. »

En pleine épidémie d’infox, les États-Unis ferment leur unité anti-désinformation

18 avril 2025 à 10:03
Fake America Great Again
En pleine épidémie d’infox, les États-Unis ferment leur unité anti-désinformation

Un sous-secrétaire d’État complotiste de l’administration Trump vient d’annoncer la fermeture du service de lutte contre la manipulation de l’information et les ingérences étrangères. Et ce, alors qu’un sondage révèle « une croyance généralisée dans les fausses informations » de la part des citoyens états-uniens. Au point que 20 % croient que les vaccins ont fait plus de morts que la Covid-19, et qu’un peu moins de la moitié ne sont « pas sûr » de savoir si cette affirmation est vraie, ou pas.

Le chef de la diplomatie américaine, Marco Rubio vient d’annoncer, ce mercredi 16 avril, la fermeture de la seule agence fédérale américaine qui traquait et contrait la désinformation en provenance des pays étrangers, rapporte l’AFP.

La fermeture du Counter Foreign Information Manipulation and Interference (R/FIMI, pour « service de lutte contre la manipulation de l’information et les ingérences étrangères ») a été justifiée par la nécessité de « défendre la liberté d’expression des Américains ».

« Sous l’administration précédente, ce service, qui coûtait aux contribuables plus de 50 millions de dollars par an, a dépensé des millions de dollars pour faire taire et censurer activement les voix des Américains qu’il était censé servir », a accusé M. Rubio dans un communiqué.

En fermant le R/FIMI, le controversé sous-secrétaire intérimaire du ministère, Darren Beattie, « offre une victoire importante aux critiques conservateurs qui ont allégué qu’il censurait les voix conservatrices », estime la MIT Technology Review.

Darren Beattie, qui avait été renvoyé de la première administration Trump pour avoir assisté à une conférence sur le nationalisme blanc, a depuis suggéré que le FBI avait organisé l’attaque du 6 janvier contre le Congrès, déclaré que défendre Taïwan contre la Chine ne valait pas la peine, appelé à la stérilisation de ce qu’il appelle les « déchets à faible QI », et laissé entendre que la communauté du renseignement des États-Unis était plus susceptible que l’Iran d’être à l’origine des tentatives d’assassinat contre Donald Trump.

En octobre 2024, Darren Beattie avait aussi tweeté que « les hommes blancs compétents doivent être aux commandes si l’on veut que les choses fonctionnent. Malheureusement, toute notre idéologie nationale est fondée sur le fait de dorloter les sentiments des femmes et des minorités, et de démoraliser les hommes blancs compétents ».

« Le Kremlin et le Parti communiste chinois peuvent aujourd’hui se réjouir »

Le R/FIMI a été créé à la fin de l’année 2024, sur les cendres de son prédécesseur, le Global Engagement Center (GEC), après qu’une mesure visant à ré-autoriser son budget de 61 millions de dollars a été bloquée par les républicains du Congrès. Ces derniers l’accusaient d’aider les grandes entreprises technologiques à censurer les voix conservatrices américaines.

En 2023, Elon Musk avait par exemple qualifié le centre de « pire délinquant en matière de censure [et] de manipulation des médias par le gouvernement américain » et de « menace pour notre démocratie ».

Le R/FIMI avait un objectif similaire de lutte contre la désinformation étrangère, mais avec moins de moyens, relève la MIT : doté d’un budget de 51,9 millions de dollars, son personnel ne comptait plus que 40 employés, contre 125 au GEC.

Les conservateurs qui s’insurgent contre ce qu’ils qualifient de « complexe industriel de la désinformation et de la censure », note la MIT Technology Review, se sont également attaqués à l’Agence de cybersécurité et de sécurité des infrastructures (CISA) du département de la sécurité intérieure (DHS) et à l’Observatoire de l’internet de Stanford, connu pour ses recherches consacrées à la désinformation pendant les élections. 

L’ancien directeur de la CISA, l’équivalent américain de l’Agence nationale de la sécurité des systèmes d’information (Anssi) en France, Chris Krebs, a été personnellement visé dans un mémo de la Maison Blanche daté du 9 avril, et l’université de Stanford a fermé le Stanford Internet Observatory avant les élections présidentielles de 2024.

Chris Krebs a en effet été licencié pour avoir indiqué n’avoir « aucune preuve » d’une éventuelle fraude lors de la défaite de Donald Trump aux élections de 2020, ajoutant même que « l’élection du 3 novembre a été la plus sûre de l’histoire des États-Unis ».

Le décret visant Chris Krebs contient même « des attaques ad personam contre M. Krebs et des accusations de nature politique et non étayées », relève Le Monde. Il l’accuse en effet et notamment d’avoir sciemment cherché à « censurer » les voix conservatrices – Chris Krebs est pourtant un républicain – ou encore d’avoir « perturbé les débats sur le Covid-19 en tentant de discréditer les opinions populaires qui étaient contraires à la vision de la CISA ».

Et ce, alors que la Russie dépenserait 1,5 milliard de dollars par an pour des campagnes d’influence à l’étranger, que la Radiodiffusion de la République islamique d’Iran, son principal organe de propagande étrangère, disposait d’un budget de 1,26 milliard de dollars en 2022, et que la Chine dépenserait jusqu’à 10 milliards de dollars par an pour des médias ciblant les étrangers non chinois, relève la MIT Technology Review.

Cité par Politico, un responsable du département d’État, qui a requis l’anonymat par crainte de représailles, a déclaré que « le Kremlin et le Parti communiste chinois peuvent aujourd’hui se réjouir. […] Une nouvelle faille a été créée dans notre sécurité nationale, rendant l’Amérique encore plus vulnérable ».

Un Américain sur cinq croit que les vaccins ont plus tué que la Covid-19

Ces annonces interviennent alors que l’entreprise NewsGuard, spécialisée dans la lutte contre la désinformation, déplore de son côté « une croyance généralisée dans les fausses informations » de la part des citoyens états-uniens.

« Les Américains sont largement enclins à croire les fausses infos diffusées en ligne sur toute une série de sujets, notamment la santé et la médecine, les élections et les conflits internationaux » relève en effet NewsGuard, qui souligne également que « les Américains sont dupés dans des proportions alarmantes par les affirmations de désinformation du Kremlin ».

NewsGuard a en effet demandé à YouGov de présenter à un échantillon représentatif de 1 000 citoyens états-uniens de plus de 18 ans une liste de « 10 fausses informations largement répandues en ligne, dont trois proviennent de médias russes ou ont été principalement diffusées par ces derniers ». Les personnes interrogées devaient indiquer si elles étaient vraies, fausses, ou si elles n’étaient « pas sûres » de leur véracité.

NewsGuard n’a pas mis en ligne l’intégralité de l’étude de YouGov. Reste que la probabilité statistique que les personnes interrogées puissent avoir été induites en erreur était donc élevée. 78 % d’entre elles ont, de fait, cru à au moins une affirmation, et moins de 1 % des personnes interrogées seulement ont correctement identifié les 10 affirmations comme étant fausses.

Il n’empêche : plusieurs de ces 10 désinformations sont tellement grossières qu’on peine à comprendre ce pourquoi autant de citoyens états-uniens y croient, ou peinent à les identifier comme fausses. Il leur était par exemple demandé si le fait d’avorter favorisait le risque d’avoir un cancer du sein. Ou encore si les vaccins contre la poliomyélite contenaient des ingrédients basés sur du mercure (ce qui n’a jamais été le cas, précise NewsGuard).

Moins de la moitié des personnes interrogées ont en outre correctement identifié comme fausse l’affirmation selon laquelle « les vaccins COVID-19 ont tué entre 7,3 et 15 millions de personnes dans le monde, alors qu’une personne interrogée sur cinq pensait que cette affirmation était vraie ».

Outre le fait que les données des agences sanitaires et études validées par des pairs montrent que les vaccins COVID-19 approuvés sont sûrs et efficaces, le nombre de personnes mortes du Covid-19 est lui-même estimé à un peu plus de 7 millions, la surmortalité étant de son côté estimée à un peu plus de 27 millions, relève OurWorldinData.

Une autre désinformation était, cela dit, plus sujette à caution. Seuls 13 % des répondants ont en effet été en mesure d’identifier correctement comme fausse l’affirmation selon laquelle le Projet 2025 néoconservateur proposait d’éliminer la sécurité sociale. Bien que le texte, qui visait notamment à remplacer des dizaines de milliers de fonctionnaires fédéraux par des personnes nommées pour leurs positions conservatrices, puisse être qualifié de xénophobe, protectionniste et climatodénialiste, il ne mentionne effectivement pas ce point.

Un tiers des états-uniens croient à au moins une désinformation russe

Reste qu’un tiers (33,9 %) des personnes interrogées ont estimé qu’au moins une des trois désinformations d’origine russe était vraie. Et que moins d’un quart (23,8 %) ont identifié correctement les trois fausses informations. Les trois quarts des sondées étaient en outre « incapables d’identifier systématiquement les récits de désinformation russes comme étant faux », souligne NewsGuard.

61 % ont ainsi été incapables de qualifier de fausse l’affirmation selon laquelle « entre 30 et 50 % de l’aide financière américaine fournie à l’Ukraine a été volée par des fonctionnaires ukrainiens à des fins personnelles ». Une personne interrogée sur quatre a estimé que cette affirmation, tirée d’un article du média d’État russe RT (anciennement Russia Today), était vraie.

Près des deux tiers des personnes interrogées (64 %) n’ont pas, non plus, identifié comme fausse l’affirmation selon laquelle « la cote de popularité du président ukrainien Zelensky est tombée à 4 % », émanant elle aussi de plusieurs médias d’État russes. Pire, déplore NewsGuard : près d’un Américain sur cinq a déclaré que cette fausse information était vraie, alors que des sondages récents ont montré que Zelensky disposait d’un taux d’approbation compris entre 57 et 63 %.

Moins de la moitié des personnes interrogées (44 %) a en outre correctement identifié comme fausse l’affirmation selon laquelle « l’Ukraine a vendu au Hamas des armes qui lui ont été données par les États-Unis », infox là encore largement relayée par les médias d’État russes ainsi que « certains sites américains », et amplifiée par de hauts responsables russes sur les réseaux sociaux.

Au-delà de la désinformation russe, le confusionnisme serait massif

15 % des personnes interrogées ont au surplus qualifié de vrai le fait que des immigrants haïtiens avaient volé, tué et mangés des animaux domestiques à Springfiled dans l’Ohio (comme l’avait affirmé Donald Trump pendant sa campagne électorale), mais également que Starlink avait été utilisé pour truquer les élections de 2024 en faveur de Donald Trump. Et 45 % d’entre elles n’ont pas non plus correctement identifié ces deux affirmations comme fausses.

« Dans un pays politiquement divisé », constate NewsGuard, les résultats de l’enquête montrent aussi « une croyance généralisée dans les fausses affirmations », qui « dépasse les frontières des partis » :

« Les personnes interrogées s’identifiant comme démocrates sont à peu près aussi susceptibles (82 %) de croire à au moins une des dix fausses affirmations que celles s’identifiant comme républicaines (81 %). »

Les personnes interrogées ne s’identifiant pas à un parti politique sont « légèrement moins enclines à croire à la désinformation », 72 % d’entre elles considérant « au moins une fausse affirmation comme vraie ».

NewsGuard relève toutefois que les républicains « sont plus enclins à croire les allégations de désinformation russe que leurs homologues démocrates » :

« Parmi les républicains, 57,6 % ont identifié au moins une allégation de désinformation russe comme étant vraie, contre 17,9 % des démocrates et 29,5 % des personnes interrogées n’ayant pas identifié de parti. »

Un confusionnisme conspirationniste qui correspond en tous points aux agendas politiques de la propagande russe, ainsi qu’à celui de Steve Bannon.

La première repose en effet, notamment, sur le fait d’inonder les réseaux sociaux et médias de plusieurs versions « alternatives » des faits dont il est question, de sorte de les « noyer » dans la masse, « afin de saper les faits authentiques », expliquait à Newsweek Vitaliy Naida, haut fonctionnaire du service de sécurité de l’État ukrainien.

L’ex-directeur de la campagne présidentielle de Donald Trump Steve Bannon s’était quant à lui illustré en avançant que « Les démocrates n’ont pas d’importance. La véritable opposition, ce sont les médias. Et la façon de traiter avec eux est d’inonder la zone avec de la merde » :

« Les médias sont l’opposition, et comme ils sont stupides et paresseux, ils ne peuvent s’intéresser qu’à une chose à la fois. Tout ce que nous avons à faire, c’est noyer la zone. Chaque jour, nous devons leur balancer trois choses. Ils en mordront une et nous pourrons faire nos affaires. Bang, bang, bang, ils ne s’en remettront jamais. »

Le nombre de titres générés par IA proposé à Deezer a doublé en trois mois

17 avril 2025 à 15:51
With or Without IA
Le nombre de titres générés par IA proposé à Deezer a doublé en trois mois

Le nombre de morceaux de musique identifiés par le détecteur de contenus synthétiques développé par la plateforme est passé de 10 000 à plus de 20 000 par jour entre janvier et avril. 7 à 8 % relèveraient de tentatives de fraude. Le patron de Deezer propose de « légiférer pour que les plateformes rémunèrent les artistes et pas ces bruits », mais ne précise pas comment.

« Environ 10 000 pistes totalement générées par IA sont livrées à la plateforme chaque jour, soit environ 10 % du contenu quotidien livré », expliquait Deezer en janvier dernier. La plateforme annonçait alors avoir déployé un « outil de pointe », conçu en interne et testé depuis un an, pour les détecter.

Alexis Lanternier, son CEO, précisait vouloir « développer un système de marquage pour le contenu totalement généré par IA, [pour] l’exclure des recommandations algorithmiques et éditoriales ». L’entreprise se donnait également pour objectif de développer des capacités de détection de voix générées par deepfakes.

Trois mois plus tard seulement, Deezer vient de révéler que « 18% des nouvelles musiques publiées chaque jour sur sa plateforme sont entièrement générés par intelligence artificielle ». « Soit plus de 20 000 chansons sur les quelque 150 000 qui sont versées chaque jour » (contre 25 000 il y a trois ans), souligne à Ouest-France Alexis Lanternier.

« C’est exponentiel », précise-t-il. « En deux mois, ce chiffre a presque doublé et il n’y a aucune raison que ça s’arrête tellement les outils sont faciles d’utilisation. Ça va continuer ! »

Légiférer pour rémunérer les artistes « et pas ces bruits »

« Nous les signalons clairement à l’utilisateur, en IA Generated, afin qu’il sache que ledit titre est produit par une IA générative et nous les sortons de nos algorithmes pour qu’ils ne remontent pas », tempère Alexis Lanternier, qui indique que Deezer a par ailleurs identifié « 7 à 8 % de fraude » :

« On ne voit pas d’explosion de la consommation de titres produits par l’IA. Les auditeurs cherchent des vrais artistes, de la musique incarnée et c’est heureux. Cependant, c’est un très bon outil pour les fraudeurs, qui créent plein de chansons pour générer des écoutes et récupérer des royalties. C’est sur ce point qu’il faut sans doute imaginer de légiférer pour que les plateformes rémunèrent les artistes et pas ces bruits. »

En 2024, Deezer avait déjà supprimé 13 % de son catalogue

La plateforme, qui héberge aujourd’hui 130 millions de titres, fait régulièrement le ménage pour nettoyer son catalogue des titres qui faussent le calcul de la rémunération des artistes professionnels. La plateforme supprime ainsi l’encodage Flac (la meilleure qualité audio, mais très gourmande en stockage, précise Ouest France) des titres qui n’ont pas été écoutés depuis un an, au motif que « C’est très important, car cela génère de la pollution numérique ».

En avril 2024, Deezer avait ainsi annoncé avoir supprimé 13 % de son catalogue global, soit environ 26 millions de titres entre septembre 2023 et mars 2024, relevait alors BFMTech. Y figuraient des pistes composées de bruits blancs, albums ne contenant qu’un seul et unique morceau, titres et mauvaises imitations générés par intelligence artificielle.

10 millions d’utilisateurs dans le monde, dont la moitié en France

La plateforme vient par ailleurs d’annoncer plusieurs fonctionnalités, censées « offrir une expérience musicale encore plus personnalisée à ses utilisateurs et abonnés ». Elles visent, explique Alexis Lanternier, à « permettre aux utilisateurs de mieux comprendre les algorithmes et de prendre un peu plus le contrôle sur leur usage, de personnaliser encore plus leur expérience et de pouvoir partager facilement avec leurs communautés, abonnées ou non à Deezer ».

À compter du 28 avril, Deezer proposera un « lien de partage universel » afin que ses utilisateurs puissent partager leurs titres favoris, « que leurs amis soient sur Spotify, Apple music ou Youtube music ».

Interrogé par Ouest France sur la possibilité de se convertir en « futur réseau social », Alexis Lanternier botte en touche : « C’est tout à fait possible mais c’est trop tôt pour le dire. On va créer des solutions petit à petit. Évidemment, ça ne peut pas être un réseau social comme les autres, mais la musique est un outil de connexion exceptionnel, donc elle doit créer des liens, à nous de les faciliter. Les utilisateurs veulent davantage d’humain et moins d’algorithmes. »

Ouest-France souligne que la plateforme, cotée en Bourse et qui a atteint la rentabilité en 2024, « compte désormais un peu moins de 10 millions d’utilisateurs dans le monde, dont la moitié en France (où ça augmente) et le reste ailleurs (où ça baisse un peu) ».

Le nombre de titres générés par IA proposé à Deezer a doublé en trois mois

17 avril 2025 à 15:51
With or Without IA
Le nombre de titres générés par IA proposé à Deezer a doublé en trois mois

Le nombre de morceaux de musique identifiés par le détecteur de contenus synthétiques développé par la plateforme est passé de 10 000 à plus de 20 000 par jour entre janvier et avril. 7 à 8 % relèveraient de tentatives de fraude. Le patron de Deezer propose de « légiférer pour que les plateformes rémunèrent les artistes et pas ces bruits », mais ne précise pas comment.

« Environ 10 000 pistes totalement générées par IA sont livrées à la plateforme chaque jour, soit environ 10 % du contenu quotidien livré », expliquait Deezer en janvier dernier. La plateforme annonçait alors avoir déployé un « outil de pointe », conçu en interne et testé depuis un an, pour les détecter.

Alexis Lanternier, son CEO, précisait vouloir « développer un système de marquage pour le contenu totalement généré par IA, [pour] l’exclure des recommandations algorithmiques et éditoriales ». L’entreprise se donnait également pour objectif de développer des capacités de détection de voix générées par deepfakes.

Trois mois plus tard seulement, Deezer vient de révéler que « 18% des nouvelles musiques publiées chaque jour sur sa plateforme sont entièrement générés par intelligence artificielle ». « Soit plus de 20 000 chansons sur les quelque 150 000 qui sont versées chaque jour » (contre 25 000 il y a trois ans), souligne à Ouest-France Alexis Lanternier.

« C’est exponentiel », précise-t-il. « En deux mois, ce chiffre a presque doublé et il n’y a aucune raison que ça s’arrête tellement les outils sont faciles d’utilisation. Ça va continuer ! »

Légiférer pour rémunérer les artistes « et pas ces bruits »

« Nous les signalons clairement à l’utilisateur, en IA Generated, afin qu’il sache que ledit titre est produit par une IA générative et nous les sortons de nos algorithmes pour qu’ils ne remontent pas », tempère Alexis Lanternier, qui indique que Deezer a par ailleurs identifié « 7 à 8 % de fraude » :

« On ne voit pas d’explosion de la consommation de titres produits par l’IA. Les auditeurs cherchent des vrais artistes, de la musique incarnée et c’est heureux. Cependant, c’est un très bon outil pour les fraudeurs, qui créent plein de chansons pour générer des écoutes et récupérer des royalties. C’est sur ce point qu’il faut sans doute imaginer de légiférer pour que les plateformes rémunèrent les artistes et pas ces bruits. »

En 2024, Deezer avait déjà supprimé 13 % de son catalogue

La plateforme, qui héberge aujourd’hui 130 millions de titres, fait régulièrement le ménage pour nettoyer son catalogue des titres qui faussent le calcul de la rémunération des artistes professionnels. La plateforme supprime ainsi l’encodage Flac (la meilleure qualité audio, mais très gourmande en stockage, précise Ouest France) des titres qui n’ont pas été écoutés depuis un an, au motif que « C’est très important, car cela génère de la pollution numérique ».

En avril 2024, Deezer avait ainsi annoncé avoir supprimé 13 % de son catalogue global, soit environ 26 millions de titres entre septembre 2023 et mars 2024, relevait alors BFMTech. Y figuraient des pistes composées de bruits blancs, albums ne contenant qu’un seul et unique morceau, titres et mauvaises imitations générés par intelligence artificielle.

10 millions d’utilisateurs dans le monde, dont la moitié en France

La plateforme vient par ailleurs d’annoncer plusieurs fonctionnalités, censées « offrir une expérience musicale encore plus personnalisée à ses utilisateurs et abonnés ». Elles visent, explique Alexis Lanternier, à « permettre aux utilisateurs de mieux comprendre les algorithmes et de prendre un peu plus le contrôle sur leur usage, de personnaliser encore plus leur expérience et de pouvoir partager facilement avec leurs communautés, abonnées ou non à Deezer ».

À compter du 28 avril, Deezer proposera un « lien de partage universel » afin que ses utilisateurs puissent partager leurs titres favoris, « que leurs amis soient sur Spotify, Apple music ou Youtube music ».

Interrogé par Ouest France sur la possibilité de se convertir en « futur réseau social », Alexis Lanternier botte en touche : « C’est tout à fait possible mais c’est trop tôt pour le dire. On va créer des solutions petit à petit. Évidemment, ça ne peut pas être un réseau social comme les autres, mais la musique est un outil de connexion exceptionnel, donc elle doit créer des liens, à nous de les faciliter. Les utilisateurs veulent davantage d’humain et moins d’algorithmes. »

Ouest-France souligne que la plateforme, cotée en Bourse et qui a atteint la rentabilité en 2024, « compte désormais un peu moins de 10 millions d’utilisateurs dans le monde, dont la moitié en France (où ça augmente) et le reste ailleurs (où ça baisse un peu) ».

En 2019, le logiciel espion Pegasus de NSO avait ciblé 1 223 utilisateurs de WhatsApp

15 avril 2025 à 13:15
New Surveillance Order
En 2019, le logiciel espion Pegasus de NSO avait ciblé 1 223 utilisateurs de WhatsApp

Plus des deux tiers résidaient au Mexique, 100 en Inde et, pour la plupart, dans des pays semi-autoritaires, plus une soixantaine dans des pays occidentaux, dont 7 en France. L’entreprise israélienne s’est depuis dotée d‘une charte en matière de protection des droits humains, et d’une liste noire de 60 pays ne les respectant pas. Elle revendique 54 clients dans 31 pays, contre 60 clients dans 40 pays en 2021.

Les chiffres émanent d’un document judiciaire, rendu public dans le cadre de l’action intentée par WhatsApp contre NSO, et repéré par Ctech et TechCrunch. La messagerie, propriété de Meta, accusait l’entreprise d’avoir ciblé « environ 1 400 » de ses utilisateurs, dont 100 défenseurs des droits humains et journalistes.

Le document ne fournit pas la liste des clients de NSO, mais un tableur intitulé « décompte des victimes par pays », estampillé « Highly Confidential – Attorneys’ Eyes Only » (« Hautement confidentiel – réservé aux avocats ») permet de s’en faire une idée. Mais également de découvrir, souligne Ctech, qu’un « nombre disproportionné » de victimes vivaient dans des pays « qui ne sont pas des démocraties occidentales », et que nombre des clients de NSO (qui doivent être validés par les autorités israéliennes) seraient des régimes semi-autoritaires.

On y découvre en effet que plus des deux tiers (456) résidaient au Mexique, 100 en Inde, 82 au Bahreïn, 69 au Maroc, 58 au Pakistan, 54 en Indonésie, et 51 en Israël. Parmi les autres pays comptant un nombre important de victimes figurent l’Ouzbékistan (43), l’Algérie (38), Chypre (31) et la Turquie (26).

Le nombre de victimes résidant dans des pays occidentaux est sans commune mesure, puisque si l’Espagne en dénombre 21, les Pays-Bas n’en compte que 11, la Hongrie 8, la France 7, la Belgique et la Finlande 4, la Suisse 3, le Royaume-Uni et l’Allemagne 2, le Canada et États-Unis 1.


Il reste 77% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Sites d’info générés par IA : Google ne respecte pas ses propres règles

8 avril 2025 à 12:09
Faites ce que je dis, pas ce que je fais
Sites d’info générés par IA : Google ne respecte pas ses propres règles

Deux responsables de Google viennent de rappeler aux éditeurs de sites web que la création en masse de grandes quantités de contenu, en particulier à l’aide de l’IA, relève du « spam » (sauf si elle fait montre d’originalité et offre une réelle valeur ajoutée). Or, l’algorithme de recommandation de contenus Discover de Google promeut (au moins) une quarantaine de sites générés par IA (GenAI), dont plusieurs relaient rumeurs et infox.

Parmi les 3 500 sites d’infos générés par IA (GenAI) que nous avons identifiés, une quarantaine (au moins) ont été mis en avant par Discover, la « fonctionnalité de la recherche Google qui présente aux internautes des contenus en rapport avec leurs centres d’intérêt, en fonction de leur activité sur le Web et les applications » (que, pour notre part, nous avons utilisée sans aucune personnalisation, et en désactivant l’historique des recherches, de sorte d’avoir des recommandations aussi « neutres » que possible).

Si deux de cette quarantaine de sites d’infos GenAI recommandés par Google font partie du groupe de presse Économie Matin, tous les autres émanent de professionnels du SEO. Les pics de trafic que connaissent les articles apparaissant sur Discover sont tels que les revenus publicitaires associés sont devenus une véritable « machine à cash » pour ces mercenaires de l’info.

Non contents, pour la plupart, de paraphraser, voire plagier des articles écrits par de véritables journalistes, ils relaient aussi de nombreuses rumeurs et infox, « hallucinées » par leurs IA, et racontent souvent « n’importe quoi », pour reprendre le célèbre mème d’Anouk Ricard (cf son compte Instagram), Grand Prix de la 52ᵉ édition du Festival International de la Bande Dessinée d’Angoulême.

Ce qui ne les empêche donc pas d’être mis en avant par l’algorithme Discover de Google, au mépris des propres règles de ce dernier, allant parfois jusqu’à afficher deux articles GenAI de suite, comme en témoignent ces captures d’écran.

Captures d’écran d’articles GenAI relayant des rumeurs mais néanmoins promus sur Google Discover

Quelques sites GenAI pénalisés… suite à un reportage de France 2 ?


Il reste 83% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

RSF et les ayants droit dénoncent le projet de Code de bonnes pratiques de l’AI Act

3 avril 2025 à 13:45
GenAÏe
RSF et les ayants droit dénoncent le projet de Code de bonnes pratiques de l’AI Act

Évoquant des pressions et concessions en faveur des industriels, Reporters sans frontières estime que « rien de concret n’est fait pour protéger le droit des citoyens à accéder à une information fiable » dans l’AI Act. Une coalition de 38 organisations représentant les ayants droit déplore de son côté qu’il contrevienne « au droit de l’UE et ignore l’intention du législateur européen ».

L’ONG Reporters sans frontières (RSF) vient d’annoncer qu’elle quittait la table des négociations du Code de bonnes pratiques du règlement européen sur l’intelligence artificielle (AI Act). « Après avoir joué, en vain, le jeu de la négociation », elle « dénonce l’absence de garanties sur le droit à l’information et le poids exorbitant de l’industrie dans le processus ».

Au terme de trois mois de négociations « sous la pression croissante des géants technologiques », souligne RSF, le Bureau européen de l’IA a en effet publié ce 11 mars 2025, la troisième version de travail de son Code de bonnes pratiques de l’AI Act.

« Le projet repose sur une liste concise d’engagements de haut niveau et prévoit des mesures plus détaillées pour mettre en œuvre chaque engagement », précise la Commission, qui en propose un résumé dédié et un site web interactif.

Il s’agit de « 2 engagements liés à la transparence et au droit d’auteur » pour tous les fournisseurs de modèles d’IA à usage général, mais « avec des exemptions notables aux obligations de transparence pour les fournisseurs de certains modèles open source conformément à la loi sur la transparence », et de « 16 autres engagements liés à la sûreté et à la sécurité », mais « uniquement pour un petit nombre » de fournisseurs de modèles d’IA classés comme « présentant un risque systémique ».

Le processus de rédaction de ce code s’étalera jusqu’en mai 2025 et implique près de 1000 parties prenantes, dont des représentants des États membres de l’UE et des observateurs européens et internationaux, précise la Commission dans sa FAQ consacrée à la question.

Mais « toutes ne bénéficient cependant pas du même statut », relevait RSF en décembre dernier : les fournisseurs d’IA sont en effet invités à des « ateliers de rédaction » tandis que les autres acteurs, comme les universitaires et organisations de la société civile, « sont uniquement conviés à émettre leur avis sur les versions intermédiaires du texte, et à participer à des groupes de travail – auxquels participent également les fournisseurs d’IA ».

Un outil d’autorégulation par et pour les concepteurs d’IA


Il reste 71% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Royaume-Uni : la reconnaissance faciale policière en temps réel gagne du terrain

1 avril 2025 à 10:05
Big Brother Watched
Royaume-Uni : la reconnaissance faciale policière en temps réel gagne du terrain

Après avoir testé son système de reconnaissance faciale « en direct » via des fourgons de police, qui aurait permis d’identifier et arrêté plus de 500 « criminels présumés » recherchés, la police s’apprête à déployer deux caméras fixes dans la banlieue de Londres. Le nombre de « faux positifs » serait quasi-nul, ce que conteste l’ONG Big Brother Watch, qui se base aussi, de son côté, sur les systèmes déployés dans les magasins.

La police métropolitaine (« Met ») du Grand Londres va déployer deux caméras de reconnaissance faciale en direct (LFR, pour « Live Facial Recognition ») cet été à Croydon, une ville de la banlieue sud de la capitale britannique, rapporte The Times.

Ce déploiement ferait partie d’un projet pilote entamé il y a deux ans, précise The Register. Les caméras LFR comparent les visages des passants à une base de données de personnes recherchées et « criminels présumés, notamment des violeurs, des cambrioleurs et des voleurs ».

Les données sont immédiatement effacées s’il n’y a pas de correspondance. Le système, « accrédité » par le Laboratoire National de Physique, « ne présente pas les mêmes biais raciaux que d’autres formes de reconnaissance faciale », précise la « Met ».

Le système, testé jusqu’alors via des caméras LFR installées sur des fourgons de police, aurait d’ores et déjà permis, l’an passé de procéder à « plus de 500 arrestations » d’« individus dangereux soupçonnés d’infractions graves, notamment d’étranglement, de harcèlement, de violences domestiques et de viol », précise un porte-parole de la Met. Sur LinkedIn, la Met expliquait en décembre dernier que la LFR avait permis 540 arrestations, dont 406 inculpations ou mises en examen.

0,075 % de « vrais positifs », 0,00075 % d’erreurs (« faux positifs »)


Il reste 72% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Donald Trump veut (aussi) fermer le fonds qui avait soutenu le développement de Signal

31 mars 2025 à 12:02
Ennemi d'État... « anti-Américains » (sic)
Donald Trump veut (aussi) fermer le fonds qui avait soutenu le développement de Signal

Sous couvert de lutte contre la bureaucratie, la corruption et les ennemis des États-Unis, l’administration Trump veut fermer l’organisme qui, depuis les printemps arabes, subventionne les logiciels permettant de protéger et sécuriser l’accès à l’information, y compris dans les régimes répressifs tels que la Chine, l’Iran ou la Russie.

Donald Trump vient de couper les financements de l’agence indépendante états-unienne subventionnant une cinquantaine de projets de logiciels développés pour défendre les droits et libertés des internautes, dont la messagerie chiffrée Signal.

Un comble, alors que l’on a découvert que les plus hauts responsables de son gouvernement s’en servent, jusqu’à y discuter de leurs opérations de guerre. Un recours à la messagerie chiffrée qui ne serait pas seulement motivé par des considérations de sécurité. D’après The Independant, il s’agirait aussi de contourner l’obligation légale de garder la trace des communications privées gouvernementales.

L’Open Technology Fund (OTF) que l’administration Trump voudrait voir disparaître soutient notamment la fondation TOR, Let’s Encrypt, la distribution GNU/Linux anonymisante et « amnésique » Tails, le magasin d’applications libres F-Droid, OpenVPN, l’outil anti-censure Psiphon, PiGuard Reloaded, l’observatoire OONI de la cybercensure, le plug-in OpenPGP Mailvelope, Reproductible Builds ou encore le service de DNS Quad9.

Créé en 2012 par Radio Free Asia afin d’aider ses reporters et leurs sources à pouvoir communiquer de façon sécurisée, notamment au Tibet et dans la région autonome ouïghoure du Xinjiang, l’OTF s’était aussi fait connaître pour avoir contribué au financement d’Open Whisper Systems (à hauteur de près de 3 millions de dollars sur trois ans), et donc au développement de la messagerie Signal, de la distribution sécurisée Qubes OS ou de NoScript, entre autres.

À l’époque, Hillary Clinton dirigeait le Département d’État, chargé des Affaires étrangères. Marquée par la façon qu’avait eu Internet et les réseaux sociaux de contribuer aux manifestations en Iran en 2009 (qualifiées, à l’époque, de « Révolution Twitter »), puis aux printemps arabes en 2010 et 2011, elle avait alors théorisé ce qu’elle qualifia de « dilemme du dictateur » qui, confronté aux libertés permises par Internet, devrait « choisir entre laisser tomber les murs ou payer le prix pour qu’ils restent debout », comme l’avait souligné Bloomberg :

« Nous pensons que les gouvernements qui ont érigé des barrières à la liberté de l’internet — qu’il s’agisse de filtres techniques, de régimes de censure ou d’attaques contre ceux qui exercent leurs droits d’expression et de réunion en ligne — finiront par se retrouver coincés. »

Un budget passé de 10M$ en 2014 à 40M$ en 2023


Il reste 80% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

En Chine, les systèmes de reconnaissance faciale devront proposer des alternatives

25 mars 2025 à 16:05
Unclear view
En Chine, les systèmes de reconnaissance faciale devront proposer des alternatives

La Chine renforce les modalités de recours à la reconnaissance faciale, conditionné au recueil préalable d’un consentement éclairé, qu’il sera par ailleurs possible de retirer. Et ce, au motif qu’elle « ne doit pas mettre en danger la sécurité nationale, nuire aux intérêts publics et porter atteinte aux droits et intérêts personnels légitimes ». À l’exception des activités liées à la R&D.

« Poussée par une forte demande dans les domaines de la finance, de la sécurité, de la maison intelligente » notamment, la reconnaissance biométrique faciale et la taille de son marché se développent rapidement, relève la Cyberspace Administration of China (CAC, le régulateur – et censeur – de l’Internet en Chine) :

« Par exemple, dans le domaine de la sécurité, la technologie de reconnaissance faciale est largement utilisée dans les systèmes de contrôle d’accès et les systèmes de surveillance dans des domaines importants tels que les aéroports, les banques et les centres commerciaux, ce qui améliore considérablement la sécurité publique et les capacités d’intervention d’urgence. »

« Tout en facilitant la vie des gens, la technologie de reconnaissance faciale est de plus en plus utilisée à mauvais escient et les problèmes soulevés par la protection des renseignements personnels deviennent de plus en plus importants », souligne cela dit la CAC.

Entre autres, la collecte et l’utilisation de telles informations faciales par certaines entreprises et agences « sans le consentement exprès » de l’utilisateur « violent le droit de l’utilisateur à la vie privée et soulèvent des préoccupations sociales ». Le CAC évoque par exemple des cas de piratage, fraude et vols d’identité.

87 % des Chinois opposés à la reconnaissance faciale dans l’espace public

L’agence Reuters note d’ailleurs qu’une enquête menée en 2021 par un groupe de réflexion affilié au média d’État The Beijing News indiquait que 75 % des personnes interrogées se disaient préoccupées par la reconnaissance faciale. 87 % s’opposaient également à son utilisation dans les lieux publics.

Reuters rappelle que la Cour suprême de Chine avait déjà interdit, en juillet 2021, l’utilisation de cette technologie pour vérifier les identités dans les lieux publics tels que les centres commerciaux et les hôtels. Elle avait aussi autorisé les résidents à demander d’autres méthodes de vérification pour entrer dans leur quartier.

En novembre de la même année, la loi sur la protection des informations personnelles (Personal Information Protection Law, ou PIPL) était en outre entrée en vigueur, « rendant obligatoire le consentement de l’utilisateur pour la collecte de données faciales [entre autres données personnelles, ndlr] et imposant de lourdes amendes aux entreprises qui ne s’y conforment pas ».

La reconnaissance faciale « ne doit pas mettre en danger la sécurité nationale »

Ce pourquoi de nouvelles mesures d’ « administration de la gestion de la sécurité pour l’application de la technologie de reconnaissance faciale » viennent donc d’être introduites, au motif que la reconnaissance faciale « ne doit pas mettre en danger la sécurité nationale, nuire aux intérêts publics et porter atteinte aux droits et intérêts personnels légitimes ».

À compter du 1er juin 2025, le recours à la reconnaissance faciale devra « avoir un objectif spécifique et une nécessité suffisante, adopter une méthode qui a le moins d’impact sur les droits et intérêts personnels et mettre en œuvre des mesures de protection strictes » :

« La reconnaissance faciale ne doit pas être utilisée comme seule vérification s’il existe d’autres méthodes technologiques sans reconnaissance faciale pour atteindre le même objectif ou répondre aux mêmes exigences commerciales. […] Lorsqu’une personne n’accepte pas l’authentification au moyen d’informations faciales, d’autres moyens raisonnables et pratiques doivent lui être fournis. »

Il sera possible de « retirer son consentement »

Son utilisation devra en outre reposer « sur la base du consentement de l’individu, donné volontairement et explicitement », et être obtenu « en partant du principe » que l’individu (ses parents ou tuteurs pour les mineurs de moins de quatorze ans) « est pleinement informé », « de manière véridique, précise et complète des questions suivantes de manière visible, dans un langage clair et compréhensible » :

  • le nom et les coordonnées du responsable du traitement,
  • l’objectif et la méthode de traitement de la reconnaissance faciale, ainsi que la durée de conservation des données,
  • ce pourquoi il est nécessaire de recourir à la reconnaissance faciale, et son impact sur les droits des personnes concernées,
  • les méthodes et procédures leur permettant de faire valoir leurs droits.

De plus, le responsable du traitement devra « fournir un moyen pratique de retirer son consentement », retrait qui ne saurait affecter l’efficacité des activités permises par la reconnaissance faciale sur la base du consentement initial de la personne concernée.

Les informations « ne doivent pas être transmises via Internet »

Les informations devront être stockées localement « et ne doivent pas être transmises via Internet ». Leur durée de conservation « ne doit pas dépasser le temps minimum nécessaire pour atteindre l’objectif du traitement ».

Une analyse d’impact en termes de protection des informations personnelles devra par ailleurs être effectuée préalablement à tout déploiement. Les données devront être chiffrées, et les systèmes d’information prendre en compte les notions d’audit de sécurité, de contrôle d’accès, de gestion des autorisations et de détection d’intrusions, entre autres mesures de cybersécurité.

En outre, aucune organisation ou personne ne pourra installer d’équipement de reconnaissance faciale à l’intérieur d’espaces privés dans des lieux publics tels que les chambres d’hôtels, les salles de bains, vestiaires et toilettes publiques, etc., « protégeant ainsi le droit à la vie privée des individus contre toute violation ».

Le CAC précise cela dit que ces restrictions ne s’appliqueront pas « si la technologie de reconnaissance faciale est utilisée pour traiter des informations faciales sur le territoire de la République populaire de Chine pour des activités de recherche et de développement de technologies de reconnaissance faciale et de formation aux algorithmes ».

La semaine passée, la CAC avait déjà édicté une nouvelle série de règles obligeant les fournisseurs de services, à partir du 1ᵉʳ septembre 2025, à étiqueter comme tels les contenus générés par IA.

En Chine, les systèmes de reconnaissance faciale devront proposer des alternatives

25 mars 2025 à 16:05
Unclear view
En Chine, les systèmes de reconnaissance faciale devront proposer des alternatives

La Chine renforce les modalités de recours à la reconnaissance faciale, conditionné au recueil préalable d’un consentement éclairé, qu’il sera par ailleurs possible de retirer. Et ce, au motif qu’elle « ne doit pas mettre en danger la sécurité nationale, nuire aux intérêts publics et porter atteinte aux droits et intérêts personnels légitimes ». À l’exception des activités liées à la R&D.

« Poussée par une forte demande dans les domaines de la finance, de la sécurité, de la maison intelligente » notamment, la reconnaissance biométrique faciale et la taille de son marché se développent rapidement, relève la Cyberspace Administration of China (CAC, le régulateur – et censeur – de l’Internet en Chine) :

« Par exemple, dans le domaine de la sécurité, la technologie de reconnaissance faciale est largement utilisée dans les systèmes de contrôle d’accès et les systèmes de surveillance dans des domaines importants tels que les aéroports, les banques et les centres commerciaux, ce qui améliore considérablement la sécurité publique et les capacités d’intervention d’urgence. »

« Tout en facilitant la vie des gens, la technologie de reconnaissance faciale est de plus en plus utilisée à mauvais escient et les problèmes soulevés par la protection des renseignements personnels deviennent de plus en plus importants », souligne cela dit la CAC.

Entre autres, la collecte et l’utilisation de telles informations faciales par certaines entreprises et agences « sans le consentement exprès » de l’utilisateur « violent le droit de l’utilisateur à la vie privée et soulèvent des préoccupations sociales ». Le CAC évoque par exemple des cas de piratage, fraude et vols d’identité.

87 % des Chinois opposés à la reconnaissance faciale dans l’espace public

L’agence Reuters note d’ailleurs qu’une enquête menée en 2021 par un groupe de réflexion affilié au média d’État The Beijing News indiquait que 75 % des personnes interrogées se disaient préoccupées par la reconnaissance faciale. 87 % s’opposaient également à son utilisation dans les lieux publics.

Reuters rappelle que la Cour suprême de Chine avait déjà interdit, en juillet 2021, l’utilisation de cette technologie pour vérifier les identités dans les lieux publics tels que les centres commerciaux et les hôtels. Elle avait aussi autorisé les résidents à demander d’autres méthodes de vérification pour entrer dans leur quartier.

En novembre de la même année, la loi sur la protection des informations personnelles (Personal Information Protection Law, ou PIPL) était en outre entrée en vigueur, « rendant obligatoire le consentement de l’utilisateur pour la collecte de données faciales [entre autres données personnelles, ndlr] et imposant de lourdes amendes aux entreprises qui ne s’y conforment pas ».

La reconnaissance faciale « ne doit pas mettre en danger la sécurité nationale »

Ce pourquoi de nouvelles mesures d’ « administration de la gestion de la sécurité pour l’application de la technologie de reconnaissance faciale » viennent donc d’être introduites, au motif que la reconnaissance faciale « ne doit pas mettre en danger la sécurité nationale, nuire aux intérêts publics et porter atteinte aux droits et intérêts personnels légitimes ».

À compter du 1er juin 2025, le recours à la reconnaissance faciale devra « avoir un objectif spécifique et une nécessité suffisante, adopter une méthode qui a le moins d’impact sur les droits et intérêts personnels et mettre en œuvre des mesures de protection strictes » :

« La reconnaissance faciale ne doit pas être utilisée comme seule vérification s’il existe d’autres méthodes technologiques sans reconnaissance faciale pour atteindre le même objectif ou répondre aux mêmes exigences commerciales. […] Lorsqu’une personne n’accepte pas l’authentification au moyen d’informations faciales, d’autres moyens raisonnables et pratiques doivent lui être fournis. »

Il sera possible de « retirer son consentement »

Son utilisation devra en outre reposer « sur la base du consentement de l’individu, donné volontairement et explicitement », et être obtenu « en partant du principe » que l’individu (ses parents ou tuteurs pour les mineurs de moins de quatorze ans) « est pleinement informé », « de manière véridique, précise et complète des questions suivantes de manière visible, dans un langage clair et compréhensible » :

  • le nom et les coordonnées du responsable du traitement,
  • l’objectif et la méthode de traitement de la reconnaissance faciale, ainsi que la durée de conservation des données,
  • ce pourquoi il est nécessaire de recourir à la reconnaissance faciale, et son impact sur les droits des personnes concernées,
  • les méthodes et procédures leur permettant de faire valoir leurs droits.

De plus, le responsable du traitement devra « fournir un moyen pratique de retirer son consentement », retrait qui ne saurait affecter l’efficacité des activités permises par la reconnaissance faciale sur la base du consentement initial de la personne concernée.

Les informations « ne doivent pas être transmises via Internet »

Les informations devront être stockées localement « et ne doivent pas être transmises via Internet ». Leur durée de conservation « ne doit pas dépasser le temps minimum nécessaire pour atteindre l’objectif du traitement ».

Une analyse d’impact en termes de protection des informations personnelles devra par ailleurs être effectuée préalablement à tout déploiement. Les données devront être chiffrées, et les systèmes d’information prendre en compte les notions d’audit de sécurité, de contrôle d’accès, de gestion des autorisations et de détection d’intrusions, entre autres mesures de cybersécurité.

En outre, aucune organisation ou personne ne pourra installer d’équipement de reconnaissance faciale à l’intérieur d’espaces privés dans des lieux publics tels que les chambres d’hôtels, les salles de bains, vestiaires et toilettes publiques, etc., « protégeant ainsi le droit à la vie privée des individus contre toute violation ».

Le CAC précise cela dit que ces restrictions ne s’appliqueront pas « si la technologie de reconnaissance faciale est utilisée pour traiter des informations faciales sur le territoire de la République populaire de Chine pour des activités de recherche et de développement de technologies de reconnaissance faciale et de formation aux algorithmes ».

La semaine passée, la CAC avait déjà édicté une nouvelle série de règles obligeant les fournisseurs de services, à partir du 1ᵉʳ septembre 2025, à étiqueter comme tels les contenus générés par IA.

Faute de résultats, l’expérimentation de la vidéosurveillance algorithmique est prolongée

24 mars 2025 à 10:26
Elle n'a identifié qu'un ramasseur de champignons égaré
Faute de résultats, l’expérimentation de la vidéosurveillance algorithmique est prolongée

Les deux députés chargés de l’auditer n’ont identifié qu’ « un cas seulement où la vidéoprotection algorithmique a été utile et encore c’était un ramasseur de champignons qui s’était égaré ». Initialement censée se terminer fin mars 2025, elle vient d’être prolongée jusqu’à fin mars 2027, dans le cadre d’une proposition de loi relative au renforcement de la sûreté dans les transports, afin que la SNCF et la RATP, notamment, puissent continuer à l’expérimenter. Philippe Latombe avance qu’il va saisir le Conseil constitutionnel.

MàJ, 16h5 : rajout de deux paragraphes et un tableau précisant que l’expérimentation aurait coûté près de 882 000 euros.

« Il apparaît prématuré de se prononcer sur la pérennisation ou l’abandon du dispositif » de « vidéoprotection algorithmique » (VPA, ou vidéosurveillance algorithmique, VSA), estime la mission flash de la commission des Lois de l’Assemblée nationale chargée de dresser un « bilan des Jeux de Paris 2024 dans le domaine de la sécurité » :

« En effet, eu égard à son champ et à ses modalités de mise en œuvre, l’expérimentation n’a pas apporté de réponse satisfaisante et pérenne quant à la pertinence du recours à l’intelligence artificielle en matière de vidéoprotection. »

« Tout ça pour ça », a résumé lors d’une conférence de presse, ce mercredi 19 mars, Éric Martineau (Les Démocrates), député de la Sarthe et co-rapporteur de la mission flash, relève LCP : « l’expérimentation qui a été faite pendant les Jeux olympiques n’a pas été à la hauteur ».

Le déploiement massif de forces de l’ordre dans les rues a, en effet, rendu la vidéosurveillance augmentée via de l’intelligence artificielle sans « utilité concrète », a précis Stéphane Peu (Gauche démocrate et républicaine), élu de Seine-Saint-Denis et co-rapporteur :

« Il y a un cas seulement où la vidéoprotection algorithmique a été utile et encore c’était un ramasseur de champignons qui s’était égaré. »

72 800 agents des forces de sécurité, plus d’1M d’enquêtes de moralité

Plusieurs raisons président à ce constat. D’une part, le fait que la sécurisation des Jeux olympiques de Paris (JOP) « a été bien anticipée par l’État » et que l’ensemble des services concernés y étaient engagés depuis plusieurs années. « En particulier, les services de renseignement ont produit un document d’analyse des risques, proposant, pour chacun d’entre eux, une série de contre-mesures », soulignent les rapporteurs.

La mission considère d’autre part que « l’élément central et déterminant de la réussite sécuritaire des JOP réside dans la présence humaine massive sur le terrain » :

« Près de 45 000 agents des forces de sécurité intérieure avaient ainsi été mobilisés pour la cérémonie d’ouverture, et chaque journée de compétition était sécurisée par 30 000 policiers et gendarmes, 10 000 militaires, 16 000 agents de sécurité privée, et 1 800 renforts venus de l’étranger, sans oublier les polices municipales. »

Le dispositif de sécurisation des JOP s’est aussi appuyé sur « un recours massif et inédit aux mesures administratives d’entraves » prévues par le Code de la sécurité intérieure pour prévenir les risques d’actes de terrorisme.


Il reste 81% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Faux positifs : comment reconnaître les contenus identifiés, à tort, comme générés par IA

20 mars 2025 à 14:53
It's not a bug, it's a feature
Faux positifs : comment reconnaître les contenus identifiés, à tort, comme générés par IA

Le nombre exponentiel de contenus « GenAI » polluant le web est tel qu’il devient parfois difficile de distinguer les contenus émanant d’êtres humains de ceux générés par des IA. Nous avons, a contrario, identifié plusieurs « faux positifs » dans le cadre de notre enquête sur les sites d’info GenAI. Après avoir expliqué comment identifier de tels contenus, il nous semble important d’expliquer comment nous avons décelé ces « faux positifs », de sorte de ne pas, non plus, contribuer à la « panique morale » autour de la GenAI. L’exercice nous a par ailleurs permis de mettre au jour, dans la presse régionale, des pratiques éditoriales qui, si elles ne reposent que partiellement sur de la GenAI, n’en restent pas moins discutables faute d’avoir été correctement supervisées.

Six mois seulement après le lancement, fin 2022, de ChatGPT, des sites d’information anglo-saxons, comme RollingStone et The Markup, rapportaient déjà le cas d’étudiants accusés, à tort, d’avoir rendu des devoirs rédigés grâce au chatbot d’OpenAI. En cause, notamment, le fait que l’anglais n’étant pas leur langue maternelle, leurs textes étaient plus « plats » que ceux écrits par des natifs, et ressemblaient donc aux textes synthétiques générés par l’IA.

Depuis, et même si ChatGPT et ses avatars se sont considérablement améliorés, et qu’il existe beaucoup de services web destinés à « humaniser » les textes GenAI, et tromper les détecteurs de contenus générés par IA, l’explosion du nombre de ce type de contenus disponible en ligne augmente statistiquement la probabilité de tels « faux positifs », et donc que des contenus générés par des humains soient identifiés à tort comme GenAI.

Or, cette « pollution » de contenus « synthétiques », car GenAI, à laquelle nous assistons ne saurait faire de l’IA l’« idiot utile » non plus que le « coupable désigné » des potentiels problèmes éditoriaux auxquels nous pourrions être confrontés. Si les contenus bas de gamme (AI « slop ») sont relativement faciles à identifier, d’autres deviennent quasiment impossibles à distinguer.

Or, et de même que les journalistes (a fortiori d’investigation), enquêteurs de police judiciaire ou analystes du renseignement sont « a priori » censés enquêter « à charge et à décharge », en évitant les biais cognitifs et les approximations, on ne saurait partir du postulat qu’un contenu « suspect » serait forcément « coupable ». Les nombreux exemples de « faux positifs » que nous avons identifiés dans le cadre de notre enquête sur les sites d’information GenAI devraient à ce titre appeler à la mesure et à la prudence.

Le problème n’est pas d’avoir recours à la GenAI, en soi, mais de ne pas être transparent en la matière. D’aucuns utilisent de façon légitime ce type de contenus GenAI, de façon « supervisée », en mode « rédacteurs hybrides », avec des contenus estampillés comme tels.

Comme indiqué dans notre article expliquant comment reconnaître ces contenus GenAI, ces derniers partagent un certain nombre de caractéristiques, techniques, tactiques et procédures (TTP), mais s’ils peuvent dresser un « faisceau d’indices », ils ne sauraient, pour autant, servir de « preuves ».

Nous avions résumé ces TTP dans l’article présentant l’extension (Chrome et Firefox) que nous avons développée pour alerter les internautes lorsqu’ils consultent les sites d’information « en tout ou partie » GenAI que nous avons identifiés.

En cliquant sur le bouton de l’extension, vous retrouverez en effet cette grille de lecture (non cumulative, ni exhaustive) :

  • Ils ont recours à des expressions, patterns ou hallucinations typiques des contenus GenAI,
  • sont signés de journalistes qui n’existent pas et/ou dont l’hyperproductivité est inhumaine,
  • ne sont que des traductions et/ou paraphrases d’autres articles (mais sans les mentionner),
  • ont recours à des images générées par IA ne correspondant pas aux critères journalistiques,
  • alignent des poncifs lénifiants ou moralisants plutôt que de présenter et recouper des faits,
  • ont été publiés sur un site sans mention légale (ou fictive) ou sans directeur de publication,
  • usurpent la réputation de « noms de domaine expirés » pour cibler Google News & Discover,
  • s’apparentent plus à des contenus optimisés pour le SEO qu’à des articles journalistiques.

7 sites GenAI avant d’arriver à trouver une « vraie » info

Son utilité nous a depuis et notamment été démontrée par un commentaire partagé par fdorin expliquant que « Le problème, c’est que les sites GenIA sont tellement faciles à faire qu’ils pullulent sur internet. L’autre jour, je cherchais un lien pour donner une source, j’ai dû faire 7 sites avant d’en avoir un non GenAI ».

Or, son lien, publié en commentaire d’une autre actu, renvoyait… lui aussi à un site d’info GenAI, signe qu’il devient parfois de plus en plus difficile d’identifier un article fiable et non-GenAI.

Depuis le lancement de notre extension, il y a un mois et demi, ses utilisateurs nous ont signalé plus de 400 sites potentiellement GenAI, et nous profitons de l’occasion pour les (et vous) en remercier, le nombre de sites GenAI répertoriés par nos soins étant depuis passé de 1 000 à plus de 3 000.

Pour autant, nous avons aussi reçu des dizaines de signalements au sujet de… sites GenAI qui sont pourtant d’ores et déjà « flagués » par notre extension, ou encore de la page de présentation de notre extension Firefox, son pendant Chrome ayant par ailleurs été pollué par un commentaire négatif, émanant d’un serial-éditeur de sites GenAI nous accusant de « Censure moderne » (sic : n’hésitez pas à y rajouter des notes et commentaires positifs).

Nous avons aussi fait l’objet de plusieurs signalements au sujet de sites que nous avons eu du mal à identifier comme étant « en tout ou partie » GenAI, voire qui ne l’étaient pas, ou encore des sites précisant bien qu’ils étaient « en tout ou partie » générés pas IA. Notre extension ne signale d’ailleurs pas ces derniers puisqu’ils le mentionnent eux-mêmes. Voir par exemple, à titre d’exemple, le site d’actualités alimenté par IA créé en seulement 2 heures par Sébastien Gavois, ou les deux sites GenAI créés à des fins d’expérimentation par Ari Kouts.

À mesure que certaines des caractéristiques, techniques, tactiques et procédures (TTP) des sites d’info GenAI peuvent effectivement sembler particulièrement subtiles, et réclamer un examen plus approfondi… ces signalements nous ont aussi permis de découvrir que certains d’entre eux pouvaient relever de « faux positifs », identifiés à tort comme étant « en tout ou partie » générés par IA.

« Le journIAlisme, verrue parmi les verrues »


Il reste 86% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

La Chine va obliger les fournisseurs de contenus générés par IA à les étiqueter comme tels

17 mars 2025 à 15:56
Made in ChAIna
La Chine va obliger les fournisseurs de contenus générés par IA à les étiqueter comme tels

Quatre agences chinoises ont annoncé vendredi une nouvelle série de règles qui obligeront les fournisseurs de services, à partir du 1ᵉʳ septembre 2025, à désigner comme tels les contenus générés par IA.

« Afin de répondre activement aux préoccupations sociales et aux préoccupations du public, l’Administration chinoise du cyberespace, en collaboration avec le ministère de l’Industrie et des Technologies de l’information, le ministère de la Sécurité publique et l’Administration d’État de la radio et de la télévision, a formulé une méthode d’étiquetage », explique la Cyberspace Administration of China (CAC).

« La loi sur l’étiquetage aidera les utilisateurs à identifier la désinformation et tiendra les fournisseurs de services responsables de l’étiquetage de leur contenu », précise la CAC dans un communiqué : « Il s’agit de réduire l’utilisation abusive des contenus générés par l’IA ».

Cette « méthode d’identification » vise à « promouvoir le développement sain de l’intelligence artificielle, à normaliser la génération d’identification de contenu synthétique par l’intelligence artificielle, à protéger les droits et intérêts légitimes des citoyens, des personnes morales, et d’autres organisations, et sauvegarder les intérêts publics sociaux ».

Des contenus GenAI dotés d’identifiants explicites et implicites

Le texte de la loi précise que « les identifiants de contenu synthétique générés par l’IA comprennent des identifiants explicites et des identifiants implicites ».

Les fournisseurs de services devront en effet « ajouter des identifiants explicites au contenu synthétique généré tel que du texte, de l’audio, des images, des vidéos, des scènes virtuelles, etc. », ainsi que des « identifiants implicites sous la forme de filigranes numériques » dans leurs métadonnées.

Ces dernières devront contenir des « informations sur les éléments de production telles que la génération d’informations sur les attributs de contenu synthétique, le nom ou le code du fournisseur de services et le numéro de contenu et d’autres informations sur les éléments de production ».

La loi précise d’autre part qu’ « aucune organisation ou individu ne peut supprimer, altérer, falsifier ou dissimuler de manière malveillante le logo de contenu synthétique généré spécifié dans les présentes mesures », ni fournir d’outils ou de services permettant à d’autres de commettre de tels « actes malveillants ».

Des initiatives similaires en Europe et aux États-Unis

La Chine rejoint ainsi l’Union européenne et les États-Unis qui ont, eux aussi, adopté des règlementations afin de contrôler les risques de désinformation en exigeant l’étiquetage des contenus synthétiques en ligne, souligne Bloomberg.

L’article 50 de l’AI Act européen prévoit en effet que « les fournisseurs de systèmes d’IA, y compris les systèmes d’IA à usage général, qui génèrent des contenus synthétiques audio, image, vidéo ou texte, veillent à ce que les résultats du système d’IA soient marqués dans un format lisible par machine et détectables comme étant générés ou manipulés artificiellement ».

« Les déployeurs d’un système d’IA qui génère ou manipule un texte publié dans le but d’informer le public sur des questions d’intérêt public doivent indiquer que le texte a été généré ou manipulé artificiellement », précise-t-il en outre.

Une obligation qui ne s’appliquera pas, cela dit, « lorsque le contenu généré par l’IA a fait l’objet d’un processus d’examen humain ou de contrôle éditorial et qu’une personne physique ou morale assume la responsabilité éditoriale de la publication du contenu ».

L’ancien président Joe Biden avait de son côté signé un décret, en octobre 2023, ordonnant l’élaboration de mécanismes efficaces pour authentifier les contenus et le suivi de leurs provenances, et étiqueter les contenus synthétiques, « par exemple à l’aide d’un filigrane ». Reste encore à savoir ce qu’en fera le gouvernement de Donald Trump.

La semaine passée, le conseil des ministres espagnol avait de son côté approuvé un projet visant à sanctionner les contenus n’indiquant pas qu’ils sont générés par IA. Si la Chine ne précise pas les pénalités qui pourraient être infligées, l’Espagne prévoit quant à elle des sanctions qui s’échelonneront de 500 000 à 7,5 millions d’euros, ou de 1 % à 2 % du chiffre d’affaires mondial des entités prises en défaut.

La Chine va obliger les fournisseurs de contenus générés par IA à les étiqueter comme tels

17 mars 2025 à 15:56
Made in ChAIna
La Chine va obliger les fournisseurs de contenus générés par IA à les étiqueter comme tels

Quatre agences chinoises ont annoncé vendredi une nouvelle série de règles qui obligeront les fournisseurs de services, à partir du 1ᵉʳ septembre 2025, à désigner comme tels les contenus générés par IA.

« Afin de répondre activement aux préoccupations sociales et aux préoccupations du public, l’Administration chinoise du cyberespace, en collaboration avec le ministère de l’Industrie et des Technologies de l’information, le ministère de la Sécurité publique et l’Administration d’État de la radio et de la télévision, a formulé une méthode d’étiquetage », explique la Cyberspace Administration of China (CAC).

« La loi sur l’étiquetage aidera les utilisateurs à identifier la désinformation et tiendra les fournisseurs de services responsables de l’étiquetage de leur contenu », précise la CAC dans un communiqué : « Il s’agit de réduire l’utilisation abusive des contenus générés par l’IA ».

Cette « méthode d’identification » vise à « promouvoir le développement sain de l’intelligence artificielle, à normaliser la génération d’identification de contenu synthétique par l’intelligence artificielle, à protéger les droits et intérêts légitimes des citoyens, des personnes morales, et d’autres organisations, et sauvegarder les intérêts publics sociaux ».

Des contenus GenAI dotés d’identifiants explicites et implicites

Le texte de la loi précise que « les identifiants de contenu synthétique générés par l’IA comprennent des identifiants explicites et des identifiants implicites ».

Les fournisseurs de services devront en effet « ajouter des identifiants explicites au contenu synthétique généré tel que du texte, de l’audio, des images, des vidéos, des scènes virtuelles, etc. », ainsi que des « identifiants implicites sous la forme de filigranes numériques » dans leurs métadonnées.

Ces dernières devront contenir des « informations sur les éléments de production telles que la génération d’informations sur les attributs de contenu synthétique, le nom ou le code du fournisseur de services et le numéro de contenu et d’autres informations sur les éléments de production ».

La loi précise d’autre part qu’ « aucune organisation ou individu ne peut supprimer, altérer, falsifier ou dissimuler de manière malveillante le logo de contenu synthétique généré spécifié dans les présentes mesures », ni fournir d’outils ou de services permettant à d’autres de commettre de tels « actes malveillants ».

Des initiatives similaires en Europe et aux États-Unis

La Chine rejoint ainsi l’Union européenne et les États-Unis qui ont, eux aussi, adopté des règlementations afin de contrôler les risques de désinformation en exigeant l’étiquetage des contenus synthétiques en ligne, souligne Bloomberg.

L’article 50 de l’AI Act européen prévoit en effet que « les fournisseurs de systèmes d’IA, y compris les systèmes d’IA à usage général, qui génèrent des contenus synthétiques audio, image, vidéo ou texte, veillent à ce que les résultats du système d’IA soient marqués dans un format lisible par machine et détectables comme étant générés ou manipulés artificiellement ».

« Les déployeurs d’un système d’IA qui génère ou manipule un texte publié dans le but d’informer le public sur des questions d’intérêt public doivent indiquer que le texte a été généré ou manipulé artificiellement », précise-t-il en outre.

Une obligation qui ne s’appliquera pas, cela dit, « lorsque le contenu généré par l’IA a fait l’objet d’un processus d’examen humain ou de contrôle éditorial et qu’une personne physique ou morale assume la responsabilité éditoriale de la publication du contenu ».

L’ancien président Joe Biden avait de son côté signé un décret, en octobre 2023, ordonnant l’élaboration de mécanismes efficaces pour authentifier les contenus et le suivi de leurs provenances, et étiqueter les contenus synthétiques, « par exemple à l’aide d’un filigrane ». Reste encore à savoir ce qu’en fera le gouvernement de Donald Trump.

La semaine passée, le conseil des ministres espagnol avait de son côté approuvé un projet visant à sanctionner les contenus n’indiquant pas qu’ils sont générés par IA. Si la Chine ne précise pas les pénalités qui pourraient être infligées, l’Espagne prévoit quant à elle des sanctions qui s’échelonneront de 500 000 à 7,5 millions d’euros, ou de 1 % à 2 % du chiffre d’affaires mondial des entités prises en défaut.

❌
❌