Après avoir testé son système de reconnaissance faciale « en direct » via des fourgons de police, qui aurait permis d’identifier et arrêté plus de 500 « criminels présumés » recherchés, la police s’apprête à déployer deux caméras fixes dans la banlieue de Londres. Le nombre de « faux positifs » serait quasi-nul, ce que conteste l’ONG Big Brother Watch, qui se base aussi, de son côté, sur les systèmes déployés dans les magasins.
La police métropolitaine (« Met ») du Grand Londres va déployer deux caméras de reconnaissance faciale en direct (LFR, pour « Live Facial Recognition ») cet été à Croydon, une ville de la banlieue sud de la capitale britannique, rapporte The Times.
Ce déploiement ferait partie d’un projet pilote entamé il y a deux ans, précise The Register. Les caméras LFR comparent les visages des passants à une base de données de personnes recherchées et « criminels présumés, notamment des violeurs, des cambrioleurs et des voleurs ».
Les données sont immédiatement effacées s’il n’y a pas de correspondance. Le système, « accrédité » par le Laboratoire National de Physique, « ne présente pas les mêmes biais raciaux que d’autres formes de reconnaissance faciale », précise la « Met ».
Le système, testé jusqu’alors via des caméras LFR installées sur des fourgons de police, aurait d’ores et déjà permis, l’an passé de procéder à « plus de 500 arrestations » d’« individus dangereux soupçonnés d’infractions graves, notamment d’étranglement, de harcèlement, de violences domestiques et de viol », précise un porte-parole de la Met. Sur LinkedIn, la Met expliquait en décembre dernier que la LFR avait permis 540 arrestations, dont 406 inculpations ou mises en examen.
Il reste 72% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Sous couvert de lutte contre la bureaucratie, la corruption et les ennemis des États-Unis, l’administration Trump veut fermer l’organisme qui, depuis les printemps arabes, subventionne les logiciels permettant de protéger et sécuriser l’accès à l’information, y compris dans les régimes répressifs tels que la Chine, l’Iran ou la Russie.
Donald Trump vient de couper les financements de l’agence indépendante états-unienne subventionnant une cinquantaine de projets de logiciels développés pour défendre les droits et libertés des internautes, dont la messagerie chiffrée Signal.
Un comble, alors que l’on a découvert que les plus hauts responsables de son gouvernement s’en servent, jusqu’à y discuter de leurs opérations de guerre. Un recours à la messagerie chiffrée qui ne serait pas seulement motivé par des considérations de sécurité. D’après The Independant, il s’agirait aussi de contourner l’obligation légale de garder la trace des communications privées gouvernementales.
L’Open Technology Fund (OTF) que l’administration Trump voudrait voir disparaître soutient notamment la fondation TOR, Let’s Encrypt, la distribution GNU/Linux anonymisante et « amnésique » Tails, le magasin d’applications libres F-Droid, OpenVPN, l’outil anti-censure Psiphon, PiGuard Reloaded, l’observatoire OONI de la cybercensure, le plug-in OpenPGP Mailvelope, Reproductible Builds ou encore le service de DNS Quad9.
Créé en 2012 par Radio Free Asia afin d’aider ses reporters et leurs sources à pouvoir communiquer de façon sécurisée, notamment au Tibet et dans la région autonome ouïghoure du Xinjiang, l’OTF s’était aussi fait connaître pour avoir contribué au financement d’Open Whisper Systems (à hauteur de près de 3 millions de dollars sur trois ans), et donc au développement de la messagerie Signal, de la distribution sécurisée Qubes OS ou de NoScript, entre autres.
À l’époque, Hillary Clinton dirigeait le Département d’État, chargé des Affaires étrangères. Marquée par la façon qu’avait eu Internet et les réseaux sociaux de contribuer aux manifestations en Iran en 2009 (qualifiées, à l’époque, de « Révolution Twitter »), puis aux printemps arabes en 2010 et 2011, elle avait alors théorisé ce qu’elle qualifia de « dilemme du dictateur » qui, confronté aux libertés permises par Internet, devrait « choisir entre laisser tomber les murs ou payer le prix pour qu’ils restent debout », comme l’avait souligné Bloomberg :
« Nous pensons que les gouvernements qui ont érigé des barrières à la liberté de l’internet — qu’il s’agisse de filtres techniques, de régimes de censure ou d’attaques contre ceux qui exercent leurs droits d’expression et de réunion en ligne — finiront par se retrouver coincés. »
Un budget passé de 10M$ en 2014 à 40M$ en 2023
Il reste 80% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
La Chine renforce les modalités de recours à la reconnaissance faciale, conditionné au recueil préalable d’un consentement éclairé, qu’il sera par ailleurs possible de retirer. Et ce, au motif qu’elle « ne doit pas mettre en danger la sécurité nationale, nuire aux intérêts publics et porter atteinte aux droits et intérêts personnels légitimes ». À l’exception des activités liées à la R&D.
« Poussée par une forte demande dans les domaines de la finance, de la sécurité, de la maison intelligente » notamment, la reconnaissance biométrique faciale et la taille de son marché se développent rapidement, relève la Cyberspace Administration of China (CAC, le régulateur – et censeur – de l’Internet en Chine) :
« Par exemple, dans le domaine de la sécurité, la technologie de reconnaissance faciale est largement utilisée dans les systèmes de contrôle d’accès et les systèmes de surveillance dans des domaines importants tels que les aéroports, les banques et les centres commerciaux, ce qui améliore considérablement la sécurité publique et les capacités d’intervention d’urgence. »
« Tout en facilitant la vie des gens, la technologie de reconnaissance faciale est de plus en plus utilisée à mauvais escient et les problèmes soulevés par la protection des renseignements personnels deviennent de plus en plus importants », souligne cela dit la CAC.
Entre autres, la collecte et l’utilisation de telles informations faciales par certaines entreprises et agences « sans le consentement exprès » de l’utilisateur « violent le droit de l’utilisateur à la vie privée et soulèvent des préoccupations sociales ». Le CAC évoque par exemple des cas de piratage, fraude et vols d’identité.
87 % des Chinois opposés à la reconnaissance faciale dans l’espace public
L’agence Reuters note d’ailleurs qu’une enquête menée en 2021 par un groupe de réflexion affilié au média d’État The Beijing News indiquait que 75 % des personnes interrogées se disaient préoccupées par la reconnaissance faciale. 87 % s’opposaient également à son utilisation dans les lieux publics.
Reuters rappelle que la Cour suprême de Chine avait déjà interdit, en juillet 2021, l’utilisation de cette technologie pour vérifier les identités dans les lieux publics tels que les centres commerciaux et les hôtels. Elle avait aussi autorisé les résidents à demander d’autres méthodes de vérification pour entrer dans leur quartier.
En novembre de la même année, la loi sur la protection des informations personnelles (Personal Information Protection Law, ou PIPL) était en outre entrée en vigueur, « rendant obligatoire le consentement de l’utilisateur pour la collecte de données faciales [entre autres données personnelles, ndlr] et imposant de lourdes amendes aux entreprises qui ne s’y conforment pas ».
La reconnaissance faciale « ne doit pas mettre en danger la sécurité nationale »
Ce pourquoi de nouvelles mesures d’ « administration de la gestion de la sécurité pour l’application de la technologie de reconnaissance faciale » viennent donc d’être introduites, au motif que la reconnaissance faciale « ne doit pas mettre en danger la sécurité nationale, nuire aux intérêts publics et porter atteinte aux droits et intérêts personnels légitimes ».
À compter du 1er juin 2025, le recours à la reconnaissance faciale devra « avoir un objectif spécifique et une nécessité suffisante, adopter une méthode qui a le moins d’impact sur les droits et intérêts personnels et mettre en œuvre des mesures de protection strictes » :
« La reconnaissance faciale ne doit pas être utilisée comme seule vérification s’il existe d’autres méthodes technologiques sans reconnaissance faciale pour atteindre le même objectif ou répondre aux mêmes exigences commerciales. […] Lorsqu’une personne n’accepte pas l’authentification au moyen d’informations faciales, d’autres moyens raisonnables et pratiques doivent lui être fournis. »
Il sera possible de « retirer son consentement »
Son utilisation devra en outre reposer « sur la base du consentement de l’individu, donné volontairement et explicitement », et être obtenu « en partant du principe » que l’individu (ses parents ou tuteurs pour les mineurs de moins de quatorze ans) « est pleinement informé », « de manière véridique, précise et complète des questions suivantes de manière visible, dans un langage clair et compréhensible » :
le nom et les coordonnées du responsable du traitement,
l’objectif et la méthode de traitement de la reconnaissance faciale, ainsi que la durée de conservation des données,
ce pourquoi il est nécessaire de recourir à la reconnaissance faciale, et son impact sur les droits des personnes concernées,
les méthodes et procédures leur permettant de faire valoir leurs droits.
De plus, le responsable du traitement devra « fournir un moyen pratique de retirer son consentement », retrait qui ne saurait affecter l’efficacité des activités permises par la reconnaissance faciale sur la base du consentement initial de la personne concernée.
Les informations « ne doivent pas être transmises via Internet »
Les informations devront être stockées localement « et ne doivent pas être transmises via Internet ». Leur durée de conservation « ne doit pas dépasser le temps minimum nécessaire pour atteindre l’objectif du traitement ».
Une analyse d’impact en termes de protection des informations personnelles devra par ailleurs être effectuée préalablement à tout déploiement. Les données devront être chiffrées, et les systèmes d’information prendre en compte les notions d’audit de sécurité, de contrôle d’accès, de gestion des autorisations et de détection d’intrusions, entre autres mesures de cybersécurité.
En outre, aucune organisation ou personne ne pourra installer d’équipement de reconnaissance faciale à l’intérieur d’espaces privés dans des lieux publics tels que les chambres d’hôtels, les salles de bains, vestiaires et toilettes publiques, etc., « protégeant ainsi le droit à la vie privée des individus contre toute violation ».
Le CAC précise cela dit que ces restrictions ne s’appliqueront pas « si la technologie de reconnaissance faciale est utilisée pour traiter des informations faciales sur le territoire de la République populaire de Chine pour des activités de recherche et de développement de technologies de reconnaissance faciale et de formation aux algorithmes ».
La semaine passée, la CAC avait déjà édicté une nouvelle série de règles obligeant les fournisseurs de services, à partir du 1ᵉʳ septembre 2025, à étiqueter comme tels les contenus générés par IA.
La Chine renforce les modalités de recours à la reconnaissance faciale, conditionné au recueil préalable d’un consentement éclairé, qu’il sera par ailleurs possible de retirer. Et ce, au motif qu’elle « ne doit pas mettre en danger la sécurité nationale, nuire aux intérêts publics et porter atteinte aux droits et intérêts personnels légitimes ». À l’exception des activités liées à la R&D.
« Poussée par une forte demande dans les domaines de la finance, de la sécurité, de la maison intelligente » notamment, la reconnaissance biométrique faciale et la taille de son marché se développent rapidement, relève la Cyberspace Administration of China (CAC, le régulateur – et censeur – de l’Internet en Chine) :
« Par exemple, dans le domaine de la sécurité, la technologie de reconnaissance faciale est largement utilisée dans les systèmes de contrôle d’accès et les systèmes de surveillance dans des domaines importants tels que les aéroports, les banques et les centres commerciaux, ce qui améliore considérablement la sécurité publique et les capacités d’intervention d’urgence. »
« Tout en facilitant la vie des gens, la technologie de reconnaissance faciale est de plus en plus utilisée à mauvais escient et les problèmes soulevés par la protection des renseignements personnels deviennent de plus en plus importants », souligne cela dit la CAC.
Entre autres, la collecte et l’utilisation de telles informations faciales par certaines entreprises et agences « sans le consentement exprès » de l’utilisateur « violent le droit de l’utilisateur à la vie privée et soulèvent des préoccupations sociales ». Le CAC évoque par exemple des cas de piratage, fraude et vols d’identité.
87 % des Chinois opposés à la reconnaissance faciale dans l’espace public
L’agence Reuters note d’ailleurs qu’une enquête menée en 2021 par un groupe de réflexion affilié au média d’État The Beijing News indiquait que 75 % des personnes interrogées se disaient préoccupées par la reconnaissance faciale. 87 % s’opposaient également à son utilisation dans les lieux publics.
Reuters rappelle que la Cour suprême de Chine avait déjà interdit, en juillet 2021, l’utilisation de cette technologie pour vérifier les identités dans les lieux publics tels que les centres commerciaux et les hôtels. Elle avait aussi autorisé les résidents à demander d’autres méthodes de vérification pour entrer dans leur quartier.
En novembre de la même année, la loi sur la protection des informations personnelles (Personal Information Protection Law, ou PIPL) était en outre entrée en vigueur, « rendant obligatoire le consentement de l’utilisateur pour la collecte de données faciales [entre autres données personnelles, ndlr] et imposant de lourdes amendes aux entreprises qui ne s’y conforment pas ».
La reconnaissance faciale « ne doit pas mettre en danger la sécurité nationale »
Ce pourquoi de nouvelles mesures d’ « administration de la gestion de la sécurité pour l’application de la technologie de reconnaissance faciale » viennent donc d’être introduites, au motif que la reconnaissance faciale « ne doit pas mettre en danger la sécurité nationale, nuire aux intérêts publics et porter atteinte aux droits et intérêts personnels légitimes ».
À compter du 1er juin 2025, le recours à la reconnaissance faciale devra « avoir un objectif spécifique et une nécessité suffisante, adopter une méthode qui a le moins d’impact sur les droits et intérêts personnels et mettre en œuvre des mesures de protection strictes » :
« La reconnaissance faciale ne doit pas être utilisée comme seule vérification s’il existe d’autres méthodes technologiques sans reconnaissance faciale pour atteindre le même objectif ou répondre aux mêmes exigences commerciales. […] Lorsqu’une personne n’accepte pas l’authentification au moyen d’informations faciales, d’autres moyens raisonnables et pratiques doivent lui être fournis. »
Il sera possible de « retirer son consentement »
Son utilisation devra en outre reposer « sur la base du consentement de l’individu, donné volontairement et explicitement », et être obtenu « en partant du principe » que l’individu (ses parents ou tuteurs pour les mineurs de moins de quatorze ans) « est pleinement informé », « de manière véridique, précise et complète des questions suivantes de manière visible, dans un langage clair et compréhensible » :
le nom et les coordonnées du responsable du traitement,
l’objectif et la méthode de traitement de la reconnaissance faciale, ainsi que la durée de conservation des données,
ce pourquoi il est nécessaire de recourir à la reconnaissance faciale, et son impact sur les droits des personnes concernées,
les méthodes et procédures leur permettant de faire valoir leurs droits.
De plus, le responsable du traitement devra « fournir un moyen pratique de retirer son consentement », retrait qui ne saurait affecter l’efficacité des activités permises par la reconnaissance faciale sur la base du consentement initial de la personne concernée.
Les informations « ne doivent pas être transmises via Internet »
Les informations devront être stockées localement « et ne doivent pas être transmises via Internet ». Leur durée de conservation « ne doit pas dépasser le temps minimum nécessaire pour atteindre l’objectif du traitement ».
Une analyse d’impact en termes de protection des informations personnelles devra par ailleurs être effectuée préalablement à tout déploiement. Les données devront être chiffrées, et les systèmes d’information prendre en compte les notions d’audit de sécurité, de contrôle d’accès, de gestion des autorisations et de détection d’intrusions, entre autres mesures de cybersécurité.
En outre, aucune organisation ou personne ne pourra installer d’équipement de reconnaissance faciale à l’intérieur d’espaces privés dans des lieux publics tels que les chambres d’hôtels, les salles de bains, vestiaires et toilettes publiques, etc., « protégeant ainsi le droit à la vie privée des individus contre toute violation ».
Le CAC précise cela dit que ces restrictions ne s’appliqueront pas « si la technologie de reconnaissance faciale est utilisée pour traiter des informations faciales sur le territoire de la République populaire de Chine pour des activités de recherche et de développement de technologies de reconnaissance faciale et de formation aux algorithmes ».
La semaine passée, la CAC avait déjà édicté une nouvelle série de règles obligeant les fournisseurs de services, à partir du 1ᵉʳ septembre 2025, à étiqueter comme tels les contenus générés par IA.
Elle n'a identifié qu'un ramasseur de champignons égaré
Les deux députés chargés de l’auditer n’ont identifié qu’ « un cas seulement où la vidéoprotection algorithmique a été utile et encore c’était un ramasseur de champignons qui s’était égaré ». Initialement censée se terminer fin mars 2025, elle vient d’être prolongée jusqu’à fin mars 2027, dans le cadre d’une proposition de loi relative au renforcement de la sûreté dans les transports, afin que la SNCF et la RATP, notamment, puissent continuer à l’expérimenter. Philippe Latombe avance qu’il va saisir le Conseil constitutionnel.
MàJ, 16h5 : rajout de deux paragraphes et un tableau précisant que l’expérimentation aurait coûté près de 882 000 euros.
« Il apparaît prématuré de se prononcer sur la pérennisation ou l’abandon du dispositif » de « vidéoprotection algorithmique » (VPA, ou vidéosurveillance algorithmique, VSA), estime la mission flash de la commission des Lois de l’Assemblée nationale chargée de dresser un « bilan des Jeux de Paris 2024 dans le domaine de la sécurité » :
« En effet, eu égard à son champ et à ses modalités de mise en œuvre, l’expérimentation n’a pas apporté de réponse satisfaisante et pérenne quant à la pertinence du recours à l’intelligence artificielle en matière de vidéoprotection. »
« Tout ça pour ça », a résumé lors d’une conférence de presse, ce mercredi 19 mars, Éric Martineau (Les Démocrates), député de la Sarthe et co-rapporteur de la mission flash, relève LCP : « l’expérimentation qui a été faite pendant les Jeux olympiques n’a pas été à la hauteur ».
Le déploiement massif de forces de l’ordre dans les rues a, en effet, rendu la vidéosurveillance augmentée via de l’intelligence artificielle sans « utilité concrète », a précis Stéphane Peu (Gauche démocrate et républicaine), élu de Seine-Saint-Denis et co-rapporteur :
« Il y a un cas seulement où la vidéoprotection algorithmique a été utile et encore c’était un ramasseur de champignons qui s’était égaré. »
72 800 agents des forces de sécurité, plus d’1M d’enquêtes de moralité
Plusieurs raisons président à ce constat. D’une part, le fait que la sécurisation des Jeux olympiques de Paris (JOP) « a été bien anticipée par l’État » et que l’ensemble des services concernés y étaient engagés depuis plusieurs années. « En particulier, les services de renseignement ont produit un document d’analyse des risques, proposant, pour chacun d’entre eux, une série de contre-mesures », soulignent les rapporteurs.
La mission considère d’autre part que « l’élément central et déterminant de la réussite sécuritaire des JOP réside dans la présence humaine massive sur le terrain » :
« Près de 45 000 agents des forces de sécurité intérieure avaient ainsi été mobilisés pour la cérémonie d’ouverture, et chaque journée de compétition était sécurisée par 30 000 policiers et gendarmes, 10 000 militaires, 16 000 agents de sécurité privée, et 1 800 renforts venus de l’étranger, sans oublier les polices municipales. »
Le dispositif de sécurisation des JOP s’est aussi appuyé sur « un recours massif et inédit aux mesures administratives d’entraves » prévues par le Code de la sécurité intérieure pour prévenir les risques d’actes de terrorisme.
Il reste 81% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Le nombre exponentiel de contenus « GenAI » polluant le web est tel qu’il devient parfois difficile de distinguer les contenus émanant d’êtres humains de ceux générés par des IA. Nous avons, a contrario, identifié plusieurs « faux positifs » dans le cadre de notre enquête sur les sites d’info GenAI. Après avoir expliqué comment identifier de tels contenus, il nous semble important d’expliquer comment nous avons décelé ces « faux positifs », de sorte de ne pas, non plus, contribuer à la « panique morale » autour de la GenAI. L’exercice nous a par ailleurs permis de mettre au jour, dans la presse régionale, des pratiques éditoriales qui, si elles ne reposent que partiellement sur de la GenAI, n’en restent pas moins discutables faute d’avoir été correctement supervisées.
Six mois seulement après le lancement, fin 2022, de ChatGPT, des sites d’information anglo-saxons, comme RollingStone et The Markup, rapportaient déjà le cas d’étudiants accusés, à tort, d’avoir rendu des devoirs rédigés grâce au chatbot d’OpenAI. En cause, notamment, le fait que l’anglais n’étant pas leur langue maternelle, leurs textes étaient plus « plats » que ceux écrits par des natifs, et ressemblaient donc aux textes synthétiques générés par l’IA.
Depuis, et même si ChatGPT et ses avatars se sont considérablement améliorés, et qu’il existe beaucoup de services web destinés à « humaniser » les textes GenAI, et tromper les détecteurs de contenus générés par IA, l’explosion du nombre de ce type de contenus disponible en ligne augmente statistiquement la probabilité de tels « faux positifs », et donc que des contenus générés par des humains soient identifiés à tort comme GenAI.
Or, cette « pollution » de contenus « synthétiques », car GenAI, à laquelle nous assistons ne saurait faire de l’IA l’« idiot utile » non plus que le « coupable désigné » des potentiels problèmes éditoriaux auxquels nous pourrions être confrontés. Si les contenus bas de gamme (AI « slop ») sont relativement faciles à identifier, d’autres deviennent quasiment impossibles à distinguer.
Or, et de même que les journalistes (a fortiori d’investigation), enquêteurs de police judiciaire ou analystes du renseignement sont « a priori » censés enquêter « à charge et à décharge », en évitant les biais cognitifs et les approximations, on ne saurait partir du postulat qu’un contenu « suspect » serait forcément « coupable ». Les nombreux exemples de « faux positifs » que nous avons identifiés dans le cadre de notre enquête sur les sites d’information GenAI devraient à ce titre appeler à la mesure et à la prudence.
Le problème n’est pas d’avoir recours à la GenAI, en soi, mais de ne pas être transparent en la matière. D’aucuns utilisent de façon légitime ce type de contenus GenAI, de façon « supervisée », en mode « rédacteurs hybrides », avec des contenus estampillés comme tels.
Comme indiqué dans notre article expliquant comment reconnaître ces contenus GenAI, ces derniers partagent un certain nombre de caractéristiques, techniques, tactiques et procédures (TTP), mais s’ils peuvent dresser un « faisceau d’indices », ils ne sauraient, pour autant, servir de « preuves ».
Nous avions résumé ces TTP dans l’article présentant l’extension (Chrome et Firefox) que nous avons développée pour alerter les internautes lorsqu’ils consultent les sites d’information « en tout ou partie » GenAI que nous avons identifiés.
En cliquant sur le bouton de l’extension, vous retrouverez en effet cette grille de lecture (non cumulative, ni exhaustive) :
Ils ont recours à des expressions, patterns ou hallucinations typiques des contenus GenAI,
sont signés de journalistes qui n’existent pas et/ou dont l’hyperproductivité est inhumaine,
ne sont que des traductions et/ou paraphrases d’autres articles (mais sans les mentionner),
ont recours à des images générées par IA ne correspondant pas aux critères journalistiques,
alignent des poncifs lénifiants ou moralisants plutôt que de présenter et recouper des faits,
ont été publiés sur un site sans mention légale (ou fictive) ou sans directeur de publication,
usurpent la réputation de « noms de domaine expirés » pour cibler Google News & Discover,
s’apparentent plus à des contenus optimisés pour le SEO qu’à des articles journalistiques.
7 sites GenAI avant d’arriver à trouver une « vraie » info
Son utilité nous a depuis et notamment été démontrée par un commentaire partagé par fdorin expliquant que « Le problème, c’est que les sites GenIA sont tellement faciles à faire qu’ils pullulent sur internet. L’autre jour, je cherchais un lien pour donner une source, j’ai dû faire 7 sites avant d’en avoir un non GenAI ».
Or, son lien, publié en commentaire d’une autre actu, renvoyait… lui aussi à un site d’info GenAI, signe qu’il devient parfois de plus en plus difficile d’identifier un article fiable et non-GenAI.
Depuis le lancement de notre extension, il y a un mois et demi, ses utilisateurs nous ont signalé plus de 400 sites potentiellement GenAI, et nous profitons de l’occasion pour les (et vous) en remercier, le nombre de sites GenAI répertoriés par nos soins étant depuis passé de 1 000 à plus de 3 000.
Pour autant, nous avons aussi reçu des dizaines de signalements au sujet de… sites GenAI qui sont pourtant d’ores et déjà « flagués » par notre extension, ou encore de la page de présentation de notre extension Firefox, son pendant Chrome ayant par ailleurs été pollué par un commentaire négatif, émanant d’un serial-éditeur de sites GenAI nous accusant de « Censure moderne » (sic : n’hésitez pas à y rajouter des notes et commentaires positifs).
Nous avons aussi fait l’objet de plusieurs signalements au sujet de sites que nous avons eu du mal à identifier comme étant « en tout ou partie » GenAI, voire qui ne l’étaient pas, ou encore des sites précisant bien qu’ils étaient « en tout ou partie » générés pas IA. Notre extension ne signale d’ailleurs pas ces derniers puisqu’ils le mentionnent eux-mêmes. Voir par exemple, à titre d’exemple, le site d’actualités alimenté par IA créé en seulement 2 heures par Sébastien Gavois, ou les deux sites GenAI créés à des fins d’expérimentation par Ari Kouts.
À mesure que certaines des caractéristiques, techniques, tactiques et procédures (TTP) des sites d’info GenAI peuvent effectivement sembler particulièrement subtiles, et réclamer un examen plus approfondi… ces signalements nous ont aussi permis de découvrir que certains d’entre eux pouvaient relever de « faux positifs », identifiés à tort comme étant « en tout ou partie » générés par IA.
« Le journIAlisme, verrue parmi les verrues »
Il reste 86% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Quatre agences chinoises ont annoncé vendredi une nouvelle série de règles qui obligeront les fournisseurs de services, à partir du 1ᵉʳ septembre 2025, à désigner comme tels les contenus générés par IA.
« Afin de répondre activement aux préoccupations sociales et aux préoccupations du public, l’Administration chinoise du cyberespace, en collaboration avec le ministère de l’Industrie et des Technologies de l’information, le ministère de la Sécurité publique et l’Administration d’État de la radio et de la télévision, a formulé une méthode d’étiquetage », explique la Cyberspace Administration of China (CAC).
« La loi sur l’étiquetage aidera les utilisateurs à identifier la désinformation et tiendra les fournisseurs de services responsables de l’étiquetage de leur contenu », précise la CAC dans un communiqué : « Il s’agit de réduire l’utilisation abusive des contenus générés par l’IA ».
Cette « méthode d’identification » vise à « promouvoir le développement sain de l’intelligence artificielle, à normaliser la génération d’identification de contenu synthétique par l’intelligence artificielle, à protéger les droits et intérêts légitimes des citoyens, des personnes morales, et d’autres organisations, et sauvegarder les intérêts publics sociaux ».
Des contenus GenAI dotés d’identifiants explicites et implicites
Le texte de la loi précise que « les identifiants de contenu synthétique générés par l’IA comprennent des identifiants explicites et des identifiants implicites ».
Les fournisseurs de services devront en effet « ajouter des identifiants explicites au contenu synthétique généré tel que du texte, de l’audio, des images, des vidéos, des scènes virtuelles, etc. », ainsi que des « identifiants implicites sous la forme de filigranes numériques » dans leurs métadonnées.
Ces dernières devront contenir des « informations sur les éléments de production telles que la génération d’informations sur les attributs de contenu synthétique, le nom ou le code du fournisseur de services et le numéro de contenu et d’autres informations sur les éléments de production ».
La loi précise d’autre part qu’ « aucune organisation ou individu ne peut supprimer, altérer, falsifier ou dissimuler de manière malveillante le logo de contenu synthétique généré spécifié dans les présentes mesures », ni fournir d’outils ou de services permettant à d’autres de commettre de tels « actes malveillants ».
Des initiatives similaires en Europe et aux États-Unis
La Chine rejoint ainsi l’Union européenne et les États-Unis qui ont, eux aussi, adopté des règlementations afin de contrôler les risques de désinformation en exigeant l’étiquetage des contenus synthétiques en ligne, souligne Bloomberg.
L’article 50 de l’AI Act européen prévoit en effet que « les fournisseurs de systèmes d’IA, y compris les systèmes d’IA à usage général, qui génèrent des contenus synthétiques audio, image, vidéo ou texte, veillent à ce que les résultats du système d’IA soient marqués dans un format lisible par machine et détectables comme étant générés ou manipulés artificiellement ».
« Les déployeurs d’un système d’IA qui génère ou manipule un texte publié dans le but d’informer le public sur des questions d’intérêt public doivent indiquer que le texte a été généré ou manipulé artificiellement », précise-t-il en outre.
Une obligation qui ne s’appliquera pas, cela dit, « lorsque le contenu généré par l’IA a fait l’objet d’un processus d’examen humain ou de contrôle éditorial et qu’une personne physique ou morale assume la responsabilité éditoriale de la publication du contenu ».
L’ancien président Joe Biden avait de son côté signé un décret, en octobre 2023, ordonnant l’élaboration de mécanismes efficaces pour authentifier les contenus et le suivi de leurs provenances, et étiqueter les contenus synthétiques, « par exemple à l’aide d’un filigrane ». Reste encore à savoir ce qu’en fera le gouvernement de Donald Trump.
La semaine passée, le conseil des ministres espagnol avait de son côté approuvé un projet visant à sanctionner les contenus n’indiquant pas qu’ils sont générés par IA. Si la Chine ne précise pas les pénalités qui pourraient être infligées, l’Espagne prévoit quant à elle des sanctions qui s’échelonneront de 500 000 à 7,5 millions d’euros, ou de 1 % à 2 % du chiffre d’affaires mondial des entités prises en défaut.
Quatre agences chinoises ont annoncé vendredi une nouvelle série de règles qui obligeront les fournisseurs de services, à partir du 1ᵉʳ septembre 2025, à désigner comme tels les contenus générés par IA.
« Afin de répondre activement aux préoccupations sociales et aux préoccupations du public, l’Administration chinoise du cyberespace, en collaboration avec le ministère de l’Industrie et des Technologies de l’information, le ministère de la Sécurité publique et l’Administration d’État de la radio et de la télévision, a formulé une méthode d’étiquetage », explique la Cyberspace Administration of China (CAC).
« La loi sur l’étiquetage aidera les utilisateurs à identifier la désinformation et tiendra les fournisseurs de services responsables de l’étiquetage de leur contenu », précise la CAC dans un communiqué : « Il s’agit de réduire l’utilisation abusive des contenus générés par l’IA ».
Cette « méthode d’identification » vise à « promouvoir le développement sain de l’intelligence artificielle, à normaliser la génération d’identification de contenu synthétique par l’intelligence artificielle, à protéger les droits et intérêts légitimes des citoyens, des personnes morales, et d’autres organisations, et sauvegarder les intérêts publics sociaux ».
Des contenus GenAI dotés d’identifiants explicites et implicites
Le texte de la loi précise que « les identifiants de contenu synthétique générés par l’IA comprennent des identifiants explicites et des identifiants implicites ».
Les fournisseurs de services devront en effet « ajouter des identifiants explicites au contenu synthétique généré tel que du texte, de l’audio, des images, des vidéos, des scènes virtuelles, etc. », ainsi que des « identifiants implicites sous la forme de filigranes numériques » dans leurs métadonnées.
Ces dernières devront contenir des « informations sur les éléments de production telles que la génération d’informations sur les attributs de contenu synthétique, le nom ou le code du fournisseur de services et le numéro de contenu et d’autres informations sur les éléments de production ».
La loi précise d’autre part qu’ « aucune organisation ou individu ne peut supprimer, altérer, falsifier ou dissimuler de manière malveillante le logo de contenu synthétique généré spécifié dans les présentes mesures », ni fournir d’outils ou de services permettant à d’autres de commettre de tels « actes malveillants ».
Des initiatives similaires en Europe et aux États-Unis
La Chine rejoint ainsi l’Union européenne et les États-Unis qui ont, eux aussi, adopté des règlementations afin de contrôler les risques de désinformation en exigeant l’étiquetage des contenus synthétiques en ligne, souligne Bloomberg.
L’article 50 de l’AI Act européen prévoit en effet que « les fournisseurs de systèmes d’IA, y compris les systèmes d’IA à usage général, qui génèrent des contenus synthétiques audio, image, vidéo ou texte, veillent à ce que les résultats du système d’IA soient marqués dans un format lisible par machine et détectables comme étant générés ou manipulés artificiellement ».
« Les déployeurs d’un système d’IA qui génère ou manipule un texte publié dans le but d’informer le public sur des questions d’intérêt public doivent indiquer que le texte a été généré ou manipulé artificiellement », précise-t-il en outre.
Une obligation qui ne s’appliquera pas, cela dit, « lorsque le contenu généré par l’IA a fait l’objet d’un processus d’examen humain ou de contrôle éditorial et qu’une personne physique ou morale assume la responsabilité éditoriale de la publication du contenu ».
L’ancien président Joe Biden avait de son côté signé un décret, en octobre 2023, ordonnant l’élaboration de mécanismes efficaces pour authentifier les contenus et le suivi de leurs provenances, et étiqueter les contenus synthétiques, « par exemple à l’aide d’un filigrane ». Reste encore à savoir ce qu’en fera le gouvernement de Donald Trump.
La semaine passée, le conseil des ministres espagnol avait de son côté approuvé un projet visant à sanctionner les contenus n’indiquant pas qu’ils sont générés par IA. Si la Chine ne précise pas les pénalités qui pourraient être infligées, l’Espagne prévoit quant à elle des sanctions qui s’échelonneront de 500 000 à 7,5 millions d’euros, ou de 1 % à 2 % du chiffre d’affaires mondial des entités prises en défaut.
Les sanctions, découlant de l’application de l’AI Act européen, s’échelonneront de 500 000 à 7,5 millions d’euros, ou de 1 % à 2 % du chiffre d’affaires mondial des entités prises en défaut. Les infractions « très graves » varieront de 7,5 à 15 millions d’euros, ou jusqu’à 2 à 3 % du chiffre d’affaires mondial de l’année précédente, et jusqu’à 35 millions d’euros ou 7 % du CA en cas de « pratiques interdites ».
Le Conseil des ministres espagnol a approuvé un avant-projet de loi pour une « utilisation éthique, inclusive et bénéfique de l’intelligence artificielle ». Il s’agit des adaptations du droit espagnol dédiées au règlement européen dit « AI Act » adopté par le Parlement européen en mars 2024, entré en vigueur en août dernier, et dont les mesures devront être déployées d’ici 2027.
« L’intelligence artificielle doit être utilisée pour la recherche sur le cancer ou la maladie d’Alzheimer, mais pas pour répandre la haine et attaquer les démocraties », a déclaré lors d’une conférence de presse Óscar López Águeda, ministre de la Transformation numérique et de la Fonction publique, rapporte l’édition espagnole de WIRED :
« L’IA est un outil très puissant, qui peut servir à améliorer nos vies ou à attaquer la démocratie. Il peut être utilisé pour rechercher le cancer ou la maladie d’Alzheimer, prévenir les catastrophes naturelles et découvrir de nouveaux médicaments. Mais c’est aussi un instrument pour répandre de fausses nouvelles et répandre la haine. C’est pourquoi sa bonne utilisation et sa gouvernance sont essentielles. »
Les contenus GenAI devront être identifiés comme tels au premier coup d’œil
Il reste 76% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
L’un des premiers décrets signés par Donald Trump visait à « Rétablir la liberté d’expression et mettre fin à la censure fédérale ». Le New York Times, recourant à un grand modèle de langage, a découvert 250 mentions de près de 200 mots et expressions ayant disparu, sans explication, des sites de l’administration fédérale, depuis l’investiture du nouveau président. L’agence Associated Press a de son côté identifié 26 000 photographies « marquées pour suppression », dont celles de l’avion ayant largué une bombe atomique sur Hiroshima, Enola Gay, et de militaires dont le nom de famille est, lui aussi, « Gay ».
Des journalistes du New York Times ont identifié une liste de près de 200 mots et expressions dont certaines mentions ont disparu des principaux sites web de l’administration états-unienne. La liste, qui figure en exergue de leur article, est tellement longue qu’il est impossible d’en faire une capture sur un écran horizontal.
Y figurent notamment les mots : accessible, plaidoyer, avocat, antiracisme, à risque, biais, noir, énergie propre, crise climatique, science climatique, biais de confirmation, handicap, discrimination, qualité environnementale, égalité, exclusion, féminisme, violence sexiste, discours haineux, identité, immigrants, inclusion, inégalité, injustice, minorité, multiculturel, oppression, politique, pollution, préjugé, privilège, racisme, ségrégation, sexe, sexualité, justice sociale, stéréotype, défavorisé, victimes, femmes.
Certains termes indiqués avec un signe + représentent des combinaisons de mots associés à des personnes transgenres, « ce qui n’est pas conforme à la position actuelle du gouvernement fédéral selon laquelle il n’y a que deux sexes immuables », précise le New York Times.
Il souligne également que si tous les termes répertoriés figuraient sur un document d’ « au moins une agence », cela ne signifie pas nécessairement que l’ensemble des autres agences aient également été dissuadées de les utiliser.
Il relève en outre que, dans certains cas, des responsables des agences fédérales « ont conseillé la prudence dans l’utilisation des termes sans pour autant instaurer une interdiction pure et simple ».
Cette liste est, au surplus, « très probablement incomplète », d’une part parce que le journal étasunien s’est contenté d’analyser un peu plus de 5 000 pages seulement, mais également parce que les modifications identifiées l’ont été début février, et que d’autres ont pu intervenir entre-temps :
« Il est possible qu’il existe davantage de notes de service des agences que celles qui ont été vues par les journalistes du New York Times, et certaines directives sont vagues ou suggèrent un langage qui pourrait être inadmissible sans l’affirmer catégoriquement »
Un LLM pour analyser les modifications sur plus de 5 000 pages
Pour parvenir à établir cette liste, les journalistes du Times ont extrait le texte de plus de 5 000 pages, qu’il s’agisse des pages d’accueil des principaux sites web des ministères et agences fédérales, ou de pages vers lesquelles elles renvoient, avant et après l’investiture de Donald Trump.
Ils ont ensuite utilisé un grand modèle de langage pour identifier les changements avant/après, et « en particulier les mots mis en évidence comme n’étant plus utilisés ». Ils ont ensuite examiné manuellement chaque passage modifié « afin de déterminer la signification et la pertinence » de chacune des 250 modifications ou suppressions répertoriées.
Si certains mots (comme transexuel, transgenre ou l’expression « Diversité, égalité et inclusion ») semblent avoir été bannis en tant que tels, d’autres (comme femmes, victimes ou noir) ne semblent l’avoir été que dans certains contextes spécifiques. Le New York Times ne fournit pas, cela dit, l’intégralité des 250 modifications identifiées, mais seulement quelques-unes.
La crise climatique ne connaît pas de frontières
Où l’on découvre par exemple qu’une phrase précisant que « la pandémie de COVID-19 a eu un impact disproportionné sur les communautés défavorisées » a été effacée, tout comme le fait que « 60 % du personnel enseignant du programme Head Start [qui, sous l’égide du département de la santé, de l’éducation et des services sociaux, vient en aide aux enfants et familles défavorisées, ndlr] sont des Noirs, des indigènes et des personnes de couleur, et 30 % ont une langue principale autre que l’anglais », ainsi que ce passage :
« L’injustice raciale dans notre pays a également fait l’objet d’une attention accrue, ce qui a conduit à des appels à des réformes majeures pour remédier à des inégalités sociétales de longue date. »
Le département d’État a pour sa part effacé la mention de l’accord de Paris sur le climat, ainsi que le fait que « la crise climatique ne connaît pas de frontières, et tant le défi que ses solutions vont de l’échelle locale à l’échelle mondiale. C’est pourquoi la coopération et la collaboration internationales par la négociation et la mise en œuvre d’accords internationaux sont essentielles ».
26 000 photos marquées pour suppression, dont celles d’Enola Gay
L’agence AP révélait de son côté la semaine passée que « plus de 26 000 photographies » avaient par ailleurs été « marquées pour suppression » par le ministère de la Défense, qui s’efforce lui aussi de « purger le contenu relatif à la diversité, à l’équité et à l’inclusion » (DEI) :
« La grande majorité de la purge du Pentagone vise les femmes et les minorités, y compris les événements marquants survenus dans l’armée. Il supprime également un grand nombre de messages mentionnant divers mois commémoratifs, notamment pour les Noirs, les Hispaniques et les femmes. »
Y figurent notamment des photographies d’Enola Gay, l’avion qui avait largué une bombe atomique sur Hiroshima, quand bien même son nom est une référence à la mère du pilote du bombardier, et nullement à l’homosexualité, comme l’explique AP :
« Plusieurs photos d’un projet de dragage du Corps des ingénieurs de l’armée en Californie ont été marquées pour être supprimées, apparemment parce qu’un ingénieur local figurant sur la photo portait le nom de famille Gay. Une photo de biologistes du Corps d’armée figurait également sur la liste, apparemment parce qu’elle mentionnait qu’ils enregistraient des données sur les poissons, notamment leur poids, leur taille, leur écloserie et leur sexe. »
« Nous sommes satisfaits du respect rapide, par l’ensemble du département, de la directive visant à supprimer le contenu DEI de toutes les plates-formes », explique à AP le porte-parole du Pentagone, John Ullyot. Il précise cela dit que « Dans les rares cas où le contenu retiré n’entre pas dans le champ d’application clairement défini de la directive, nous donnons des instructions aux composantes en conséquence ».
Ce 11 mars, la photo d’Enola Gay était encore consultable sur le site de l’US Air Force. Un fonctionnaire, sous couvert d’anonymat, précise à AP que la purge pourrait supprimer jusqu’à 100 000 images ou messages au total, si l’on tient compte des pages de médias sociaux et d’autres sites web qui sont également examinés à la recherche de contenu DEI.
« Rétablir la liberté d’expression et mettre fin à la censure fédérale »
Le New York Times souligne que le président Trump et ses proches conseillers se sont pourtant souvent présentés « comme des champions de la liberté d’expression ». Intitulé « Rétablir la liberté d’expression et mettre fin à la censure fédérale », l’un des premiers décrets signés par le président des États-Unis, le premier jour de son retour au pouvoir, rappelait ainsi que « la censure de la parole par le gouvernement est intolérable dans une société libre ».
S’en prenant plus particulièrement à ce qu’il décrivait comme une campagne de pression menée par l’administration Biden pour « étouffer » le droit à la liberté d’expression, « en censurant les propos des Américains sur les plateformes en ligne, souvent en exerçant une pression coercitive importante sur des tiers, tels que les entreprises de médias sociaux, pour qu’ils modèrent, déplacent ou suppriment d’une autre manière les propos que le gouvernement fédéral n’approuvait pas » :
« Sous couvert de lutte contre la « désinformation » et la « malinformation », le gouvernement fédéral a enfreint les droits d’expression protégés par la Constitution des citoyens américains à travers les États-Unis de manière à faire avancer le récit préféré du gouvernement sur des questions importantes du débat public ».
Il s’engageait dès lors à « s’assurer qu’aucun fonctionnaire, employé ou agent du gouvernement fédéral ne s’engage ou ne facilite une conduite qui restreindrait de manière inconstitutionnelle la liberté d’expression de tout citoyen américain », et à « identifier et prendre les mesures appropriées pour corriger les fautes passées du gouvernement fédéral liées à la censure de la liberté d’expression ».
L’un des premiers décrets signés par Donald Trump visait à « Rétablir la liberté d’expression et mettre fin à la censure fédérale ». Le New York Times, recourant à un grand modèle de langage, a découvert 250 mentions de près de 200 mots et expressions ayant disparu, sans explication, des sites de l’administration fédérale, depuis l’investiture du nouveau président. L’agence Associated Press a de son côté identifié 26 000 photographies « marquées pour suppression », dont celles de l’avion ayant largué une bombe atomique sur Hiroshima, Enola Gay, et de militaires dont le nom de famille est, lui aussi, « Gay ».
Des journalistes du New York Times ont identifié une liste de près de 200 mots et expressions dont certaines mentions ont disparu des principaux sites web de l’administration états-unienne. La liste, qui figure en exergue de leur article, est tellement longue qu’il est impossible d’en faire une capture sur un écran horizontal.
Y figurent notamment les mots : accessible, plaidoyer, avocat, antiracisme, à risque, biais, noir, énergie propre, crise climatique, science climatique, biais de confirmation, handicap, discrimination, qualité environnementale, égalité, exclusion, féminisme, violence sexiste, discours haineux, identité, immigrants, inclusion, inégalité, injustice, minorité, multiculturel, oppression, politique, pollution, préjugé, privilège, racisme, ségrégation, sexe, sexualité, justice sociale, stéréotype, défavorisé, victimes, femmes.
Certains termes indiqués avec un signe + représentent des combinaisons de mots associés à des personnes transgenres, « ce qui n’est pas conforme à la position actuelle du gouvernement fédéral selon laquelle il n’y a que deux sexes immuables », précise le New York Times.
Il souligne également que si tous les termes répertoriés figuraient sur un document d’ « au moins une agence », cela ne signifie pas nécessairement que l’ensemble des autres agences aient également été dissuadées de les utiliser.
Il relève en outre que, dans certains cas, des responsables des agences fédérales « ont conseillé la prudence dans l’utilisation des termes sans pour autant instaurer une interdiction pure et simple ».
Cette liste est, au surplus, « très probablement incomplète », d’une part parce que le journal étasunien s’est contenté d’analyser un peu plus de 5 000 pages seulement, mais également parce que les modifications identifiées l’ont été début février, et que d’autres ont pu intervenir entre-temps :
« Il est possible qu’il existe davantage de notes de service des agences que celles qui ont été vues par les journalistes du New York Times, et certaines directives sont vagues ou suggèrent un langage qui pourrait être inadmissible sans l’affirmer catégoriquement »
Un LLM pour analyser les modifications sur plus de 5 000 pages
Pour parvenir à établir cette liste, les journalistes du Times ont extrait le texte de plus de 5 000 pages, qu’il s’agisse des pages d’accueil des principaux sites web des ministères et agences fédérales, ou de pages vers lesquelles elles renvoient, avant et après l’investiture de Donald Trump.
Ils ont ensuite utilisé un grand modèle de langage pour identifier les changements avant/après, et « en particulier les mots mis en évidence comme n’étant plus utilisés ». Ils ont ensuite examiné manuellement chaque passage modifié « afin de déterminer la signification et la pertinence » de chacune des 250 modifications ou suppressions répertoriées.
Si certains mots (comme transexuel, transgenre ou l’expression « Diversité, égalité et inclusion ») semblent avoir été bannis en tant que tels, d’autres (comme femmes, victimes ou noir) ne semblent l’avoir été que dans certains contextes spécifiques. Le New York Times ne fournit pas, cela dit, l’intégralité des 250 modifications identifiées, mais seulement quelques-unes.
La crise climatique ne connaît pas de frontières
Où l’on découvre par exemple qu’une phrase précisant que « la pandémie de COVID-19 a eu un impact disproportionné sur les communautés défavorisées » a été effacée, tout comme le fait que « 60 % du personnel enseignant du programme Head Start [qui, sous l’égide du département de la santé, de l’éducation et des services sociaux, vient en aide aux enfants et familles défavorisées, ndlr] sont des Noirs, des indigènes et des personnes de couleur, et 30 % ont une langue principale autre que l’anglais », ainsi que ce passage :
« L’injustice raciale dans notre pays a également fait l’objet d’une attention accrue, ce qui a conduit à des appels à des réformes majeures pour remédier à des inégalités sociétales de longue date. »
Le département d’État a pour sa part effacé la mention de l’accord de Paris sur le climat, ainsi que le fait que « la crise climatique ne connaît pas de frontières, et tant le défi que ses solutions vont de l’échelle locale à l’échelle mondiale. C’est pourquoi la coopération et la collaboration internationales par la négociation et la mise en œuvre d’accords internationaux sont essentielles ».
26 000 photos marquées pour suppression, dont celles d’Enola Gay
L’agence AP révélait de son côté la semaine passée que « plus de 26 000 photographies » avaient par ailleurs été « marquées pour suppression » par le ministère de la Défense, qui s’efforce lui aussi de « purger le contenu relatif à la diversité, à l’équité et à l’inclusion » (DEI) :
« La grande majorité de la purge du Pentagone vise les femmes et les minorités, y compris les événements marquants survenus dans l’armée. Il supprime également un grand nombre de messages mentionnant divers mois commémoratifs, notamment pour les Noirs, les Hispaniques et les femmes. »
Y figurent notamment des photographies d’Enola Gay, l’avion qui avait largué une bombe atomique sur Hiroshima, quand bien même son nom est une référence à la mère du pilote du bombardier, et nullement à l’homosexualité, comme l’explique AP :
« Plusieurs photos d’un projet de dragage du Corps des ingénieurs de l’armée en Californie ont été marquées pour être supprimées, apparemment parce qu’un ingénieur local figurant sur la photo portait le nom de famille Gay. Une photo de biologistes du Corps d’armée figurait également sur la liste, apparemment parce qu’elle mentionnait qu’ils enregistraient des données sur les poissons, notamment leur poids, leur taille, leur écloserie et leur sexe. »
« Nous sommes satisfaits du respect rapide, par l’ensemble du département, de la directive visant à supprimer le contenu DEI de toutes les plates-formes », explique à AP le porte-parole du Pentagone, John Ullyot. Il précise cela dit que « Dans les rares cas où le contenu retiré n’entre pas dans le champ d’application clairement défini de la directive, nous donnons des instructions aux composantes en conséquence ».
Ce 11 mars, la photo d’Enola Gay était encore consultable sur le site de l’US Air Force. Un fonctionnaire, sous couvert d’anonymat, précise à AP que la purge pourrait supprimer jusqu’à 100 000 images ou messages au total, si l’on tient compte des pages de médias sociaux et d’autres sites web qui sont également examinés à la recherche de contenu DEI.
« Rétablir la liberté d’expression et mettre fin à la censure fédérale »
Le New York Times souligne que le président Trump et ses proches conseillers se sont pourtant souvent présentés « comme des champions de la liberté d’expression ». Intitulé « Rétablir la liberté d’expression et mettre fin à la censure fédérale », l’un des premiers décrets signés par le président des États-Unis, le premier jour de son retour au pouvoir, rappelait ainsi que « la censure de la parole par le gouvernement est intolérable dans une société libre ».
S’en prenant plus particulièrement à ce qu’il décrivait comme une campagne de pression menée par l’administration Biden pour « étouffer » le droit à la liberté d’expression, « en censurant les propos des Américains sur les plateformes en ligne, souvent en exerçant une pression coercitive importante sur des tiers, tels que les entreprises de médias sociaux, pour qu’ils modèrent, déplacent ou suppriment d’une autre manière les propos que le gouvernement fédéral n’approuvait pas » :
« Sous couvert de lutte contre la « désinformation » et la « malinformation », le gouvernement fédéral a enfreint les droits d’expression protégés par la Constitution des citoyens américains à travers les États-Unis de manière à faire avancer le récit préféré du gouvernement sur des questions importantes du débat public ».
Il s’engageait dès lors à « s’assurer qu’aucun fonctionnaire, employé ou agent du gouvernement fédéral ne s’engage ou ne facilite une conduite qui restreindrait de manière inconstitutionnelle la liberté d’expression de tout citoyen américain », et à « identifier et prendre les mesures appropriées pour corriger les fautes passées du gouvernement fédéral liées à la censure de la liberté d’expression ».
Les chansons générées par IA afin d’imiter de vrais artistes sont en train de devenir « un sérieux problème », note Gizmodo. Sony, qui a d’ores et déjà retiré plus de 75 000 deepfakes de ce type sur les diverses plateformes de streaming, précise que ce chiffre n’en représente cela dit qu’une fraction des contrefaçons musicales de l’IA disponibles en ligne.
Les équipes en charge du problème doivent en effet « parcourir manuellement » les services de streaming à la recherche de ces contrefaçons et exiger leur suppression, explique le FT.
L’industrie musicale estime également que l’explosion de services et logiciels de création audiovisuelle via des intelligences artificielles génératives entraîne d’ores et déjà « un préjudice commercial pour les artistes ».
La société, qui est l’un des trois plus grands labels de l’industrie musicale, a communiqué ce chiffre et ses craintes dans le cadre d’une consultation du gouvernement britannique sur les règles en matière de droits d’auteur.
Le gouvernement britannique a en effet publié ces propositions dans le cadre d’une initiative visant à faire du Royaume-Uni « le meilleur endroit pour lancer et développer une entreprise d’IA », comme l’a expliqué le Premier ministre, Sir Keir Starmer.
Une exception au Copyright serait introduite. Celle-ci laisserait, par défaut, les entreprises du numérique entrainer leurs systèmes sur les contenus copyrightés en échange de plus de transparence.
L’une des propositions permettrait ainsi aux entreprises d’IA d’entraîner gratuitement leurs modèles à des fins commerciales sur une série de contenus produits au Royaume-Uni, notamment la musique, les films, les livres et les journaux. Les titulaires de droits d’auteur devraient demander une dérogation spécifique pour être exemptés.
Sony rétorque que cela affecterait l’économie britannique, le Royaume-Uni étant le troisième marché mondial de la musique enregistrée et le deuxième exportateur mondial de musique enregistrée.
Médias et artistes britanniques s’étaient eux aussi mobilisés, fin février, arguant du fait que « le gouvernement britannique ne doit pas légaliser le vol au profit des sociétés d’intelligence artificielle ».
Les chansons générées par IA afin d’imiter de vrais artistes sont en train de devenir « un sérieux problème », note Gizmodo. Sony, qui a d’ores et déjà retiré plus de 75 000 deepfakes de ce type sur les diverses plateformes de streaming, précise que ce chiffre n’en représente cela dit qu’une fraction des contrefaçons musicales de l’IA disponibles en ligne.
Les équipes en charge du problème doivent en effet « parcourir manuellement » les services de streaming à la recherche de ces contrefaçons et exiger leur suppression, explique le FT.
L’industrie musicale estime également que l’explosion de services et logiciels de création audiovisuelle via des intelligences artificielles génératives entraîne d’ores et déjà « un préjudice commercial pour les artistes ».
La société, qui est l’un des trois plus grands labels de l’industrie musicale, a communiqué ce chiffre et ses craintes dans le cadre d’une consultation du gouvernement britannique sur les règles en matière de droits d’auteur.
Le gouvernement britannique a en effet publié ces propositions dans le cadre d’une initiative visant à faire du Royaume-Uni « le meilleur endroit pour lancer et développer une entreprise d’IA », comme l’a expliqué le Premier ministre, Sir Keir Starmer.
Une exception au Copyright serait introduite. Celle-ci laisserait, par défaut, les entreprises du numérique entrainer leurs systèmes sur les contenus copyrightés en échange de plus de transparence.
L’une des propositions permettrait ainsi aux entreprises d’IA d’entraîner gratuitement leurs modèles à des fins commerciales sur une série de contenus produits au Royaume-Uni, notamment la musique, les films, les livres et les journaux. Les titulaires de droits d’auteur devraient demander une dérogation spécifique pour être exemptés.
Sony rétorque que cela affecterait l’économie britannique, le Royaume-Uni étant le troisième marché mondial de la musique enregistrée et le deuxième exportateur mondial de musique enregistrée.
Médias et artistes britanniques s’étaient eux aussi mobilisés, fin février, arguant du fait que « le gouvernement britannique ne doit pas légaliser le vol au profit des sociétés d’intelligence artificielle ».
Le Parisien a appris que six personnes ont été mises en examen, et quatre incarcérées, dans le cadre d’une « gigantesque escroquerie aux faux colis ou remboursement de colis » ayant contribué à détourner de 20 à 30 millions d’euros entre 2021 et 2025.
Le groupe, surnommé « Zulon », opérait « depuis au moins quatre ans » une chaîne Telegram baptisée « Refund France ». Elle proposait à ses abonnés des « services de remboursement frauduleux de colis, ainsi que des modes d’emploi et des formations pour flouer les plates-formes commerciales en ligne », résume Le Parisien :
« Ainsi expliquaient-ils comment renvoyer un colis vide, abîmé ou le faire égarer tout en obtenant quand même un remboursement de la commande. »
Moyennant commission, ils les incitaient à passer des « commandes massives » sur des plateformes de commerce en ligne comme Amazon, Auchan, Leroy-Merlin ou Ikea. Des facteurs complices, grâce à leurs téléphones professionnels Facteo, scannaient les codes-barres pour déclencher de « faux retours » via Colissimo ou Chronopost, quand bien même les acquéreurs ne renvoyaient pas leurs commandes, pour en profiter ou les revendre.
Le Parisien explique que les plateformes de commerce en ligne procèdent en effet à un « remboursement immédiat » dès la création d’un code barre de retour, sans attendre que le colis soit renvoyé, « les enseignes souhaitant améliorer toujours plus l’expérience client pour se démarquer dans un milieu très concurrentiel ».
Le fondateur présumé, un Français d’une vingtaine d’années installé à Dubaï, « présenté comme un génie de l’informatique », a été arrêté alors qu’il revenait pour des raisons familiales. Par ailleurs atteint de troubles psychiatriques, il a depuis été hospitalisé d’office en psychiatrie.
Le suspect, qualifié de « geek anticapitaliste » par le Parisien, aurait justifié ces arnaques « par le fait de défendre le consommateur face à une industrie libérale prétendument effrénée, qu’il voudrait déstabiliser », résume Le Parisien, arguant que les plateformes seraient de toute façon remboursées par leurs assurances.
Un avocat parisien d’une trentaine d’années, spécialisé dans le droit des affaires, qui aurait détourné plus de 140 000 euros de commandes remboursées, aurait en outre supervisé certaines des opérations du groupe Zulon. Il a, lui aussi, été incarcéré, tout comme deux autres membres du groupe.
Le Parisien a appris que six personnes ont été mises en examen, et quatre incarcérées, dans le cadre d’une « gigantesque escroquerie aux faux colis ou remboursement de colis » ayant contribué à détourner de 20 à 30 millions d’euros entre 2021 et 2025.
Le groupe, surnommé « Zulon », opérait « depuis au moins quatre ans » une chaîne Telegram baptisée « Refund France ». Elle proposait à ses abonnés des « services de remboursement frauduleux de colis, ainsi que des modes d’emploi et des formations pour flouer les plates-formes commerciales en ligne », résume Le Parisien :
« Ainsi expliquaient-ils comment renvoyer un colis vide, abîmé ou le faire égarer tout en obtenant quand même un remboursement de la commande. »
Moyennant commission, ils les incitaient à passer des « commandes massives » sur des plateformes de commerce en ligne comme Amazon, Auchan, Leroy-Merlin ou Ikea. Des facteurs complices, grâce à leurs téléphones professionnels Facteo, scannaient les codes-barres pour déclencher de « faux retours » via Colissimo ou Chronopost, quand bien même les acquéreurs ne renvoyaient pas leurs commandes, pour en profiter ou les revendre.
Le Parisien explique que les plateformes de commerce en ligne procèdent en effet à un « remboursement immédiat » dès la création d’un code barre de retour, sans attendre que le colis soit renvoyé, « les enseignes souhaitant améliorer toujours plus l’expérience client pour se démarquer dans un milieu très concurrentiel ».
Le fondateur présumé, un Français d’une vingtaine d’années installé à Dubaï, « présenté comme un génie de l’informatique », a été arrêté alors qu’il revenait pour des raisons familiales. Par ailleurs atteint de troubles psychiatriques, il a depuis été hospitalisé d’office en psychiatrie.
Le suspect, qualifié de « geek anticapitaliste » par le Parisien, aurait justifié ces arnaques « par le fait de défendre le consommateur face à une industrie libérale prétendument effrénée, qu’il voudrait déstabiliser », résume Le Parisien, arguant que les plateformes seraient de toute façon remboursées par leurs assurances.
Un avocat parisien d’une trentaine d’années, spécialisé dans le droit des affaires, qui aurait détourné plus de 140 000 euros de commandes remboursées, aurait en outre supervisé certaines des opérations du groupe Zulon. Il a, lui aussi, été incarcéré, tout comme deux autres membres du groupe.
Entamée début 2024, notre enquête sur les soi-disant « sites d’information » générés par IA (GenAI) a donné lieu de multiples révélations depuis la publication de ses premiers articles, début février. Signe de l’ampleur de cette pollution médiatique : notre enquête nous avait permis d’en identifier une centaine en octobre 2024, 500 à Noël, 1 000 fin janvier, plus de 2 000 mi-février, près de 3 000 début mars…
Vu l’ampleur du problème, nous avions donc proposé au service de fact-checking CheckNews de Libération, ainsi qu’à des fact-checkers de Wikipédia, de nous aider à enquêter sur ce qui s’apparente à une véritable « pollution » numérique et médiatique.
Près de 150 des 500 sites GenAI que nous avions initialement identifiés étaient en effet mentionnés comme « sources » sur Wikipédia. Et ce, alors que leurs articles ne semblent avoir été ni relus, ni corrigés, ni validés avant leur publication automatisée (et, donc, sans supervision humaine).
La plupart des articles mentionnés dans l’encyclopédie avaient été publiés avant que leurs noms de domaine (expirés) ne soient rachetés par des professionnels du référencement – SEO – et du marketing numérique. Ces sites n’en restent pas moins référencés sur Google Actualités, quand bien même ils n’émanent donc pas de « journalistes » ni de « médias » reconnus par la profession, que leurs articles sont générés par IA, et qu’ils polluent le moteur de recherche et son algorithme de recommandation Discover.
Nous avons depuis également découvert que, parmi la centaine de professionnels du référencement (SEO) et du marketing numérique qui les administrent, certains en gèrent plusieurs centaines, et même plusieurs milliers, sans être en capacité d’identifier combien polluent de la sorte Google, et particulièrement Google Actualités.
Nous avons bien évidemment détaillé notre méthodologie, challengée et vérifiée par les deux contributeurs expérimentés de l’encyclopédie Wikipédia, et les deux journalistes du service de fact-checking CheckNews de Libération.
Next a en outre développé une extension pour les navigateurs compatibles Chrome et Firefox (y compris sur Android), afin d’alerter ses utilisateurs lorsqu’ils consultent un site GenAI (cf sa présentation, et notre méthodologie). Elle les alerte aussi désormais lorsqu’ils visitent aussi des noms de domaines « potentiellement malveillants » identifiés par Red Flag Domains, et des « entités non autorisées à proposer des produits ou services financiers en France » par l’Autorité des marchés financiers.
40 médias français ont depuis demandé à la Justice d’ordonner aux FAI le blocage du site news.dayfr.com. Ce dernier, le plus bourrin du millier de sites d’informations générés par IA que nous avons identifiés, plagiait de 5 à 15 articles… par minute, et jusqu’à plus de 6 000 par jour. Ironie de l’histoire : il a aussi été jusqu’à…. plagier deux des articles mentionnant la plainte le concernant.
Une enquête de l’équipe « pour une IA responsable » de la BBC a par ailleurs découvert que plus de la moitié des réponses fournies par les assistants d’intelligence artificielle (IA) à qui il avait été demandé de chercher leurs réponses dans les articles de la BBC étaient « factuellement incorrectes, trompeuses et potentiellement dangereuses ». Mais également que 20 % d’entre elles ont en outre rajouté des « inexactitudes factuelles » qui ne figuraient pas dans les articles pourtant mentionnés.
Plus d’une centaine (au moins, et probablement plusieurs centaines, voire milliers) des sites GenIA que nous avions initialement identifiés plagient en outre des articles de véritables journalistes, sans mentionner leurs sources ni préciser qu’ils ont été générés avec des IA. Ils sont pourtant, pour la plupart, référencés sur Google Actualités, et parfois relayés par son IA de recommandation algorithmique Discover. Certains se contentent de traduire des articles en français quand d’autres les paraphrasent, rendant leurs plagiats plus difficiles à identifier.
Interrogé par Arrêt sur images, à qui nous avions transmis notre enquête à son sujet, le patron du groupe de presse Économie Matin, par ailleurs co-directeur pédagogique d’une école de journalisme d’extrême-droite, a reconnu que ses articles étaient bien générés par IA, contrairement à ce que son rédacteur en chef adjoint prétendait initialement. Ce dernier, par ailleurs « prompt engineer » du groupe, attribue de son côté les dizaines de plagiats que nous avons en outre identifiés à un « bug du script » envoyé à ChatGPT qui, « étant complètement idiot, parfois, ne fait pas ce qu’on lui dit » (sic).
Notre enquête nous a valu quelques remarques acerbes de la part de professionnels du SEO, au motif que le fait de rendre public le fait que certains de leurs sites sont GenAI pourrait nuire à leur business :
« Les gens veulent manger de la merde ? Donnez en leur à la pelle plutôt que d essayer de buzzer et cherchant à bousiller le business de milliers de sites. »
L’un d’entre eux nous a par exemple rétorqué que de nombreux médias français avaient récemment relayé une « rumeur »… qu’ils n’auraient cela dit probablement pas relayée si les journalistes avaient été informés que l’information initiale avait en fait été « hallucinée » dans des articles générés par IA.
Les sites d’information de la presse quotidienne régionale (PQR) sont, eux aussi, de plus en plus victimes de pure players qui les concurrencent, voire les plagient, tout en étant générés par des IA. Si certains se positionnent comme des « médias indépendants », d’autres ne cherchent qu’à faire du clic. Au point que des journalistes de la PQR se retrouvent à devoir fact-checker des infos erronées car « hallucinées » par les IA qui les publient.
Après avoir analysé un échantillon de 8 795 posts LinkedIn publics de plus de 100 mots publiés entre janvier 2018 et octobre 2024, une start-up de détection de contenus générés par IA a par ailleurs découvert que plus de 50 % d’entre eux étaient GenAI, et que le nombre de messages longs susceptibles d’avoir été générés par IA avait explosé de 189 % dans les mois suivants le lancement de ChatGPT.
Dans son (216e) podcast, Mediarama a en outre reçu Alexandre Laurent, directeur de la rédaction de Next.ink, pour discuter de notre enquête-fleuve sur les 2 000 (au moment de l’enregistrement, mi-février) 3 000 (depuis début mars) « sites d’information » en tout ou partie générés par IA (GenAI) que nous avons identifiés, où il résume (et revient sur) les articles que nous y avons consacrés.
Entamée début 2024, notre enquête sur les soi-disant « sites d’information » générés par IA (GenAI) a donné lieu de multiples révélations depuis la publication de ses premiers articles, début février. Signe de l’ampleur de cette pollution médiatique : notre enquête nous avait permis d’en identifier une centaine en octobre 2024, 500 à Noël, 1 000 fin janvier, plus de 2 000 mi-février, près de 3 000 début mars…
Vu l’ampleur du problème, nous avions donc proposé au service de fact-checking CheckNews de Libération, ainsi qu’à des fact-checkers de Wikipédia, de nous aider à enquêter sur ce qui s’apparente à une véritable « pollution » numérique et médiatique.
Près de 150 des 500 sites GenAI que nous avions initialement identifiés étaient en effet mentionnés comme « sources » sur Wikipédia. Et ce, alors que leurs articles ne semblent avoir été ni relus, ni corrigés, ni validés avant leur publication automatisée (et, donc, sans supervision humaine).
La plupart des articles mentionnés dans l’encyclopédie avaient été publiés avant que leurs noms de domaine (expirés) ne soient rachetés par des professionnels du référencement – SEO – et du marketing numérique. Ces sites n’en restent pas moins référencés sur Google Actualités, quand bien même ils n’émanent donc pas de « journalistes » ni de « médias » reconnus par la profession, que leurs articles sont générés par IA, et qu’ils polluent le moteur de recherche et son algorithme de recommandation Discover.
Nous avons depuis également découvert que, parmi la centaine de professionnels du référencement (SEO) et du marketing numérique qui les administrent, certains en gèrent plusieurs centaines, et même plusieurs milliers, sans être en capacité d’identifier combien polluent de la sorte Google, et particulièrement Google Actualités.
Nous avons bien évidemment détaillé notre méthodologie, challengée et vérifiée par les deux contributeurs expérimentés de l’encyclopédie Wikipédia, et les deux journalistes du service de fact-checking CheckNews de Libération.
Next a en outre développé une extension pour les navigateurs compatibles Chrome et Firefox (y compris sur Android), afin d’alerter ses utilisateurs lorsqu’ils consultent un site GenAI (cf sa présentation, et notre méthodologie). Elle les alerte aussi désormais lorsqu’ils visitent aussi des noms de domaines « potentiellement malveillants » identifiés par Red Flag Domains, et des « entités non autorisées à proposer des produits ou services financiers en France » par l’Autorité des marchés financiers.
40 médias français ont depuis demandé à la Justice d’ordonner aux FAI le blocage du site news.dayfr.com. Ce dernier, le plus bourrin du millier de sites d’informations générés par IA que nous avons identifiés, plagiait de 5 à 15 articles… par minute, et jusqu’à plus de 6 000 par jour. Ironie de l’histoire : il a aussi été jusqu’à…. plagier deux des articles mentionnant la plainte le concernant.
Une enquête de l’équipe « pour une IA responsable » de la BBC a par ailleurs découvert que plus de la moitié des réponses fournies par les assistants d’intelligence artificielle (IA) à qui il avait été demandé de chercher leurs réponses dans les articles de la BBC étaient « factuellement incorrectes, trompeuses et potentiellement dangereuses ». Mais également que 20 % d’entre elles ont en outre rajouté des « inexactitudes factuelles » qui ne figuraient pas dans les articles pourtant mentionnés.
Plus d’une centaine (au moins, et probablement plusieurs centaines, voire milliers) des sites GenIA que nous avions initialement identifiés plagient en outre des articles de véritables journalistes, sans mentionner leurs sources ni préciser qu’ils ont été générés avec des IA. Ils sont pourtant, pour la plupart, référencés sur Google Actualités, et parfois relayés par son IA de recommandation algorithmique Discover. Certains se contentent de traduire des articles en français quand d’autres les paraphrasent, rendant leurs plagiats plus difficiles à identifier.
Interrogé par Arrêt sur images, à qui nous avions transmis notre enquête à son sujet, le patron du groupe de presse Économie Matin, par ailleurs co-directeur pédagogique d’une école de journalisme d’extrême-droite, a reconnu que ses articles étaient bien générés par IA, contrairement à ce que son rédacteur en chef adjoint prétendait initialement. Ce dernier, par ailleurs « prompt engineer » du groupe, attribue de son côté les dizaines de plagiats que nous avons en outre identifiés à un « bug du script » envoyé à ChatGPT qui, « étant complètement idiot, parfois, ne fait pas ce qu’on lui dit » (sic).
Notre enquête nous a valu quelques remarques acerbes de la part de professionnels du SEO, au motif que le fait de rendre public le fait que certains de leurs sites sont GenAI pourrait nuire à leur business :
« Les gens veulent manger de la merde ? Donnez en leur à la pelle plutôt que d essayer de buzzer et cherchant à bousiller le business de milliers de sites. »
L’un d’entre eux nous a par exemple rétorqué que de nombreux médias français avaient récemment relayé une « rumeur »… qu’ils n’auraient cela dit probablement pas relayée si les journalistes avaient été informés que l’information initiale avait en fait été « hallucinée » dans des articles générés par IA.
Les sites d’information de la presse quotidienne régionale (PQR) sont, eux aussi, de plus en plus victimes de pure players qui les concurrencent, voire les plagient, tout en étant générés par des IA. Si certains se positionnent comme des « médias indépendants », d’autres ne cherchent qu’à faire du clic. Au point que des journalistes de la PQR se retrouvent à devoir fact-checker des infos erronées car « hallucinées » par les IA qui les publient.
Après avoir analysé un échantillon de 8 795 posts LinkedIn publics de plus de 100 mots publiés entre janvier 2018 et octobre 2024, une start-up de détection de contenus générés par IA a par ailleurs découvert que plus de 50 % d’entre eux étaient GenAI, et que le nombre de messages longs susceptibles d’avoir été générés par IA avait explosé de 189 % dans les mois suivants le lancement de ChatGPT.
Dans son (216e) podcast, Mediarama a en outre reçu Alexandre Laurent, directeur de la rédaction de Next.ink, pour discuter de notre enquête-fleuve sur les 2 000 (au moment de l’enregistrement, mi-février) 3 000 (depuis début mars) « sites d’information » en tout ou partie générés par IA (GenAI) que nous avons identifiés, où il résume (et revient sur) les articles que nous y avons consacrés.
Dans son dernier (et 216e) podcast, Mediarama a reçu Alexandre Laurent, directeur de la rédaction de Next.ink, pour discuter de notre enquête-fleuve sur les 2 000 (au moment de l’enregistrement, mi-février) 3 000 (depuis début mars) « sites d’information » en tout ou partie générés par IA (GenAI) que nous avons identifiés, auxquels nous avons consacré plusieurs articles le mois dernier.
Une bonne partie du podcast (de la 7e à la 41e minute) revient sur les coulisses de cette enquête entamée il y a maintenant plus d’un an, les dérives et problèmes que nous avons constatés, comment nous avons fait pour les identifier, et le rôle de Google dans leur prolifération.
Le podcast revient ensuite sur les problèmes qu’avaient rencontrés NextINpact.com par le passé, le rachat par @Ferd & moji, la renaissance de Next.ink, son modèle économique « RSE » et « radical » (« 100 % abonnements, 0% cookies »), ainsi que les défis concernant la conquête et la conversion des abonnés :
« Un épisode incontournable pour tous ceux qui s’intéressent à l’avenir du journalisme numérique, aux enjeux de l’IA et aux défis d’un média 100% indépendant. »
Dans son dernier (et 216e) podcast, Mediarama a reçu Alexandre Laurent, directeur de la rédaction de Next.ink, pour discuter de notre enquête-fleuve sur les 2 000 (au moment de l’enregistrement, mi-février) 3 000 (depuis début mars) « sites d’information » en tout ou partie générés par IA (GenAI) que nous avons identifiés, auxquels nous avons consacré plusieurs articles le mois dernier.
Une bonne partie du podcast (de la 7e à la 41e minute) revient sur les coulisses de cette enquête entamée il y a maintenant plus d’un an, les dérives et problèmes que nous avons constatés, comment nous avons fait pour les identifier, et le rôle de Google dans leur prolifération.
Le podcast revient ensuite sur les problèmes qu’avaient rencontrés NextINpact.com par le passé, le rachat par @Ferd & moji, la renaissance de Next.ink, son modèle économique « RSE » et « radical » (« 100 % abonnements, 0% cookies »), ainsi que les défis concernant la conquête et la conversion des abonnés :
« Un épisode incontournable pour tous ceux qui s’intéressent à l’avenir du journalisme numérique, aux enjeux de l’IA et aux défis d’un média 100% indépendant. »
Sept ans après les premières révélations concernant la possibilité de géolocaliser des militaires et membres de services de renseignement, voire même d’identifier leurs domiciles et véritables identités, via la géolocalisation de leurs téléphones portables, une nouvelle enquête vient remettre le couvert.
Des journalistes de « L’Œil du 20 heures » de France Télévisions et de Franceinfo racontent s’être fait passer pour une entreprise de marketing fictive auprès d’un « data broker » états-unien. Ce dernier leur a expliqué disposer de données émanant de 25 millions de téléphones portables en France, et être en capacité de leur fournir « plus d’un milliard de points GPS au mètre et à la minute près, à travers tout le pays » pour seulement quelques milliers d’euros par mois :
« Cela vous coûterait entre 7 500 et 10 000 dollars par mois d’avoir ces données, c’est le prix en ce moment pour les données françaises. Vous êtes une petite boîte, donc on vous fait un bon prix. »
« Nous respectons la législation européenne, plein d’entreprises utilisent nos données pour des campagnes d’affichage dans la rue, ou de la publicité ciblée », ajoutait le broker, sans pour autant préciser d’où provenaient les données.
15 minutes seulement après être entrés en contact avec l’un de ses concurrents, ils se voyaient proposer un échantillon commercial gratuit constitué de plusieurs centaines de fichiers, couvrant une période de deux semaines en janvier 2025.
Les données, émanant de 11,7 millions de téléphones et totalisant plus d’un milliard de coordonnées GPS, sont a priori anonymes, et uniquement reliées aux identifiants publicitaires associés aux téléphones.
Traquer des convoyeurs de fonds ou membres de la DGSE jusqu’à leurs domiciles
Les journalistes ont cela dit pu identifier 400 téléphones bornant au siège de France Télévisions, suivre en particulier les déplacements de l’une de ses employés, mais aussi et surtout ceux de convoyeurs de fonds de la Brink’s, jusqu’à leurs domiciles.
Contactée, la société de sécurité explique que leurs téléphones professionnels « ne sont pas traçables », qu’il est impossible d’y télécharger une application, et qu’il leur est pourtant demandé d’éteindre leurs téléphones personnels au travail.
Les données ont également permis aux journalistes d’identifier 366 téléphones géolocalisés à l’Élysée, 440 au ministère des Affaires étrangères, et des centaines d’autres dans d’autres ministères, centrales nucléaires et bases militaires, notamment.
Plus inquiétant : ils en ont même identifié 749 au Fort de Noisy, une emprise de la DGSE à Romainville, en Seine-Saint-Denis (les points laissent cela dit supposer qu’un certain nombre émanerait de personnes identifiées aux abords immédiats du Fort, sans forcément y être entrés, la géolocalisation n’étant pas précise au mètre près), et « 37 téléphones qui bornent régulièrement dans l’enceinte » du centre parachutiste d’entraînement spécialisé (CPES) du Service Action de la DGSE à Cercottes, dans le Loiret :
« Des trajets entre le fort de Noisy et Cercottes permettent de conclure qu’il s’agit de membres de la DGSE. S’il est impossible de connaître leur fonction exacte, il est aisé d’en apprendre beaucoup sur ces personnes. On peut ainsi savoir où elles font leurs courses, mais aussi où elles passent leurs soirées. »
Ils auraient également réussi à identifier les domiciles de plusieurs personnes travaillant pour le service de renseignement, ou encore à « retrouver des identités probables de personnes passant leurs journées au camp de Cercottes », et même à remonter jusqu’à des comptes de réseaux sociaux.
Un problème dûment identifié depuis (au moins) 7 ans
Contactée, la DGSE « ne fera pas de commentaire sur la manière dont on appréhende l’existence de ces données », précisant cela dit qu’il s’agit « de choses qui sont effectivement connues ».
Le fait de pouvoir identifier des militaires et employés de services de renseignement à partir des données de géolocalisation de leurs téléphones portables est connu depuis au moins 2018, après qu’un OSINTeur a identifié sur le réseau social de sportifs Strava des forces spéciales en Irak et en Syrie, et l’auteur de ces lignes des agents de la DGSE (et de la DGSI, aussi).
Quand j'ai trouvé un joggeur se géolocalisant au QG de la DGSE, j'ai demandé à un ancien ce qu'il risquait: "cher, sauf s'ils sont plusieurs: dur d'en sanctionner un et pas les autres". Au final, j'en ai trouvé plus de 25 (à la DGSI aussi)… dont le n°2 :https://t.co/SuPMgjlaNF
Next avait également raconté comment nous avions, dans la foulée, été en mesure de géolocaliser et d’identifier des centaines d’agents de service de renseignement états-uniens, britanniques et israéliens, pendant quatre ans, sans que leurs services de contre-espionnage respectifs ne s’en aperçoivent.
Ce n’est qu’après avoir été dénoncé au Mossad par un OSINTeur israélien que notre compte Strava fut finalement coupé. Fin 2024, Le Monde avait de son côté raconté dans ses « StravaLeaks » comment le réseau social de sportifs lui avait permis d’identifier et suivre les déplacements de gardes du corps des présidents français, russes et états-uniens.
L’ADvertising INTelligence (ADINT), nouvel or noir des services de renseignement
Nicolas Lerner, directeur général de la sécurité extérieure (DGSE), avait de son côté opportunément pointé du doigt les problèmes, encore plus grands, que semblaient lui poser l’ADINT (pour ADvertising INTelligence), du nom donné à la collecte de données publicitaires, potentiellement encore plus intrusives.
Faisant suite à d’autres investigations de ce type effectuées aux USA, en Norvège, aux Pays-Bas et en Suisse, BR, le service public audiovisuel de la Bavière) et le média indépendant netzpolitik.org avaient eux aussi révélé, dans toute une série d’articles, qu’il était possible de géolocaliser des personnes à l’intérieur de bâtiments de l’armée et des services de renseignement allemands, mais également dans les installations américaines sensibles en Allemagne, où les États-Unis maintiennent une force d’au moins 35 000 soldats.
Intelligence Online relève pour sa part, en réaction aux « TrackingFiles », que « l’achat de données publicitaires et de géolocalisation via des brokers spécialisés est, depuis un certain temps déjà, utilisé par la plupart des services de renseignement pour leur propre collecte » :
« La pratique a déjà ses acronymes, signe de son institutionnalisation dans les communautés du renseignement : les Commercially Available Information (CAI) et le Commercially Sourced Intelligence (CSINT) du point de vue des services, l’ADINT (Advertising Intelligence) du point de vue des opérateurs commerciaux. »
Une pratique répandue qui rend d’autant plus étonnant le fait que, sept ans après les premières révélations au sujet de Strava, des dizaines voire centaines d’agents de la DGSE continuent de se géolocaliser à l’intérieur des emprises du service de renseignement. Signe que les bases de l’OPSEC (pour « OPerations SECurity », Sécurité opérationnelle en français), à savoir le fait de se protéger des risques autres que ceux relatifs à la cybersécurité, semblent encore être ignorées.
Il leur suffirait pourtant, tout simplement, de ne pas laisser la géolocalisation activée par défaut sur leurs téléphones, et de ne la réactiver qu’en cas de nécessité, et uniquement en dehors des emprises militaires. L’Œil du 20 heures précise qu’il est aussi possible de réinitialiser l’identifiant publicitaire associé à son téléphone et qui permet de suivre ses déplacements et utilisations.