La direction du Washington Post savait que son nouveau podcast généré par IA produisait de 64 à 84 % d’actus erronées, malgré un algorithme dédié. En proie à une perte de centaines de milliers d’abonnés, notamment depuis l’élection de Donald Trump et le recentrage droitier voulu par Jeff Bezos, sa direction assume de vouloir continuer à l’expérimenter.
Le 10 décembre dernier, Bailey Kattleman, la responsable produit et conception au Washington Post, expliquait à Digiday vouloir « attirer les jeunes auditeurs » avec une nouvelle offre de podcasts personnalisés grâce à l’IA.
L’objectif de Your Personal Podcat est de leur permettre de choisir leurs sujets préférés, afin de « façonner leur propre briefing, sélectionner leurs sujets, définir leur durée, choisir leurs animateurs et bientôt même poser des questions à l’aide de notre technologie Ask The Post AI », et proposer un nouveau moyen d’accéder à ses articles, de manière « flexible » et « attrayante ».
Capture d’écran du « Personalized podcast » du Washington Post
Interrogée par NPR, Bailey Kattleman évoquait une « expérience d’information audio alimentée par l’IA », qui permettrait « bientôt » aux auditeurs d’interagir avec le podcast. Kattleman précisait à Digiday que son équipe voulait permettre à ses utilisateurs de mettre le podcast en pause et de poser des questions à voix haute, afin d’obtenir davantage de contexte, de clarifier certains points ou de répondre à des questions.
Six mois de développement pour un podcast façon NotebookLM
Le podcast a été développé dans le cadre d’un accord pluriannuel entre le Washington Post et Eleven Labs, une société spécialisée dans les logiciels de génération vocale par IA, qui crée des versions audio d’articles pour des éditeurs tels que le Post, Time et The Atlantic.
Mais plutôt que de proposer une version audio des articles, l’IA associée au podcast sélectionne et assemble « environ quatre actualités principales », en fonction de l’historique de lecture et d’écoute de l’utilisateur et des sujets qu’il suit dans l’application.
La durée du podcast étant limitée à 8 minutes seulement, chaque actualité se retrouve dès lors résumée en moins de deux minutes, quelle que soit la longueur de l’article associé.
Un peu à la manière de NotebookLM, deux « animateurs IA » se relaient pour résumer les articles tout en « en discutant dans un ton plus décontracté que lors d’un briefing d’information classique », soulignait Digiday. L’article évoquait également l’engouement de certains médias pour les vidéos courtes façon TikTok, et ceux recourant à l’IA pour sélectionner et résumer des fils d’actus personnalisés.
Bailey Kattleman expliquait à Digiday que le projet, initié environ six mois plus tôt, était arrivé sans trop de difficultés « au stade de la démonstration », mais que le plus compliqué avait été de « perfectionner le podcast ».
Elle précisait que l’équipe produit du Post avait également créé un « algorithme de notation interne pour déterminer la qualité du podcast, en tenant compte de l’exactitude des faits, du ton des voix générées par l’IA, de l’attribution et du caractère engageant du podcast ».
NPR relevait cela dit qu’une note conseille aux auditeurs de l’application de « vérifier les informations » en comparant le podcast avec ses sources. Un avertissement figurant également en exergue des articles, eux aussi générés par IA, qui ont récemment valu à Politico d’être accusé de violer ses propres règles d’éthique éditoriale journalistique en publiant des articles « hallucinant » de fausses informations.
« Quelles sont les mesures mises en place pour garantir l’exactitude de ce podcast ? »
Las : le 11 décembre, soit 48 heures seulement après le lancement du podcast personnalisé généré par IA, le canal Slack du WaPo était submergé par des dizaines de messages de journalistes remettant en question la manière dont cette fonctionnalité avait été rendue publique par la direction, rapporte Status. Certains allaient jusqu’à le qualifier de « désastre » : « Quelles sont les mesures mises en place pour garantir l’exactitude de ce podcast ? », demandait par exemple un membre du personnel.
Il reste 71% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Une gardienne de la paix de 25 ans et son « petit ami » de 31 ans ont été arrêtés la semaine passée pour avoir vendu via Snapchat des informations émanant de fichiers policiers.
L’enquête aurait débuté en mai dernier, après que des enquêteurs de l’Office anti-cybercriminalité (OFAC) ont eu découvert une « story » Snapchat proposant d’acheter des accès à des fichiers policiers, rapportent BFMTV et Le Figaro.
Les investigations téléphoniques ont permis de remonter à une policière « affectée à la garde bâtimentaire et donc pas en charge d’enquêtes », précise le parquet de Paris. Depuis début 2024, elle aurait néanmoins effectué 94 consultations frauduleuses du fichier du traitement des antécédents judiciaires (TAJ) et 169 du fichier des personnes recherchées (FPR).
Son compte bancaire a par ailleurs permis d’identifier des virements de 15 à 5 000 euros émanant des personnes concernées, pour un bénéfice estimé à 12 000 euros.
Son petit ami, « très défavorablement connu des services de police » (expression désignant généralement le fait d’avoir été plusieurs fois « mis en cause » – MEC – dans le TAJ), se chargeait de trouver des clients. Les tarifs allaient de 30 euros pour une consultation du système d’immatriculation des véhicules (SIV), 150 euros pour le FPR, jusqu’à 250 euros pour une levée d’immobilisation d’un véhicule.
Les suspects ont été placés sous contrôle judiciaire avec interdiction d’entrer en contact et de quitter le territoire, et interdiction d’exercer toute fonction publique pour la policière, d’ici leur procès prévu pour le 15 juin 2026.
Le Figaro souligne par ailleurs que les affaires relatives aux « atteintes à la probité » dans la police nationale ont « pratiquement doublé en cinq ans », passant de 137 à 234 entre 2020 et l’année dernière. Cette « démocratisation » de la consultation des fichiers policiers résulterait du fait qu’ils sont accessibles à un plus grand nombre de fonctionnaires, ainsi qu’à la numérisation des procédures.
Le dernier rapport de l’Inspection générale de la Police nationale (IGPN, la « police des polices »), révèle que 93 enquêtes ont été ouvertes en 2024 pour « violation du secret professionnel » (soit le même nombre qu’en 2023), et 75 autres pour « détournement de fichiers » (93 en 2023). Ces violations ont donné lieu à 24 enquêtes ouvertes pour « corruption active » et 42 pour corruption passive, soit le double qu’en 2023.
L’IGPN avait alors annoncé vouloir renforcer le contrôle d’accès aux fichiers policiers, précisant qu’un chef de projet et deux « data scientists » travaillaient au développement d’un algorithme capable de détecter les usages « anormaux ».
Une gardienne de la paix de 25 ans et son « petit ami » de 31 ans ont été arrêtés la semaine passée pour avoir vendu via Snapchat des informations émanant de fichiers policiers.
L’enquête aurait débuté en mai dernier, après que des enquêteurs de l’Office anti-cybercriminalité (OFAC) ont eu découvert une « story » Snapchat proposant d’acheter des accès à des fichiers policiers, rapportent BFMTV et Le Figaro.
Les investigations téléphoniques ont permis de remonter à une policière « affectée à la garde bâtimentaire et donc pas en charge d’enquêtes », précise le parquet de Paris. Depuis début 2024, elle aurait néanmoins effectué 94 consultations frauduleuses du fichier du traitement des antécédents judiciaires (TAJ) et 169 du fichier des personnes recherchées (FPR).
Son compte bancaire a par ailleurs permis d’identifier des virements de 15 à 5 000 euros émanant des personnes concernées, pour un bénéfice estimé à 12 000 euros.
Son petit ami, « très défavorablement connu des services de police » (expression désignant généralement le fait d’avoir été plusieurs fois « mis en cause » – MEC – dans le TAJ), se chargeait de trouver des clients. Les tarifs allaient de 30 euros pour une consultation du système d’immatriculation des véhicules (SIV), 150 euros pour le FPR, jusqu’à 250 euros pour une levée d’immobilisation d’un véhicule.
Les suspects ont été placés sous contrôle judiciaire avec interdiction d’entrer en contact et de quitter le territoire, et interdiction d’exercer toute fonction publique pour la policière, d’ici leur procès prévu pour le 15 juin 2026.
Le Figaro souligne par ailleurs que les affaires relatives aux « atteintes à la probité » dans la police nationale ont « pratiquement doublé en cinq ans », passant de 137 à 234 entre 2020 et l’année dernière. Cette « démocratisation » de la consultation des fichiers policiers résulterait du fait qu’ils sont accessibles à un plus grand nombre de fonctionnaires, ainsi qu’à la numérisation des procédures.
Le dernier rapport de l’Inspection générale de la Police nationale (IGPN, la « police des polices »), révèle que 93 enquêtes ont été ouvertes en 2024 pour « violation du secret professionnel » (soit le même nombre qu’en 2023), et 75 autres pour « détournement de fichiers » (93 en 2023). Ces violations ont donné lieu à 24 enquêtes ouvertes pour « corruption active » et 42 pour corruption passive, soit le double qu’en 2023.
L’IGPN avait alors annoncé vouloir renforcer le contrôle d’accès aux fichiers policiers, précisant qu’un chef de projet et deux « data scientists » travaillaient au développement d’un algorithme capable de détecter les usages « anormaux ».
Plus de 1 800 « agents présumés » de la Corée du Nord ont cherché à être recrutés chez les sous-traitants d’Amazon en un an, en progression de 27 %. Les pirates informatiques nord-coréens ont en outre volé 2,02 milliards de dollars en cryptoactifs en 2025, soit 51 % de plus que l’an passé, pour un total de 6,75 milliards de dollars depuis 2016.
Amazon a « empêché plus de 1 800 agents présumés » de la République populaire démocratique de Corée du Nord (RPDC) de rejoindre leur entreprise depuis avril 2024, et « détecté 27 % de candidatures supplémentaires liées à la RPDC » en un an, indique Stephen Shmidt, le responsable sécurité (CSO) d’Amazon, sur LinkedIn.
La Corée du Nord cherche en effet depuis des années à obtenir des emplois en télétravail dans des entreprises d’informatique afin de reverser leurs salaires pour financer les programmes d’armement du régime, ou encore d’obtenir des accès privilégiés leur permettant d’insérer des malwares, d’exfiltrer des données et plus particulièrement de voler des cryptoactifs.
Stephen Shmidt précise qu’Amazon utilise des systèmes de détection combinant un filtrage basé sur l’IA et une vérification humaine, des vérifications des antécédents et références, à la recherche d’anomalies dans les candidatures et d’incohérences géographiques, et partage plusieurs des techniques, tactiques et procédures (TTP) des pirates nord-coréens :
leurs usurpations d’identité sont devenues plus sophistiquées, ils piratent aussi désormais des comptes LinkedIn inactifs grâce à des identifiants compromis, voire soudoient des comptes actifs contre rémunération ;
ils ciblent de plus en plus les postes liés à l’IA et à l’apprentissage automatique, « probablement parce que ceux-ci sont très demandés à mesure que les entreprises adoptent l’IA » ;
ils travaillent souvent avec des facilitateurs qui gèrent des « fermes d’ordinateurs portables », notamment aux États-Unis, qui font croire aux employeurs qu’ils sont dans le même pays alors qu’ils opèrent à distance depuis l’étranger ;
après avoir initialement prétendu être passés par des universités d’Asie de l’Est, ils tendent désormais à faire croire avoir été formés dans des établissements états-uniens.
« Ce sont les petits détails qui les trahissent. Par exemple, ces candidats indiquent souvent les numéros de téléphone américains avec « + 1 » au lieu de « 1 ». Pris isolément, cela ne signifie rien. Mais combiné à d’autres indicateurs, cela donne une image plus claire. »
Un décalage « à peine perceptible » de quelques dizaines de millisecondes
« Si nous n’avions pas cherché les travailleurs nord-coréens, nous ne les aurions pas trouvés », explique Stephen à Bloomberg, d’autant que ces vrais-faux employés ne sont pas recrutés directement par Amazon, mais par ses sous-traitants.
Amazon a surveillé la vitesse de transmission des frappes sur le clavier de l’ordinateur portable de l’un d’entre eux, censé se trouver aux États-Unis, qui « auraient dû mettre quelques dizaines de millisecondes pour atteindre le siège social d’Amazon à Seattle ». Or, le temps de transmission depuis cet ordinateur était « supérieur à 110 millisecondes », un décalage « à peine perceptible » mais suggérant que son utilisateur se trouvait à l’autre bout du monde, en Chine.
Un porte-parole d’Amazon a déclaré à Bloomberg News que les pirates nord-coréens passaient par des ordinateurs localisés aux États-Unis et administrés par une femme originaire d’Arizona. En juillet dernier, cette dernière a été condamnée à 8 ans et demi de prison pour les avoir aidés à travailler pour plus de 300 entreprises américaines, générant « plus de 17 millions de dollars de revenus illicites » pour la RPDC.
Des salaires pouvant aller jusqu’à 100 000 dollars par mois
Fin octobre, Chainalysis relevait que « ce qui n’était au départ qu’un simple programme d’emploi s’est transformé en une opération mondiale sophistiquée », mais également que « les informaticiens nord-coréens gagnent désormais entre 3 500 et 10 000 dollars par mois, les plus performants pouvant atteindre 100 000 dollars par mois » :
« Opérant principalement depuis la Chine et la Russie, ces travailleurs utilisent plusieurs fausses identités (parfois jusqu’à 12 par personne) et ciblent spécifiquement des entreprises dans des secteurs stratégiques tels que l’intelligence artificielle (IA), la blockchain et la défense. En outre, il semble que la Corée du Nord cible de plus en plus les entreprises en Allemagne, au Portugal et au Royaume-Uni. »
Un butin cumulé de 6,75 milliards de dollars de cryptoactifs
Un rapport de Chainalysis consacré aux vols de cryptoactifs en 2025 souligne de son côté que la Corée du Nord « continue de représenter la menace la plus importante pour la sécurité des cryptomonnaies, avec une année record en termes de fonds volés, malgré une réduction spectaculaire de la fréquence des attaques ».
En 2025, les attaques des pirates informatiques nord-coréens ont en effet représenté « un record de 76 % de toutes les compromissions de services » (contre 61 % en 2024), et permis de dérober « au moins 2,02 milliards de dollars » en cryptomonnaies, soit 681 millions (et 51 %) de plus qu’en 2024.
Chainalysis rappelle que le groupe nord-coréen Lazarus, responsable d’une majorité des attaques contre des cryptoactifs dans le monde, avait en effet réussi à dérober 1,5 milliard de dollars à la bourse d’échange Bybit en février 2025.
Depuis 2016, ces braquages à répétition leur auraient permis de voler un montant cumulé de 6,75 milliards de dollars de cryptoactifs.
Évolution des montants volés par les pirates nord-coréens – Chainalysis
Chainalysis précise que les montants escroqués seraient les plus importants jamais enregistrés, notamment parce qu’ils parviennent à infiltrer des informaticiens dans des entreprises de cryptos, de l’IA et de la blockchain, « ou en utilisant des tactiques sophistiquées d’usurpation d’identité visant les cadres supérieurs ».
Les pirates nord-coréens chercheraient de plus en plus à infiltrer les entreprises liées aux cryptoactifs afin d’obtenir des accès privilégiés, et de maximiser les montants de leurs braquages, note Chainalysis : « une partie de cette année record reflète probablement une dépendance accrue à l’égard de l’infiltration d’informaticiens dans les bourses, les dépositaires et les entreprises web3, ce qui peut accélérer l’accès initial et les mouvements latéraux avant un vol à grande échelle ».
Des stratégies d’ingénierie sociale ciblant des cadres supérieurs
De plus, et non contents de simplement postuler à des postes afin d’être recrutés en tant qu’employés, « ils se font de plus en plus passer pour des recruteurs de grandes entreprises du web3 et de l’IA, orchestrant de faux processus de recrutement qui aboutissent à des « tests techniques » conçus pour récolter les identifiants, le code source et l’accès VPN ou SSO à l’employeur actuel de la victime ».
Chainalysis évoque également une stratégie similaire d’ingénierie sociale ciblant des cadres supérieurs, et prenant la forme de « fausses prises de contact de la part de prétendus investisseurs ou acquéreurs stratégiques », qui profitent de réunions de présentation et de pseudo-vérifications préalables pour « obtenir des informations sensibles sur les systèmes et des voies d’accès potentielles à des infrastructures de grande valeur ».
À l’instar de ce que Chainalysis avait déjà constaté ces dernières années, « la Corée du Nord continue de mener des attaques d’une valeur nettement supérieure à celles des autres acteurs malveillants ». Entre 2022 et 2025, les piratages qui lui ont été attribués « occupent les fourchettes de valeur les plus élevées, tandis que les piratages non attribués à la Corée du Nord présentent des distributions plus normales pour toutes les tailles de vols », comme le montre le graphique qui suit : « Cette tendance confirme que lorsque les pirates nord-coréens frappent, ils ciblent les grands services et visent un impact maximal ».
Les braquages de cryptos des pirates nord-coréens surclassent les autres – Chainalysis
« La capacité de cet État-nation à mener des attaques moins nombreuses mais beaucoup plus destructrices témoigne d’une sophistication et d’une patience croissantes », conclut Chainalysis.
Plus de 1 800 « agents présumés » de la Corée du Nord ont cherché à être recrutés chez les sous-traitants d’Amazon en un an, en progression de 27 %. Les pirates informatiques nord-coréens ont en outre volé 2,02 milliards de dollars en cryptoactifs en 2025, soit 51 % de plus que l’an passé, pour un total de 6,75 milliards de dollars depuis 2016.
Amazon a « empêché plus de 1 800 agents présumés » de la République populaire démocratique de Corée du Nord (RPDC) de rejoindre leur entreprise depuis avril 2024, et « détecté 27 % de candidatures supplémentaires liées à la RPDC » en un an, indique Stephen Shmidt, le responsable sécurité (CSO) d’Amazon, sur LinkedIn.
La Corée du Nord cherche en effet depuis des années à obtenir des emplois en télétravail dans des entreprises d’informatique afin de reverser leurs salaires pour financer les programmes d’armement du régime, ou encore d’obtenir des accès privilégiés leur permettant d’insérer des malwares, d’exfiltrer des données et plus particulièrement de voler des cryptoactifs.
Stephen Shmidt précise qu’Amazon utilise des systèmes de détection combinant un filtrage basé sur l’IA et une vérification humaine, des vérifications des antécédents et références, à la recherche d’anomalies dans les candidatures et d’incohérences géographiques, et partage plusieurs des techniques, tactiques et procédures (TTP) des pirates nord-coréens :
leurs usurpations d’identité sont devenues plus sophistiquées, ils piratent aussi désormais des comptes LinkedIn inactifs grâce à des identifiants compromis, voire soudoient des comptes actifs contre rémunération ;
ils ciblent de plus en plus les postes liés à l’IA et à l’apprentissage automatique, « probablement parce que ceux-ci sont très demandés à mesure que les entreprises adoptent l’IA » ;
ils travaillent souvent avec des facilitateurs qui gèrent des « fermes d’ordinateurs portables », notamment aux États-Unis, qui font croire aux employeurs qu’ils sont dans le même pays alors qu’ils opèrent à distance depuis l’étranger ;
après avoir initialement prétendu être passés par des universités d’Asie de l’Est, ils tendent désormais à faire croire avoir été formés dans des établissements états-uniens.
« Ce sont les petits détails qui les trahissent. Par exemple, ces candidats indiquent souvent les numéros de téléphone américains avec « + 1 » au lieu de « 1 ». Pris isolément, cela ne signifie rien. Mais combiné à d’autres indicateurs, cela donne une image plus claire. »
Un décalage « à peine perceptible » de quelques dizaines de millisecondes
« Si nous n’avions pas cherché les travailleurs nord-coréens, nous ne les aurions pas trouvés », explique Stephen à Bloomberg, d’autant que ces vrais-faux employés ne sont pas recrutés directement par Amazon, mais par ses sous-traitants.
Amazon a surveillé la vitesse de transmission des frappes sur le clavier de l’ordinateur portable de l’un d’entre eux, censé se trouver aux États-Unis, qui « auraient dû mettre quelques dizaines de millisecondes pour atteindre le siège social d’Amazon à Seattle ». Or, le temps de transmission depuis cet ordinateur était « supérieur à 110 millisecondes », un décalage « à peine perceptible » mais suggérant que son utilisateur se trouvait à l’autre bout du monde, en Chine.
Un porte-parole d’Amazon a déclaré à Bloomberg News que les pirates nord-coréens passaient par des ordinateurs localisés aux États-Unis et administrés par une femme originaire d’Arizona. En juillet dernier, cette dernière a été condamnée à 8 ans et demi de prison pour les avoir aidés à travailler pour plus de 300 entreprises américaines, générant « plus de 17 millions de dollars de revenus illicites » pour la RPDC.
Des salaires pouvant aller jusqu’à 100 000 dollars par mois
Fin octobre, Chainalysis relevait que « ce qui n’était au départ qu’un simple programme d’emploi s’est transformé en une opération mondiale sophistiquée », mais également que « les informaticiens nord-coréens gagnent désormais entre 3 500 et 10 000 dollars par mois, les plus performants pouvant atteindre 100 000 dollars par mois » :
« Opérant principalement depuis la Chine et la Russie, ces travailleurs utilisent plusieurs fausses identités (parfois jusqu’à 12 par personne) et ciblent spécifiquement des entreprises dans des secteurs stratégiques tels que l’intelligence artificielle (IA), la blockchain et la défense. En outre, il semble que la Corée du Nord cible de plus en plus les entreprises en Allemagne, au Portugal et au Royaume-Uni. »
Un butin cumulé de 6,75 milliards de dollars de cryptoactifs
Un rapport de Chainalysis consacré aux vols de cryptoactifs en 2025 souligne de son côté que la Corée du Nord « continue de représenter la menace la plus importante pour la sécurité des cryptomonnaies, avec une année record en termes de fonds volés, malgré une réduction spectaculaire de la fréquence des attaques ».
En 2025, les attaques des pirates informatiques nord-coréens ont en effet représenté « un record de 76 % de toutes les compromissions de services » (contre 61 % en 2024), et permis de dérober « au moins 2,02 milliards de dollars » en cryptomonnaies, soit 681 millions (et 51 %) de plus qu’en 2024.
Chainalysis rappelle que le groupe nord-coréen Lazarus, responsable d’une majorité des attaques contre des cryptoactifs dans le monde, avait en effet réussi à dérober 1,5 milliard de dollars à la bourse d’échange Bybit en février 2025.
Depuis 2016, ces braquages à répétition leur auraient permis de voler un montant cumulé de 6,75 milliards de dollars de cryptoactifs.
Évolution des montants volés par les pirates nord-coréens – Chainalysis
Chainalysis précise que les montants escroqués seraient les plus importants jamais enregistrés, notamment parce qu’ils parviennent à infiltrer des informaticiens dans des entreprises de cryptos, de l’IA et de la blockchain, « ou en utilisant des tactiques sophistiquées d’usurpation d’identité visant les cadres supérieurs ».
Les pirates nord-coréens chercheraient de plus en plus à infiltrer les entreprises liées aux cryptoactifs afin d’obtenir des accès privilégiés, et de maximiser les montants de leurs braquages, note Chainalysis : « une partie de cette année record reflète probablement une dépendance accrue à l’égard de l’infiltration d’informaticiens dans les bourses, les dépositaires et les entreprises web3, ce qui peut accélérer l’accès initial et les mouvements latéraux avant un vol à grande échelle ».
Des stratégies d’ingénierie sociale ciblant des cadres supérieurs
De plus, et non contents de simplement postuler à des postes afin d’être recrutés en tant qu’employés, « ils se font de plus en plus passer pour des recruteurs de grandes entreprises du web3 et de l’IA, orchestrant de faux processus de recrutement qui aboutissent à des « tests techniques » conçus pour récolter les identifiants, le code source et l’accès VPN ou SSO à l’employeur actuel de la victime ».
Chainalysis évoque également une stratégie similaire d’ingénierie sociale ciblant des cadres supérieurs, et prenant la forme de « fausses prises de contact de la part de prétendus investisseurs ou acquéreurs stratégiques », qui profitent de réunions de présentation et de pseudo-vérifications préalables pour « obtenir des informations sensibles sur les systèmes et des voies d’accès potentielles à des infrastructures de grande valeur ».
À l’instar de ce que Chainalysis avait déjà constaté ces dernières années, « la Corée du Nord continue de mener des attaques d’une valeur nettement supérieure à celles des autres acteurs malveillants ». Entre 2022 et 2025, les piratages qui lui ont été attribués « occupent les fourchettes de valeur les plus élevées, tandis que les piratages non attribués à la Corée du Nord présentent des distributions plus normales pour toutes les tailles de vols », comme le montre le graphique qui suit : « Cette tendance confirme que lorsque les pirates nord-coréens frappent, ils ciblent les grands services et visent un impact maximal ».
Les braquages de cryptos des pirates nord-coréens surclassent les autres – Chainalysis
« La capacité de cet État-nation à mener des attaques moins nombreuses mais beaucoup plus destructrices témoigne d’une sophistication et d’une patience croissantes », conclut Chainalysis.
14 à 16 millions d’internautes français consultent chaque mois l’un des 251 sites d’infos GenAI les plus recommandés par Google et identifiés par Next, selon une étude de Médiamétrie pour le Groupement des éditeurs de services en ligne. Près des trois quarts (74 %) de ces internautes ont plus de 50 ans, au point que ces derniers visitent plus de sites d’infos GenAI que de vrais sites d’actualités. 77 % y sont envoyés par l’un des services de Google (Discover, Search ou Actualités), et 10 % via Meta.
Dans la mesure où la lutte contre la désinformation nous semble un enjeu de salubrité (numérique) publique, cet article, en principe réservé aux lecteurs premium de Next, est exceptionnellement en accès libre pour 24 heures. Ce sont vos abonnements qui rendent possible ce genre d’enquête au long cours, merci !
Nous précisions alors avoir « de bonnes raisons de penser qu’il en existerait plusieurs milliers », mais également avoir « identifié une centaine de ces pros de l’info GenAI, sans pouvoir mesurer combien de dizaines (voire de centaines) d’autres se seraient lancés dans ce douteux (mais lucratif) « business » ». Nous avons depuis identifié près de 8 900 sites « en tout ou partie générés par IA » (GenAI), administrés (et monétisés) par plus de 200 éditeurs.
Début octobre, Next révélait que près de 20 % des 1 000 sites d’info les plus recommandés par Google Discover, et 33 % des 120 sites les plus recommandés par Google News, à la rubrique Technologie, étaient générés par IA.
L’algorithme Discover de « recommandation de contenus » de Google, la principale source de trafic des sites journalistiques français, est en effet devenu une « pompe à fric » pour les sites monétisés par la publicité, majoritairement financés par… la régie publicitaire de Google. Au point que de nombreux professionnels du référencement et du marketing numérique s’y sont lancés, attirés par l’appât du gain.
Perdu dans le jargon ? Petit lexique pour s’y retrouver
Discover : la mission historique de Google est d’amener des réponses aux requêtes des internautes, mais le moteur développe depuis des années des outils de recommandation, qui sélectionnent automatiquement des contenus et les affichent aux utilisateurs de Google, de Chrome et d’Android. Sur mobile, les suggestions Discover sont par exemple visibles dès l’interface du système d’exploitation. Elles sont devenues la principale source de trafic des médias français.
Poper : de l’anglais to pop, qui signifie sauter ou éclater. Ce terme est utilisé par les professionnels du référencement pour désigner la capacité à faire apparaitre un site ou un contenu donné au sein des outils de recommandation automatisés.
SEO : de l’anglais search engine optimization, soit optimisation pour les moteurs de recherche. Le terme recouvre à la fois les pratiques techniques ou éditoriales visant à favoriser l’apparition d’un site dans les moteurs de recherche, et l’activité de service qui s’est créée autour de cet objectif.
16 millions d’internautes par mois, soit plus d’1/4 de la population française
Next a depuis été contacté par le Groupement des éditeurs de services en ligne (GESTE, qui en fédère plus d’une centaine), et l’entreprise de mesure d’audience Médiamétrie. Cherchant à quantifier le phénomène à l’échelle du marché, nous leur avons proposé d’analyser l’audience des 251 sites GenAI figurant ou ayant figuré dans le Top1000 des sites recommandés par l’algorithme Discover de Google (retrouvez l’étude intégrale en pied de cet article, et le communiqué du GESTE).
À notre grande surprise, le panel de près de 20 000 internautes constitué par Médiamétrie indique que ces 251 sites enregistrent en moyenne, depuis le début de l’année, entre 14 et 16 millions de visiteurs uniques (VU) par mois, soit plus d’un quart de la population française de plus de 15 ans.
Les plus de 50 ans visitent plus de sites GenAI que de vrais sites d’infos
Seconde découverte, elle aussi accablante : la surreprésentativité des « inactifs », et des plus de 50 ans. D’après le panel de Médiamétrie, 52% des visiteurs quotidiens de sites GenAI seraient inactifs (hors étudiants), contre 42% dans l’audience quotidienne des sites d’actualités, alors qu’ils ne représenteraient que 29 % de la population.
Et si les personnes de 50 à 64 ans et de plus de 65 ans représentent chacun 23 % de la population française, elles représentent 31 et 43 % des internautes consultant des sites GenAI dans le mois, soit près des trois quarts (74 %) d’entre eux, alors qu’ils ne représenteraient que 46 % de la population.
A contrario, les 15 - 24 ans et les 25 - 49 ans, qui représenteraient respectivement 14 et 35 % de la population, ne constituent que 3 et 23 % des internautes consultant des sites d’infos générées par IA. Les personnes âgées semblent en effet plus particulièrement susceptibles de tomber dans le piège de ce type d’infox et images GenAI, au point d’être qualifiées de « pièges à boomers », ou « boomer traps ».
Si 24,5 % des internautes du panel de Médiamétrie ont consulté au moins un site GenAI dans le mois, le taux s’élève à 30,6 % chez les CSP+, 34 % chez les inactifs (hors étudiants), 37,5 % chez les 50 - 64 ans et 36,7 % chez les plus de 65 ans.
L’analyse du panel de Médiamétrie indique en outre que si les internautes de moins de 50 ans visitent plus de sites figurant dans le Top10 des sites d’actualités que de sites GenAI, les plus de 50 ans visitent plus de sites d’infos générées par IA que de vrais sites d’infos.
L’étude de Médiamétrie montre également que les visiteurs de sites GenAI « surconsomment Internet » : 84 % d’entre-eux consultent en effet quotidiennement des sites d’informations, contre 36 % des internautes en moyenne.
Pour autant, si les internautes passent en moyenne 11 minutes 14 secondes par jour sur les sites d’actualité, à raison de 10 pages par internaute, et de 1 minute 8 secondes par page, le temps passé sur les sites GenAI ne serait, lui, que de 1 minute 15, pour 3 pages par jour, et 25 secondes par page seulement.
L’application de recommandation de contenus liée à l’algorithme Discover n’étant pas (encore) disponible sur les ordinateurs de bureau, 88,8 % de ces visiteurs uniques de sites GenAI l’ont fait depuis leurs téléphones mobiles ou tablettes.
Et si 10 % d’entre-eux avaient cliqué sur un lien partagé sur les plateformes de Meta (Facebook voire Instagram), 77 % (soit plus des trois quarts) y avaient été envoyés via l’un des services de Google (Discover, Search ou Actualités, hors GMail).
Et ce, alors que Google n’a de cesse de répéter, depuis des mois, que ses « systèmes antispams » excluent « 99 % […] des contenus de faible qualité ». Un chiffre qu’un responsable de l’équipe Trust and Safety de Google vient pourtant de relativiser… en se référant aux enquêtes de Next !
Next, fournisseur (non-)officiel de punchlines de Google Trust and Safety
Intervenant début décembre à Search Central Live Zurich 2025, un évènement dédié aux professionnels du SEO et du marketing digital, Andres Almeida, directeur adjoint de l’équipe Trust and Safety de Google, reconnaissait en effet que l’AI Slop (du nom donné à ces contenus bas de gamme générés par IA) « envahit le monde et [que] Discover n’est pas à l’abri ».
Il évoquait notamment le fait que nombre de ces sites reposent sur des fermes de contenus (Private Blog Networks, ou PBN en anglais) basés sur des noms de domaines expirés (afin de capitaliser sur leur réputations passées dans le ranking de Google), le recours à des techniques de « black hat SEO » (cherchant à « hacker » les algorithmes du moteur de recherche), et expliquait vouloir endiguer ce type de « spam ».
Or, une des slides utilisées pour illustrer sa démonstration reprenait, traduits en anglais, les titres (et sous-titres) de deux de la vingtaine d’articles que nous avons consacrés depuis février à cette pollution du web en général et de Google en particulier par des infos générées par IA : celui qui pointait du doigt le fait que près de 20 % des 1 000 sites d’info les plus recommandés par Google Discover étaient générés par IA, et celui qui expliquait les motivations de leurs éditeurs : « « gruger Google » pour faire du fric ».
Notre base de données des sites d’infos générées par IA en dénombre désormais près de 8 900 (rien qu’en français). Pour en avoir le coeur net, nous en avons soumis un échantillon restreint à Médiamétrie afin de réaliser cette première analyse du trafic enregistré par les sites GenAI à ceux qui avaient été les plus recommandés par Google Discover.
Au vu des pertes de revenus publicitaires que subissent les médias parasités et de la monétisation de la plupart des sites GenAI par AdSense, la régie publicitaire de Google se retrouve juge et partie. Concurrencés par les sites GenAI, les médias subissent par ailleurs des pertes de trafic, susceptibles d’affecter le montant des droits voisins que leur verse Google.
Non contents de voir ces droits minorés, les médias employant des journalistes humains sont même floués une troisième fois. En effet, ces sites GenAI n’existeraient pas si les grands modèles de langage (LLM) et IA génératives qu’ils utilisent n’avaient été entraînés sur du contenu produit par des humains, et notamment sur des articles écrits par des journalistes.
Or, et en l’état, aucun mécanisme de contrepartie financière n’a été mis en œuvre afin de compenser ce pillage des médias, ni de la part des éditeurs d’IA, ni de la part des prestataires de générateurs d’articles conçus pour masquer qu’ils relèvent du plagiat (nous y reviendrons), ni de la part de ces éditeurs de sites GenAI. Ce pourquoi le ministère de la Culture envisage la possibilité d’une « inversion de la charge de la preuve » ou d’une « présomption d’utilisation des contenus culturels par les fournisseurs d’IA ».
À titre d’illustration, les 5 sites de l’éditeur figurant en tête du Top 10 de Médiamétrie totaliseraient 7,25 millions de « visiteurs uniques ». Or, cet éditeur administre 27 autres sites. De même, les 5 sites de l’éditeur figurant en 3e position totalisent 4 millions de « visiteurs uniques ». Ce dernier en administre une quinzaine d’autres.
L’étude de Médiamétrie montre en outre que 10 sites GenAI dénombrent de 1 à 4 millions de « visiteurs uniques » pour ce seul mois d’octobre 2025, et donc encore plus de pages vues parasitant des médias faisant travailler des journalistes, quand ils ne plagient pas leurs articles.
En outre, ce premier échantillon de 251 sites n’émane que de 85 éditeurs différents. Y figurent majoritairement des professionnels du SEO, mais également quelques groupes de presse, dénombrant dans leurs fermes de sites respectives plus de 2 000 autres sites d’infos GenAI.
Il serait donc non seulement instructif de pouvoir mesurer le poids de ces 2 000 autres sites potentiellement susceptibles, eux aussi, d’être recommandés par Discover ou Google Actualités, mais également d’étendre l’étude à l’ensemble des 8 900 sites GenAI que nous avons identifiés, ainsi qu’à leurs éditeurs respectifs.
À titre de comparaison, notre base de données répertorie en effet plus de 200 éditeurs administrant au moins 5 sites GenAI, dont 130 plus de 10, 70 plus de 25 et 35 plus de 50. Tous reposent peu ou prou sur le pillage et recyclage de contenus préalablement produits et mis en ligne par des humains, voire sur le plagiat généré par IA d’articles de journalistes.
L’objectif de cette première mesure d’audience est aussi de créer un Baromètre des sites GenAI qui permettrait de creuser plus avant la problématique, et d’étendre le périmètre des sites analysés à tout ou partie de notre base de données.
Téléchargez notre extension web (gratuite) pour être alerté lorsque vous visitez un site d’info généré par IA
Nous avons développé une extension pour les navigateurs Chrome (et donc Brave, Vivaldi, Opera, Microsoft Edge, etc.) et Firefox (y compris en version mobile sur Android), qui tourne en tâche de fond et affiche un pop-up d’alerte lorsque ses utilisateurs consultent un des 8 900 sites d’information dont nous avons identifiés que leurs contenus sont « en tout ou partie » générés par des intelligences artificielles génératives.
Afin de vous prémunir des autres risques de cyberarnaques, notre extension prend également en compte deux autres listes : celle de plus de 30 000 noms de domaine « suspects » de Red Flag Domain, ainsi que la liste noire des entités non autorisées à proposer des produits ou services financiers en France de l’Autorité des marchés financiers (AMF).
14 à 16 millions d’internautes français consultent chaque mois l’un des 251 sites d’infos GenAI les plus recommandés par Google et identifiés par Next, selon une étude de Médiamétrie pour le Groupement des éditeurs de services en ligne. Près des trois quarts (74 %) de ces internautes ont plus de 50 ans, au point que ces derniers visitent plus de sites d’infos GenAI que de vrais sites d’actualités. 77 % y sont envoyés par l’un des services de Google (Discover, Search ou Actualités), et 10 % via Meta.
Dans la mesure où la lutte contre la désinformation nous semble un enjeu de salubrité (numérique) publique, cet article, en principe réservé aux lecteurs premium de Next, est exceptionnellement en accès libre pour 24 heures. Ce sont vos abonnements qui rendent possible ce genre d’enquête au long cours, merci !
Nous précisions alors avoir « de bonnes raisons de penser qu’il en existerait plusieurs milliers », mais également avoir « identifié une centaine de ces pros de l’info GenAI, sans pouvoir mesurer combien de dizaines (voire de centaines) d’autres se seraient lancés dans ce douteux (mais lucratif) « business » ». Nous avons depuis identifié près de 8 900 sites « en tout ou partie générés par IA » (GenAI), administrés (et monétisés) par plus de 200 éditeurs.
Début octobre, Next révélait que près de 20 % des 1 000 sites d’info les plus recommandés par Google Discover, et 33 % des 120 sites les plus recommandés par Google News, à la rubrique Technologie, étaient générés par IA.
L’algorithme Discover de « recommandation de contenus » de Google, la principale source de trafic des sites journalistiques français, est en effet devenu une « pompe à fric » pour les sites monétisés par la publicité, majoritairement financés par… la régie publicitaire de Google. Au point que de nombreux professionnels du référencement et du marketing numérique s’y sont lancés, attirés par l’appât du gain.
Perdu dans le jargon ? Petit lexique pour s’y retrouver
Discover : la mission historique de Google est d’amener des réponses aux requêtes des internautes, mais le moteur développe depuis des années des outils de recommandation, qui sélectionnent automatiquement des contenus et les affichent aux utilisateurs de Google, de Chrome et d’Android. Sur mobile, les suggestions Discover sont par exemple visibles dès l’interface du système d’exploitation. Elles sont devenues la principale source de trafic des médias français.
Poper : de l’anglais to pop, qui signifie sauter ou éclater. Ce terme est utilisé par les professionnels du référencement pour désigner la capacité à faire apparaitre un site ou un contenu donné au sein des outils de recommandation automatisés.
SEO : de l’anglais search engine optimization, soit optimisation pour les moteurs de recherche. Le terme recouvre à la fois les pratiques techniques ou éditoriales visant à favoriser l’apparition d’un site dans les moteurs de recherche, et l’activité de service qui s’est créée autour de cet objectif.
16 millions d’internautes par mois, soit plus d’1/4 de la population française
Next a depuis été contacté par le Groupement des éditeurs de services en ligne (GESTE, qui en fédère plus d’une centaine), et l’entreprise de mesure d’audience Médiamétrie. Cherchant à quantifier le phénomène à l’échelle du marché, nous leur avons proposé d’analyser l’audience des 251 sites GenAI figurant ou ayant figuré dans le Top1000 des sites recommandés par l’algorithme Discover de Google (retrouvez l’étude intégrale en pied de cet article, et le communiqué du GESTE).
À notre grande surprise, le panel de près de 20 000 internautes constitué par Médiamétrie indique que ces 251 sites enregistrent en moyenne, depuis le début de l’année, entre 14 et 16 millions de visiteurs uniques (VU) par mois, soit plus d’un quart de la population française de plus de 15 ans.
Les plus de 50 ans visitent plus de sites GenAI que de vrais sites d’infos
Seconde découverte, elle aussi accablante : la surreprésentativité des « inactifs », et des plus de 50 ans. D’après le panel de Médiamétrie, 52% des visiteurs quotidiens de sites GenAI seraient inactifs (hors étudiants), contre 42% dans l’audience quotidienne des sites d’actualités, alors qu’ils ne représenteraient que 29 % de la population.
Et si les personnes de 50 à 64 ans et de plus de 65 ans représentent chacun 23 % de la population française, elles représentent 31 et 43 % des internautes consultant des sites GenAI dans le mois, soit près des trois quarts (74 %) d’entre eux, alors qu’ils ne représenteraient que 46 % de la population.
A contrario, les 15 - 24 ans et les 25 - 49 ans, qui représenteraient respectivement 14 et 35 % de la population, ne constituent que 3 et 23 % des internautes consultant des sites d’infos générées par IA. Les personnes âgées semblent en effet plus particulièrement susceptibles de tomber dans le piège de ce type d’infox et images GenAI, au point d’être qualifiées de « pièges à boomers », ou « boomer traps ».
Si 24,5 % des internautes du panel de Médiamétrie ont consulté au moins un site GenAI dans le mois, le taux s’élève à 30,6 % chez les CSP+, 34 % chez les inactifs (hors étudiants), 37,5 % chez les 50 - 64 ans et 36,7 % chez les plus de 65 ans.
L’analyse du panel de Médiamétrie indique en outre que si les internautes de moins de 50 ans visitent plus de sites figurant dans le Top10 des sites d’actualités que de sites GenAI, les plus de 50 ans visitent plus de sites d’infos générées par IA que de vrais sites d’infos.
L’étude de Médiamétrie montre également que les visiteurs de sites GenAI « surconsomment Internet » : 84 % d’entre-eux consultent en effet quotidiennement des sites d’informations, contre 36 % des internautes en moyenne.
Pour autant, si les internautes passent en moyenne 11 minutes 14 secondes par jour sur les sites d’actualité, à raison de 10 pages par internaute, et de 1 minute 8 secondes par page, le temps passé sur les sites GenAI ne serait, lui, que de 1 minute 15, pour 3 pages par jour, et 25 secondes par page seulement.
L’application de recommandation de contenus liée à l’algorithme Discover n’étant pas (encore) disponible sur les ordinateurs de bureau, 88,8 % de ces visiteurs uniques de sites GenAI l’ont fait depuis leurs téléphones mobiles ou tablettes.
Et si 10 % d’entre-eux avaient cliqué sur un lien partagé sur les plateformes de Meta (Facebook voire Instagram), 77 % (soit plus des trois quarts) y avaient été envoyés via l’un des services de Google (Discover, Search ou Actualités, hors GMail).
Et ce, alors que Google n’a de cesse de répéter, depuis des mois, que ses « systèmes antispams » excluent « 99 % […] des contenus de faible qualité ». Un chiffre qu’un responsable de l’équipe Trust and Safety de Google vient pourtant de relativiser… en se référant aux enquêtes de Next !
Next, fournisseur (non-)officiel de punchlines de Google Trust and Safety
Intervenant début décembre à Search Central Live Zurich 2025, un évènement dédié aux professionnels du SEO et du marketing digital, Andres Almeida, directeur adjoint de l’équipe Trust and Safety de Google, reconnaissait en effet que l’AI Slop (du nom donné à ces contenus bas de gamme générés par IA) « envahit le monde et [que] Discover n’est pas à l’abri ».
Il évoquait notamment le fait que nombre de ces sites reposent sur des fermes de contenus (Private Blog Networks, ou PBN en anglais) basés sur des noms de domaines expirés (afin de capitaliser sur leur réputations passées dans le ranking de Google), le recours à des techniques de « black hat SEO » (cherchant à « hacker » les algorithmes du moteur de recherche), et expliquait vouloir endiguer ce type de « spam ».
Or, une des slides utilisées pour illustrer sa démonstration reprenait, traduits en anglais, les titres (et sous-titres) de deux de la vingtaine d’articles que nous avons consacrés depuis février à cette pollution du web en général et de Google en particulier par des infos générées par IA : celui qui pointait du doigt le fait que près de 20 % des 1 000 sites d’info les plus recommandés par Google Discover étaient générés par IA, et celui qui expliquait les motivations de leurs éditeurs : « « gruger Google » pour faire du fric ».
Notre base de données des sites d’infos générées par IA en dénombre désormais près de 8 900 (rien qu’en français). Pour en avoir le coeur net, nous en avons soumis un échantillon restreint à Médiamétrie afin de réaliser cette première analyse du trafic enregistré par les sites GenAI à ceux qui avaient été les plus recommandés par Google Discover.
Au vu des pertes de revenus publicitaires que subissent les médias parasités et de la monétisation de la plupart des sites GenAI par AdSense, la régie publicitaire de Google se retrouve juge et partie. Concurrencés par les sites GenAI, les médias subissent par ailleurs des pertes de trafic, susceptibles d’affecter le montant des droits voisins que leur verse Google.
Non contents de voir ces droits minorés, les médias employant des journalistes humains sont même floués une troisième fois. En effet, ces sites GenAI n’existeraient pas si les grands modèles de langage (LLM) et IA génératives qu’ils utilisent n’avaient été entraînés sur du contenu produit par des humains, et notamment sur des articles écrits par des journalistes.
Or, et en l’état, aucun mécanisme de contrepartie financière n’a été mis en œuvre afin de compenser ce pillage des médias, ni de la part des éditeurs d’IA, ni de la part des prestataires de générateurs d’articles conçus pour masquer qu’ils relèvent du plagiat (nous y reviendrons), ni de la part de ces éditeurs de sites GenAI. Ce pourquoi le ministère de la Culture envisage la possibilité d’une « inversion de la charge de la preuve » ou d’une « présomption d’utilisation des contenus culturels par les fournisseurs d’IA ».
À titre d’illustration, les 5 sites de l’éditeur figurant en tête du Top 10 de Médiamétrie totaliseraient 7,25 millions de « visiteurs uniques ». Or, cet éditeur administre 27 autres sites. De même, les 5 sites de l’éditeur figurant en 3e position totalisent 4 millions de « visiteurs uniques ». Ce dernier en administre une quinzaine d’autres.
L’étude de Médiamétrie montre en outre que 10 sites GenAI dénombrent de 1 à 4 millions de « visiteurs uniques » pour ce seul mois d’octobre 2025, et donc encore plus de pages vues parasitant des médias faisant travailler des journalistes, quand ils ne plagient pas leurs articles.
En outre, ce premier échantillon de 251 sites n’émane que de 85 éditeurs différents. Y figurent majoritairement des professionnels du SEO, mais également quelques groupes de presse, dénombrant dans leurs fermes de sites respectives plus de 2 000 autres sites d’infos GenAI.
Il serait donc non seulement instructif de pouvoir mesurer le poids de ces 2 000 autres sites potentiellement susceptibles, eux aussi, d’être recommandés par Discover ou Google Actualités, mais également d’étendre l’étude à l’ensemble des 8 900 sites GenAI que nous avons identifiés, ainsi qu’à leurs éditeurs respectifs.
À titre de comparaison, notre base de données répertorie en effet plus de 200 éditeurs administrant au moins 5 sites GenAI, dont 130 plus de 10, 70 plus de 25 et 35 plus de 50. Tous reposent peu ou prou sur le pillage et recyclage de contenus préalablement produits et mis en ligne par des humains, voire sur le plagiat généré par IA d’articles de journalistes.
L’objectif de cette première mesure d’audience est aussi de créer un Baromètre des sites GenAI qui permettrait de creuser plus avant la problématique, et d’étendre le périmètre des sites analysés à tout ou partie de notre base de données.
Téléchargez notre extension web (gratuite) pour être alerté lorsque vous visitez un site d’info généré par IA
Nous avons développé une extension pour les navigateurs Chrome (et donc Brave, Vivaldi, Opera, Microsoft Edge, etc.) et Firefox (y compris en version mobile sur Android), qui tourne en tâche de fond et affiche un pop-up d’alerte lorsque ses utilisateurs consultent un des 8 900 sites d’information dont nous avons identifiés que leurs contenus sont « en tout ou partie » générés par des intelligences artificielles génératives.
Afin de vous prémunir des autres risques de cyberarnaques, notre extension prend également en compte deux autres listes : celle de plus de 30 000 noms de domaine « suspects » de Red Flag Domain, ainsi que la liste noire des entités non autorisées à proposer des produits ou services financiers en France de l’Autorité des marchés financiers (AMF).
Le syndicat des journalistes de Politicoa remporté une « victoire majeure », qui devrait faire jurisprudence aux États-Unis, en matière de recours à l’IA dans les médias. Leurs rédacteurs en chef avaient plaidé, en vain, que les contenus générés par IA ne devraient pas être soumis aux normes éthiques et éditoriales, au motif qu’elles étaient développées par des ingénieurs, et non par des journalistes.
PEN Guild, le syndicat des journalistes états-uniens de Politico et E&E News (sa filiale dédiée aux actualités liées à l’énergie et l’environnement) vient d’annoncer une « victoire majeure » contre la direction de Politico concernant l’introduction « unilatérale » par l’entreprise d’outils d’intelligence artificielle qui « contournaient les garanties négociées et portaient atteinte aux normes journalistiques fondamentales ».
L’an passé, la PEN Guild avait en effet ratifié une convention collective (.pdf) comportant « certaines des dispositions les plus strictes du secteur en matière d’intelligence artificielle ». La convention obligeait notamment la direction de Politico à donner un préavis de 60 jours et à engager des négociations « de bonne foi » avant d’introduire de nouveaux outils d’IA susceptibles d’avoir un « impact significatif » sur les tâches professionnelles, ou qui pourraient entraîner des licenciements.
L’accord exigeait également que toute IA utilisée dans la collecte d’informations soit conforme aux normes éthiques de Politico et fasse l’objet d’une supervision humaine, afin de « garantir que tout contenu généré par l’IA respecte les mêmes normes éthiques et éditoriales que les reportages rédigés par des humains ».
Or, en juillet 2025, le syndicat avait accusé Politico d’avoir enfreint ces dispositions à deux reprises, avant de lancer une pétition et un recours. Il lui reprochait les faits suivants :
la couverture en direct, générée par une IA nommée LETO, d’événements politiques majeurs, effectuée sans notification syndicale ni révision humaine. PEN Guild déplorait notamment que l’IA ait évoqué des expressions telles que « immigrant illégal » ou « migrants criminels », que Donald Trump avait bien employées, comme l’avait alors rapporté Politico, mais dont la reprise sans contextualisation est proscrite par le guide de style (Stylebook) de la rédaction. L’IA avait aussi généré des erreurs factuelles, qui avaient en outre été « discrètement supprimées, contournant les protocoles de correction éditoriale standard ». Ces derniers prévoient que la rédaction soit transparente quant à ses mises à jour, corrections et rétractations.
le lancement unilatéral d’un outil d’IA, Report Builder, développé par la start-up Capitol.ai, que les abonnés pouvaient utiliser pour générer des rapports de 500 mots « sur n’importe quel sujet, [mais] sans aucun contrôle ni modification de la part du personnel de Politico pour s’assurer de leur véracité ». Or, le syndicat y avait là aussi trouvé de « nombreuses erreurs factuelles majeures ». L’outil aurait notamment affirmé que l’arrêt Roe v. Wade restait en vigueur (alors que c’était précisément Politico qui avait révélé son annulation). Il aurait aussi « halluciné » les combats menés par des groupes de lobbying inexistants, tels qu’une soi-disant « Ligue des plombiers gauchers », comme Semafor l’avait alors révélé.
« L’IA doit être au service du journalisme, et non lui nuire »
Il reste 75% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Premier éditeur de presse magazine en France, et 3ᵉ groupe média sur le web et les réseaux sociaux, Reworld Media estime que les sites d’infos générées par IA auraient fait perdre des dizaines de millions d’euros aux médias depuis que l’algorithme de Google a commencé à recommander leurs articles. Il vient de commencer à… faire pareil, ou presque. Étrangement, nombre de ses articles « augmentés » par l’IA publient comme images d’illustration des… bras cassés coupés.
Nous n’avons matériellement pas pu, faute de temps, vérifier l’ensemble des sites web des 81 « marques médias propriétaires » de Reworld Media, premier éditeur de presse magazine français en nombre de journaux détenus, et 3ᵉ groupe média sur le web et les réseaux sociaux.
Nous avions précédemment découvert que parolesdemamans.com avait publié une rafale d’articles avançant qu’en France des crèches acceptaient des poupées « reborn » (hyperréalistes) au détriment de bébés humains. Mais celui-ci n’est pas le seul site du groupe à avoir récemment mis en ligne des articles problématiques, et potentiellement générés par IA (GenAI).
Aurélia Baranes est co-fondatrice directrice de publication de Serieously, qu’elle présente comme le « premier média d’infotainment indépendant en France », et l’un des « leaders sur le segment de la pop culture ». Lancé en 2017, il représenterait aujourd’hui 6 millions de visiteurs uniques par mois, et emploie une vingtaine de personnes à ce jour.
Elle était auparavant journaliste culture à Be.com, l’un des sites du groupe Reworld Media, de 2014 à 2017. Or, et alors que sa page de profil indiquait qu’elle n’y avait plus rien publié depuis septembre 2016, des articles signés de son nom ont commencé à y réapparaître à partir de la mi-septembre 2025.
Mais si ses précédents articles portaient sur ses spécialités, à savoir le cinéma et les séries TV, ses nouveaux articles, dont la plupart étaient illustrés par des photos de stock ou des images GenAI créditées Canva, concernaient le « pic de chaleur attendu ce week-end », la revalorisation à venir de la retraite complémentaire Agirc-Arrco, paraphrasant des communiqués de Météo France ou de la Banque de France.
Le 19, elle signait par exemple un article consacré aux augmentations de salaires à venir en 2026. Il s’agissait en fait d’une reprise d’un décryptage signé par deux journalistes des Echos, publié quatre jours plus tôt. Or, l’article signé Aurélia Baranes sur Be.com comporte deux citations, qui ne figurent pas dans l’article des Echos, mais qui en paraphrasent des extraits.
« Nous observons une forte prudence face à une situation économique incertaine », déclare au journal Les Echos Sophie Lazaro, directrice capital humain chez Deloitte.
« On est vraiment dans un contexte complexe pour se projeter avec beaucoup d’incertitude au niveau national comme international », observe Sophie Lazaro, directrice capital humain chez Deloitte.
À gauche, l’article de Be.com, à droite, celui des Echos
Et si Les Echos mentionnaient bien trois citations de Khalil Ait Mouloud, directeur des enquêtes de rémunération chez WTW, les propos qui lui sont prêtés semblent eux aussi avoir été « hallucinés », en paraphrasant un passage écrit par les journalistes :
Un des grands changements attendus pour 2026 réside dans l’introduction de la directive européenne sur la transparence salariale. À partir de juin 2026, cette législation obligera les entreprises à publier les fourchettes salariales des postes proposés dans leurs annonces de recrutement. Si cette mesure vise avant tout à réduire les inégalités salariales, elle pourrait aussi entraîner une dynamique de réajustement salarial pour les salariés actuels. « Les employés disposeront désormais d’une meilleure visibilité sur les rémunérations offertes, ce qui pourrait les pousser à demander des augmentations s’ils estiment être sous-payés« , explique Khalil Ait Mouloud, directeur des enquêtes de rémunération chez WTW.
Les sociétés doivent aussi anticiper la transposition de la directive européenne sur la transparence des salaires – qui interviendra au plus tard en juin 2026 – et qui pourrait peser sur la masse salariale. Elle imposera aux entreprises d’afficher, dans leurs offres d’emploi, le salaire initial prévu pour le poste ou une fourchette de rémunération. Une aubaine pour les salariés en poste, qui sauront à combien leur entreprise recrute… et qui pourraient donc être tentés de demander une augmentation s’ils s’estiment sous-payés.
À gauche, l’article de Be.com, à droite, celui des Echos
Or, ce type d’ « hallucinations » est un marqueur typique des contenus générés par IA (GenAI) que nous documentons depuis des mois, les chatbots ne faisant pas la distinction entre un « texte » (qu’il est possible de paraphraser, ne serait-ce que pour éviter les accusations de plagiat ou de contenu dupliqué, que pénalisent les moteurs de recherche, en matière de référencement) et les « citations ». Dans un article, celles-ci ne sauraient bien évidemment être modifiées, paraphrasées, encore moins inventées.
Contactée, Aurélia Baranes nous répond qu’elle n’était « absolument pas au courant », avant de rajouter, 30 minutes plus tard : « Je découvre l’ampleur des articles à mon nom, c’est affolant ! On dirait des articles faits par IA en plus ».
Son avocat a depuis adressé un courrier à Reworld Media « parce que je trouvais ça assez violent », nous a-t-elle depuis expliqué, et les nouveaux articles GenAI qui lui étaient attribués ont été effacés dans la foulée.
Contacté, Jérémy Parola, directeur des activités numériques de Reworld Media, nous répond que « c’est un pigiste qui a merdé avec le CMS [système de gestion de contenus, ndlr], on a supprimé l’intégralité des articles ». Il se dit d’autant plus peiné qu’ « on s’entend bien avec elle ».
25 articles par jour, à raison d’un par heure, 24 h/24, 7j/7
Évoquant le cas de « pigistes qui passent de 2 contenus/jour à plusieurs dizaines », Jérémy Parola précise par ailleurs qu’à Reworld, le fait de générer des articles par IA, sans relecture ni supervision, est proscrit par contrat :
Il reste 82% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
En France, des crèches acceptent des poupées « reborn » (hyperréalistes) au détriment de bébés humains, avance un site du groupe Reworld. Il s’agit en fait d’infox et canulars ayant fait le buzz sur TikTok, relayés au premier degré. Contacté, le directeur des activités numériques du groupe aurait « bien voulu que ce soit une hallucination émanant d’une IA », mais nous « certifie qu’aucun article n’a été écrit par de l’IA ».
Premier éditeur de presse magazine français en nombre de journaux détenus, avec plus de 80 marques médias thématiques, Reworld Media est aussi le 3ᵉ groupe média sur le web et les réseaux sociaux. L’entreprise est connue (et régulièrement critiquée) pour racheter des journaux, remplacer ses journalistes par des rédacteurs web spécialistes du référencement (SEO) privilégiant la quantité à la qualité, et substituer les articles d’information des médias qu’il rachète par de la « junk news » et du « brand content ».
Interrogé en octobre dernier au sujet de l’IA, Gautier Normand, son directeur général et co-fondateur, expliquait à ZoneBourse : « Les moteurs d’IA constituent une opportunité pour Reworld ». Il reconnaissait aussi : « Nous utilisons l’IA pour gagner en productivité en interne ». Et précisait dans la foulée qu’ « En revanche, utiliser l’IA pour rédiger des articles serait l’erreur à ne surtout pas commettre… ».
Voire. Mi-novembre, paroledemamans.com (un site du groupe aufeminin, racheté à TF1 par Reworld Media en 2019) a consacré pas moins de 9 articles aux bébés reborn (du nom donné à ces poupées hyperréalistes de bébés) en deux jours. Tous illustrés par des images générées par IA, ces derniers ont interpellé de nombreuses personnes sur les réseaux sociaux.
Il y était en effet question de crèches qui accepteraient des bébés reborn (au détriment de vrais bébés humains), d’une femme ne comprenant pas que son bébé reborn aurait a contrario été refusé dans la crèche où elle voulait le placer, de médecins qui refuseraient d’examiner les bébés reborn ou encore que, même en poussettes, ils ne sauraient être prioritaires à la caisse des grands magasins.
Alerté sur X.com à ce sujet, nous avons donc cherché à remonter le fil de cette histoire abracadabrantesque, et découvert que des infox, rumeurs et canulars à ce sujet avaient effectivement circulé cet été sur TikTok et Facebook. Surtout, parolesdemamans.com s’est contenté de les relayer au premier degré, sans les vérifier, les démentir ni les contextualiser.
En vertu de la loi dite de Brandolini (aphorisme selon lequel « la quantité d’énergie nécessaire pour réfuter des sottises […] est supérieure d’un ordre de grandeur à celle nécessaire pour les produire »), cela nous a pris du temps. Mais également permis de mieux comprendre pourquoi (et comment) Reworld Media recourt à l’IA, et pourquoi, depuis le mois d’octobre, de plus en plus de ses contenus partagent de nombreux traits caractéristiques des sites d’infos en tout ou partie générés par IA (GenAI) que notre enquête-fleuve (24 articles à ce jour) documente depuis des mois.
Il reste 88% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Initialement promu par Nicolas Sarkozy, le méga « fichier des gens honnêtes » centralisant les données personnelles, photos de visages et empreintes digitales des demandeurs de passeport et de carte nationale d’identité ne devait pouvoir être utilisé que par certains agents de services de renseignement. La Quadrature du Net a découvert qu’il était régulièrement employé par la police judiciaire.
La Quadrature du Net (LQDN) vient de saisir la CNIL après avoir recueilli des témoignages et « preuves formelles » indiquant que la police judiciaire « détourne le fichier des passeports et des cartes d’identité » afin d’y récupérer des empreintes digitales et photographies « par un contournement de la loi ».
La genèse de ce fichier des titres électroniques sécurisés (TES), centralisant les données (y compris biométriques) recueillies lors des demandes de passeport et de cartes nationales d’identité (CNI) remonte aux attentats de 2001. Entre autres mesures sécuritaires adoptées dans la foulée, les autorités états-uniennes imposèrent à leurs pays amis d’inclure une puce RFiD sans contact dans leurs passeports, ce qui fut fait, en France, fin 2005.
Afin de se conformer à un règlement européen, de faciliter les démarches administratives et de lutter contre la « fraude documentaire », rappelle LQDN, l’image numérisée du visage et des empreintes digitales furent ajoutées au sein de la puce à partir de 2008.
Ce qui était initialement présenté comme un « passeport électronique » devenait dès lors biométrique, et les photos d’identité et empreintes associées furent elles aussi versées au fichier centralisant les données contenues dans le passeport, en dépit d’un avis défavorable de la CNIL.
Dans sa délibération, elle relevait en effet que « même si le ministère de l’Intérieur […] s’engage à préciser aux termes du projet de décret qu’il ne sera pas possible de procéder à une recherche en identification à partir de l’image numérisée des empreintes digitales et que le système envisagé ne comportera pas de dispositif de reconnaissance faciale à partir de l’image numérisée de la photographie, la conservation dans une base centrale des images numérisées du visage et des empreintes digitales semble disproportionnée ».
Une atteinte disproportionnée au respect de la vie privée
En 2012, une proposition de loi relative à la protection de l’identité, soutenue par Claude Guéant, alors ministre de l’Intérieur de Nicolas Sarkozy, était adoptée afin d’insérer une puce électronique sécurisée dans les cartes nationales d’identité contenant ces mêmes identifiants biométriques.
Elle visait aussi à permettre expressément aux agents chargés des missions de recherche et de contrôle de l’identité des personnes d’y accéder et à des officiers de police judiciaire de pouvoir utiliser le fichier « pour identifier une personne à partir de ses empreintes digitales sans l’assentiment de la personne dont les empreintes sont recueillies ».
Afin de lutter contre l’usurpation d’identité (un phénomène très largement survendu par les industriels, comme l’avait démontré un Cash Investigation consacré au « Business de la peur » et auquel avait participé l’auteur de cet article), le projet de loi voulait créer un « fichier des gens honnêtes » (sic) permettant d’identifier les éventuels usurpateurs.
Le fichier TES centralisait à l’époque les données biométriques d’environ 6,5 millions de personnes. Or, le Conseil constitutionnel censura (.pdf) ces aspects-là de la loi au motif qu’ils étaient disproportionnés eu égard à l’objectif initial de délivrance des passeports. Les Sages relevaient en effet que, du fait de l’extension du fichier aux détenteurs de cartes nationales d’identité, le fichier TES avait vocation à centraliser les données biométriques de 45 à 60 millions de personnes :
« Compte tenu des quatre caractéristiques du dispositif décrites ci-dessus (ampleur du fichier, sensibilité des données, caractéristiques techniques permettant l’identification à partir des données biométriques et finalités de police administrative ou judiciaire autres que celles nécessaires à la délivrance ou au renouvellement des titres d’identité et de voyage et à la vérification de l’identité du possesseur d’un tel titre) l’instauration d’un tel traitement de données à caractère personnel portait une atteinte au respect de la vie privée qui ne pouvait être regardée comme proportionnée au but poursuivi. »
Ficher toute la population pour supprimer quelques dizaines de postes de fonctionnaires
En 2016, comme Next l’avait alors révélé, Bernard Cazeneuve, ministre de l’Intérieur du gouvernement de Manuel Valls, légalisait, un dimanche matin du week-end de la Toussaint, le versement des données personnelles des demandeurs de cartes d’identité dans le fichier TES, dont leurs photos et empreintes digitales. Et ce, en dépit de la précédente censure du Conseil constitutionnel, et de l’avis là encore négatif de la CNIL.
Si cette dernière estimait les finalités justifiées, elle déplorait de voir « réunir au sein d’un même fichier des données biométriques, en particulier les images numérisées des empreintes digitales et de la photographie de l’ensemble des demandeurs de cartes nationales d’identité et de passeports », soit « la quasi-totalité de la population française », représentant « un changement d’ampleur et, par suite, de nature, considérable ».
Un fichage généralisé d’autant plus disproportionné que cette centralisation de nos données (y compris biométriques) d’identité était justifiée par le fait d’économiser quelques dizaines voire centaines d’équivalents temps plein de fonctionnaires. À l’époque, sous couvert de numérisation des procédures administratives, cette bascule avait en effet été motivée au nom d’un plan « préfectures nouvelle génération » (PPNG) visant notamment à mettre fin à l’ancien fichier national de gestion (FNG) des CNI qui, au format papier, nécessitait de payer des gens pour archiver les cartons.
La Quadrature rappelle que de nombreuses institutions comme la CNIL, l’ANSSI, l’Inria ou le Conseil national du numérique « avaient vertement critiqué ce choix, pointant les risques de la centralisation inédite d’informations liées à l’identité, et en particulier les données biométriques, de quasiment toute la population ».
L’enregistrement du visage de l’ensemble de la population n’a plus de justification
Dans la « plainte contre la technopolice » qu’elle avait déposée pour dénoncer l’illégalité de ce fichier au nom de plus de 15 000 personnes auprès de la CNIL en 2022 (et qui est toujours en instruction), l’ONG rappelait qu’en 2016, « le gouvernement avait justifié le fichage de l’ensemble de la population en mettant en avant des risques de fraude au moment du renouvellement des passeports et des cartes d’identité », mais que ce n’était plus le cas depuis :
« Ce risque, qui était déjà extrêmement faible en 2016, a entièrement disparu depuis qu’une puce – qui contient le visage et les empreintes – est désormais présente sur les passeports et permet de remplir la même fonction de façon décentralisée. L’enregistrement du visage de l’ensemble de la population dans le fichier TES n’a plus aucune justification : il est donc illégal et doit être supprimé avant d’être dévoyé par la police pour d’autres usages abusifs. »
Concrètement, la police contourne l’interdiction d’accéder au TES
La Quadrature a en outre récemment découvert que si, « techniquement et légalement, un simple officier de police judiciaire ne peut pas avoir accès au fichier TES », le ministère de l’Intérieur « a laissé s’installer une pratique qui permet de contourner les interdictions d’accès aux données du TES, et ce, sans aucune restriction et pour n’importe quel type d’affaire ».
Le décret de 2016 prévoit en effet que seuls certains agents individuellement nommés et « chargés des missions de prévention et de répression des atteintes aux intérêts fondamentaux de la Nation et des actes de terrorisme », et donc travaillant pour des services de renseignement, puissent interroger et consulter le fichier.
Or, relève LQDN, les officiers de police judiciaire (OPJ) peuvent « exiger de toute entité publique ou privée de leur fournir les informations qu’elles possèdent et qui seraient utiles pour une enquête ». Ce mécanisme des « réquisitions » judiciaires prévu par le code de procédure pénale permet aux OPJ, sur autorisation du procureur de la République, d’exiger de toute entité publique ou privée de leur fournir les informations qu’elles possèdent et qui seraient utiles pour une enquête, souligne l’ONG :
« C’est ainsi que la police peut, par exemple, récupérer les enregistrements de vidéosurveillance d’un magasin ou les données personnelles d’une personne précise que détiendrait une banque, la SNCF, un réseau social ou encore la CAF. Ces acteurs sont obligés de répondre sous peine d’une amende de 3 750 euros. »
LQDN a découvert que pour accéder au TES, des OPJ ont adressé des demandes à des employés de l’Agence nationale des titres électroniques (ANTS) ou des « Centres d’expertise et de ressources titres » (CERT) chargés, au sein des (sous-)préfectures, d’instruire les dossiers de demandes de titres :
« La police n’interroge donc pas directement le fichier TES. Concrètement, elle contourne l’interdiction qui lui est faite de piocher dans le fichier TES en adressant des réquisitions à ceux qui y ont accès. Détournant la procédure, elle s’arroge ainsi un pouvoir de consultation du fichier qui lui est normalement interdit. »
Ce faisant, les OPJ peuvent recueillir des identités, adresses postales, photographies et empreintes digitales figurant dans le fichier, quand bien même ce dernier n’est pas censé le leur permettre, même et y compris à partir d’une image issue du système de vidéosurveillance des locaux de garde à vue, comme le montre l’un des documents obtenus par LQDN.
Captures d’écran de procès verbaux de police judiciaire obtenus par La Quadrature du Net
De l’identification de terroristes à celle d’une manifestante
Le Monde rappelle qu’il était bien prévu que des services de police puissent accéder aux informations contenues dans le fichier, mais dans certaines situations seulement, telles que des « atteintes aux intérêts de la nation et des actes de terrorisme » ou « dans le cadre de collaborations avec Interpol ».
Or, la procédure a par exemple été utilisée en 2023 pour identifier une manifestante poursuivie pour des faits de dégradations et de rébellion, plusieurs fois interpellée, mais qui refusait de décliner son identité, avant de s’identifier sous un faux nom.
Les documents que Le Monde a pu vérifier montrent que la police judiciaire a d’abord eu recours au fichier TES pour obtenir « toutes les informations relatives à son véritable porteur, dont sa photographie et ses empreintes digitales », et confirmer qu’elle leur avait confié une fausse identité.
La police a ensuite planqué et procédé à une filature pour parvenir à localiser le logement de la manifestante, recueilli une liste de noms figurant sur la boîte aux lettres, et transmis une réquisition à un CERT afin d’obtenir leurs états civils et photos, et donc la véritable identité de la manifestante.
Interrogée par Le Monde, la police nationale confirme que « les enquêteurs n’ont pas un accès direct au TES lui-même, mais peuvent, sur réquisition judiciaire, pour identifier des mis en cause, interroger l’ANTS ». Sous couvert d’anonymat, un OPJ qui recourt régulièrement à cette procédure précise au Monde qu’elle ne leur a jamais été formellement interdite.
Il est possible de refuser de verser ses empreintes au TES, pas de les y effacer
Le Monde relève en outre que, dans son rapport 2016 (.pdf), la CNIL avait déploré que « les risques de mésusage des données n’étaient pas suffisamment pris en compte, qu’il s’agisse de l’utilisation du système à des fins de reconnaissance faciale, qui n’est pas interdite en l’état du texte, ou encore du risque de consultation massive des données enregistrées dans le traitement dans le cadre de réquisitions judiciaires ».
En 2021, à l’occasion du lancement de la carte nationale d’identité électronique (CNIe), la CNIL avait recommandé « non seulement de chiffrer les données biométriques en base, ce qui a été mis en œuvre par le ministère, mais aussi de confier les moyens de déchiffrement à un tiers de sorte que ni le ministère ni l’autorité tierce ne puisse, seule, avoir les moyens de déchiffrer les données pour répondre aux réquisitions judiciaires ».
Or, comme nous l’avions à l’époque relevé, « cette seconde partie de la recommandation ne semble ni mise en œuvre par le ministère à ce stade ni prévue dans le plan d’action », alors qu’elle permettrait à la fois de relever le niveau de sécurité des données et de protection de la vie privée, ainsi que de limiter le risque que le traitement soit transformé en une base d’identification des individus.
Pour La Quadrature, cette façon détournée d’accéder aux données figurant dans le fichier TES par les OPJ est révélatrice d’un « phénomène plus large : celui de l’échange débridé et démesuré des données » au nom du droit de « réquisition » (ou de « communication » quand il s’agit d’administrations fiscales ou sociales), qui permet à des organismes de sécurité sociale – CAF, Assurance Maladie… – de récupérer le détail des comptes bancaires, et à la police de demander des factures d’électricité :
« Or, cette possibilité très large de se voir transmettre des informations s’est construite sans prise en compte des règles de protection des données spécifiques à chaque traitement. Elle n’est guidée que par une logique d’efficacité supposée, réduisant le respect des droits fondamentaux à l’état de vulgaires obstacles à dépasser ou à contourner. […] À l’heure où tout est informatisé et où la quantité de données communicables est immense, il est nécessaire de questionner profondément ce mécanisme, source d’abus et d’excès. »
Dans sa fiche dédiée au fichier TES, la CNIL rappelle de son côté que s’il n’est pas possible de refuser la numérisation de ses empreintes digitales lors d’une demande de passeport ou de CNI, « en revanche, il est possible pour la personne concernée de demander à ce que l’image numérisée de ses empreintes ne soit pas conservée dans le traitement au-delà d’un délai de quatre-vingt-dix jours à compter de la date de délivrance du titre ou de la date de refus de cette délivrance par le service instructeur, la copie sur papier des empreintes étant alors conservée par l’Agence nationale des titres sécurisés pour une durée de quinze ans ».
Par contre, « lorsque les informations sont enregistrées, il n’est pas possible par la suite de s’opposer à leur traitement ni d’en demander l’effacement, y compris pour les empreintes digitales ».
Initialement promu par Nicolas Sarkozy, le méga « fichier des gens honnêtes » centralisant les données personnelles, photos de visages et empreintes digitales des demandeurs de passeport et de carte nationale d’identité ne devait pouvoir être utilisé que par certains agents de services de renseignement. La Quadrature du Net a découvert qu’il était régulièrement employé par la police judiciaire.
La Quadrature du Net (LQDN) vient de saisir la CNIL après avoir recueilli des témoignages et « preuves formelles » indiquant que la police judiciaire « détourne le fichier des passeports et des cartes d’identité » afin d’y récupérer des empreintes digitales et photographies « par un contournement de la loi ».
La genèse de ce fichier des titres électroniques sécurisés (TES), centralisant les données (y compris biométriques) recueillies lors des demandes de passeport et de cartes nationales d’identité (CNI) remonte aux attentats de 2001. Entre autres mesures sécuritaires adoptées dans la foulée, les autorités états-uniennes imposèrent à leurs pays amis d’inclure une puce RFiD sans contact dans leurs passeports, ce qui fut fait, en France, fin 2005.
Afin de se conformer à un règlement européen, de faciliter les démarches administratives et de lutter contre la « fraude documentaire », rappelle LQDN, l’image numérisée du visage et des empreintes digitales furent ajoutées au sein de la puce à partir de 2008.
Ce qui était initialement présenté comme un « passeport électronique » devenait dès lors biométrique, et les photos d’identité et empreintes associées furent elles aussi versées au fichier centralisant les données contenues dans le passeport, en dépit d’un avis défavorable de la CNIL.
Dans sa délibération, elle relevait en effet que « même si le ministère de l’Intérieur […] s’engage à préciser aux termes du projet de décret qu’il ne sera pas possible de procéder à une recherche en identification à partir de l’image numérisée des empreintes digitales et que le système envisagé ne comportera pas de dispositif de reconnaissance faciale à partir de l’image numérisée de la photographie, la conservation dans une base centrale des images numérisées du visage et des empreintes digitales semble disproportionnée ».
Une atteinte disproportionnée au respect de la vie privée
En 2012, une proposition de loi relative à la protection de l’identité, soutenue par Claude Guéant, alors ministre de l’Intérieur de Nicolas Sarkozy, était adoptée afin d’insérer une puce électronique sécurisée dans les cartes nationales d’identité contenant ces mêmes identifiants biométriques.
Elle visait aussi à permettre expressément aux agents chargés des missions de recherche et de contrôle de l’identité des personnes d’y accéder et à des officiers de police judiciaire de pouvoir utiliser le fichier « pour identifier une personne à partir de ses empreintes digitales sans l’assentiment de la personne dont les empreintes sont recueillies ».
Afin de lutter contre l’usurpation d’identité (un phénomène très largement survendu par les industriels, comme l’avait démontré un Cash Investigation consacré au « Business de la peur » et auquel avait participé l’auteur de cet article), le projet de loi voulait créer un « fichier des gens honnêtes » (sic) permettant d’identifier les éventuels usurpateurs.
Le fichier TES centralisait à l’époque les données biométriques d’environ 6,5 millions de personnes. Or, le Conseil constitutionnel censura (.pdf) ces aspects-là de la loi au motif qu’ils étaient disproportionnés eu égard à l’objectif initial de délivrance des passeports. Les Sages relevaient en effet que, du fait de l’extension du fichier aux détenteurs de cartes nationales d’identité, le fichier TES avait vocation à centraliser les données biométriques de 45 à 60 millions de personnes :
« Compte tenu des quatre caractéristiques du dispositif décrites ci-dessus (ampleur du fichier, sensibilité des données, caractéristiques techniques permettant l’identification à partir des données biométriques et finalités de police administrative ou judiciaire autres que celles nécessaires à la délivrance ou au renouvellement des titres d’identité et de voyage et à la vérification de l’identité du possesseur d’un tel titre) l’instauration d’un tel traitement de données à caractère personnel portait une atteinte au respect de la vie privée qui ne pouvait être regardée comme proportionnée au but poursuivi. »
Ficher toute la population pour supprimer quelques dizaines de postes de fonctionnaires
En 2016, comme Next l’avait alors révélé, Bernard Cazeneuve, ministre de l’Intérieur du gouvernement de Manuel Valls, légalisait, un dimanche matin du week-end de la Toussaint, le versement des données personnelles des demandeurs de cartes d’identité dans le fichier TES, dont leurs photos et empreintes digitales. Et ce, en dépit de la précédente censure du Conseil constitutionnel, et de l’avis là encore négatif de la CNIL.
Si cette dernière estimait les finalités justifiées, elle déplorait de voir « réunir au sein d’un même fichier des données biométriques, en particulier les images numérisées des empreintes digitales et de la photographie de l’ensemble des demandeurs de cartes nationales d’identité et de passeports », soit « la quasi-totalité de la population française », représentant « un changement d’ampleur et, par suite, de nature, considérable ».
Un fichage généralisé d’autant plus disproportionné que cette centralisation de nos données (y compris biométriques) d’identité était justifiée par le fait d’économiser quelques dizaines voire centaines d’équivalents temps plein de fonctionnaires. À l’époque, sous couvert de numérisation des procédures administratives, cette bascule avait en effet été motivée au nom d’un plan « préfectures nouvelle génération » (PPNG) visant notamment à mettre fin à l’ancien fichier national de gestion (FNG) des CNI qui, au format papier, nécessitait de payer des gens pour archiver les cartons.
La Quadrature rappelle que de nombreuses institutions comme la CNIL, l’ANSSI, l’Inria ou le Conseil national du numérique « avaient vertement critiqué ce choix, pointant les risques de la centralisation inédite d’informations liées à l’identité, et en particulier les données biométriques, de quasiment toute la population ».
L’enregistrement du visage de l’ensemble de la population n’a plus de justification
Dans la « plainte contre la technopolice » qu’elle avait déposée pour dénoncer l’illégalité de ce fichier au nom de plus de 15 000 personnes auprès de la CNIL en 2022 (et qui est toujours en instruction), l’ONG rappelait qu’en 2016, « le gouvernement avait justifié le fichage de l’ensemble de la population en mettant en avant des risques de fraude au moment du renouvellement des passeports et des cartes d’identité », mais que ce n’était plus le cas depuis :
« Ce risque, qui était déjà extrêmement faible en 2016, a entièrement disparu depuis qu’une puce – qui contient le visage et les empreintes – est désormais présente sur les passeports et permet de remplir la même fonction de façon décentralisée. L’enregistrement du visage de l’ensemble de la population dans le fichier TES n’a plus aucune justification : il est donc illégal et doit être supprimé avant d’être dévoyé par la police pour d’autres usages abusifs. »
Concrètement, la police contourne l’interdiction d’accéder au TES
La Quadrature a en outre récemment découvert que si, « techniquement et légalement, un simple officier de police judiciaire ne peut pas avoir accès au fichier TES », le ministère de l’Intérieur « a laissé s’installer une pratique qui permet de contourner les interdictions d’accès aux données du TES, et ce, sans aucune restriction et pour n’importe quel type d’affaire ».
Le décret de 2016 prévoit en effet que seuls certains agents individuellement nommés et « chargés des missions de prévention et de répression des atteintes aux intérêts fondamentaux de la Nation et des actes de terrorisme », et donc travaillant pour des services de renseignement, puissent interroger et consulter le fichier.
Or, relève LQDN, les officiers de police judiciaire (OPJ) peuvent « exiger de toute entité publique ou privée de leur fournir les informations qu’elles possèdent et qui seraient utiles pour une enquête ». Ce mécanisme des « réquisitions » judiciaires prévu par le code de procédure pénale permet aux OPJ, sur autorisation du procureur de la République, d’exiger de toute entité publique ou privée de leur fournir les informations qu’elles possèdent et qui seraient utiles pour une enquête, souligne l’ONG :
« C’est ainsi que la police peut, par exemple, récupérer les enregistrements de vidéosurveillance d’un magasin ou les données personnelles d’une personne précise que détiendrait une banque, la SNCF, un réseau social ou encore la CAF. Ces acteurs sont obligés de répondre sous peine d’une amende de 3 750 euros. »
LQDN a découvert que pour accéder au TES, des OPJ ont adressé des demandes à des employés de l’Agence nationale des titres électroniques (ANTS) ou des « Centres d’expertise et de ressources titres » (CERT) chargés, au sein des (sous-)préfectures, d’instruire les dossiers de demandes de titres :
« La police n’interroge donc pas directement le fichier TES. Concrètement, elle contourne l’interdiction qui lui est faite de piocher dans le fichier TES en adressant des réquisitions à ceux qui y ont accès. Détournant la procédure, elle s’arroge ainsi un pouvoir de consultation du fichier qui lui est normalement interdit. »
Ce faisant, les OPJ peuvent recueillir des identités, adresses postales, photographies et empreintes digitales figurant dans le fichier, quand bien même ce dernier n’est pas censé le leur permettre, même et y compris à partir d’une image issue du système de vidéosurveillance des locaux de garde à vue, comme le montre l’un des documents obtenus par LQDN.
Captures d’écran de procès verbaux de police judiciaire obtenus par La Quadrature du Net
De l’identification de terroristes à celle d’une manifestante
Le Monde rappelle qu’il était bien prévu que des services de police puissent accéder aux informations contenues dans le fichier, mais dans certaines situations seulement, telles que des « atteintes aux intérêts de la nation et des actes de terrorisme » ou « dans le cadre de collaborations avec Interpol ».
Or, la procédure a par exemple été utilisée en 2023 pour identifier une manifestante poursuivie pour des faits de dégradations et de rébellion, plusieurs fois interpellée, mais qui refusait de décliner son identité, avant de s’identifier sous un faux nom.
Les documents que Le Monde a pu vérifier montrent que la police judiciaire a d’abord eu recours au fichier TES pour obtenir « toutes les informations relatives à son véritable porteur, dont sa photographie et ses empreintes digitales », et confirmer qu’elle leur avait confié une fausse identité.
La police a ensuite planqué et procédé à une filature pour parvenir à localiser le logement de la manifestante, recueilli une liste de noms figurant sur la boîte aux lettres, et transmis une réquisition à un CERT afin d’obtenir leurs états civils et photos, et donc la véritable identité de la manifestante.
Interrogée par Le Monde, la police nationale confirme que « les enquêteurs n’ont pas un accès direct au TES lui-même, mais peuvent, sur réquisition judiciaire, pour identifier des mis en cause, interroger l’ANTS ». Sous couvert d’anonymat, un OPJ qui recourt régulièrement à cette procédure précise au Monde qu’elle ne leur a jamais été formellement interdite.
Il est possible de refuser de verser ses empreintes au TES, pas de les y effacer
Le Monde relève en outre que, dans son rapport 2016 (.pdf), la CNIL avait déploré que « les risques de mésusage des données n’étaient pas suffisamment pris en compte, qu’il s’agisse de l’utilisation du système à des fins de reconnaissance faciale, qui n’est pas interdite en l’état du texte, ou encore du risque de consultation massive des données enregistrées dans le traitement dans le cadre de réquisitions judiciaires ».
En 2021, à l’occasion du lancement de la carte nationale d’identité électronique (CNIe), la CNIL avait recommandé « non seulement de chiffrer les données biométriques en base, ce qui a été mis en œuvre par le ministère, mais aussi de confier les moyens de déchiffrement à un tiers de sorte que ni le ministère ni l’autorité tierce ne puisse, seule, avoir les moyens de déchiffrer les données pour répondre aux réquisitions judiciaires ».
Or, comme nous l’avions à l’époque relevé, « cette seconde partie de la recommandation ne semble ni mise en œuvre par le ministère à ce stade ni prévue dans le plan d’action », alors qu’elle permettrait à la fois de relever le niveau de sécurité des données et de protection de la vie privée, ainsi que de limiter le risque que le traitement soit transformé en une base d’identification des individus.
Pour La Quadrature, cette façon détournée d’accéder aux données figurant dans le fichier TES par les OPJ est révélatrice d’un « phénomène plus large : celui de l’échange débridé et démesuré des données » au nom du droit de « réquisition » (ou de « communication » quand il s’agit d’administrations fiscales ou sociales), qui permet à des organismes de sécurité sociale – CAF, Assurance Maladie… – de récupérer le détail des comptes bancaires, et à la police de demander des factures d’électricité :
« Or, cette possibilité très large de se voir transmettre des informations s’est construite sans prise en compte des règles de protection des données spécifiques à chaque traitement. Elle n’est guidée que par une logique d’efficacité supposée, réduisant le respect des droits fondamentaux à l’état de vulgaires obstacles à dépasser ou à contourner. […] À l’heure où tout est informatisé et où la quantité de données communicables est immense, il est nécessaire de questionner profondément ce mécanisme, source d’abus et d’excès. »
Dans sa fiche dédiée au fichier TES, la CNIL rappelle de son côté que s’il n’est pas possible de refuser la numérisation de ses empreintes digitales lors d’une demande de passeport ou de CNI, « en revanche, il est possible pour la personne concernée de demander à ce que l’image numérisée de ses empreintes ne soit pas conservée dans le traitement au-delà d’un délai de quatre-vingt-dix jours à compter de la date de délivrance du titre ou de la date de refus de cette délivrance par le service instructeur, la copie sur papier des empreintes étant alors conservée par l’Agence nationale des titres sécurisés pour une durée de quinze ans ».
Par contre, « lorsque les informations sont enregistrées, il n’est pas possible par la suite de s’opposer à leur traitement ni d’en demander l’effacement, y compris pour les empreintes digitales ».
Cinq ans après son lancement commercial, environ 2 000 unités de Spot, le robot de Boston Dynamics, sont actuellement en service dans le monde entier, rapporte Bloomberg.
Si la plupart des clients de l’entreprise sont encore des clients industriels, notamment des fabricants et fournisseurs de services publics, l’intérêt des forces de l’ordre a fortement augmenté au cours des deux dernières années, et il serait notamment utilisé par le ministère néerlandais de la Défense, la police nationale italienne et par plus de 60 équipes de déminage et d’interventions spéciales aux États-Unis et au Canada.
De la taille d’un berger allemand, Spot pèse 34 kilos et est utilisé par les forces de l’ordre pour gérer les situations de confrontation armée, les prises d’otages et les incidents impliquant des matières dangereuses, autant de situations où l’intervention d’un être humain ou d’un chien réel pourrait mettre leur vie en danger.
Le robot, dont le prix de départ est d’environ 100 000 dollars, peut fonctionner de manière autonome dans de nombreux cas (vérifications de maintenance, détection de fuites de gaz, inspection d’équipements défectueux), mais dépend toujours d’opérateurs humains pour la prise de décision, rappelle Bloomberg :
« À l’aide d’une tablette qui ressemble à une manette de jeu vidéo, l’opérateur guide la machine tout en surveillant les images vidéo en direct transmises par son système de caméras embarquées. Des capteurs supplémentaires intégrés assurent la navigation et la cartographie. Dans les situations à haut risque, les agents peuvent également visionner les images en direct sur des écrans plus grands situés à proximité. »
Spot peut également se rendre là où beaucoup d’autres drones ne peuvent pas aller, notamment à l’intérieur de bâtiments, et l’autonomie de sa batterie lui permet d’opérer pendant environ une heure et demie, contre 20 à 30 minutes pour les drones, relève Bloomberg.
L’ICE, le service américain de contrôle de l’immigration et des douanes, a de son côté récemment dépensé environ 78 000 dollars pour acquérir un robot du fabricant canadien Icor Technology Inc. capable d’effectuer des tâches similaires à celles de Spot, et doté de bombes fumigènes.
Bloomberg relève par ailleurs que, d’après les données de Pitchbook, les investissements en capital-risque dans les start-ups spécialisées dans les technologies de défense (« Defense Tech ») ont atteint 28,4 milliards de dollars, ouvrant la voie à un nouveau record annuel, en hausse de 200 % en glissement annuel :
« Alors que les marchés du capital-risque dans leur ensemble se refroidissent, les technologies de défense sont en pleine effervescence, attirant des capitaux records, des valorisations en hausse et une acceptation croissante par le grand public. »
Les grands gagnants seraient les start-ups qui développent des systèmes autonomes tels que des véhicules terrestres sans pilote, des plateformes informatiques avancées et des technologies antidrones.
Cinq ans après son lancement commercial, environ 2 000 unités de Spot, le robot de Boston Dynamics, sont actuellement en service dans le monde entier, rapporte Bloomberg.
Si la plupart des clients de l’entreprise sont encore des clients industriels, notamment des fabricants et fournisseurs de services publics, l’intérêt des forces de l’ordre a fortement augmenté au cours des deux dernières années, et il serait notamment utilisé par le ministère néerlandais de la Défense, la police nationale italienne et par plus de 60 équipes de déminage et d’interventions spéciales aux États-Unis et au Canada.
De la taille d’un berger allemand, Spot pèse 34 kilos et est utilisé par les forces de l’ordre pour gérer les situations de confrontation armée, les prises d’otages et les incidents impliquant des matières dangereuses, autant de situations où l’intervention d’un être humain ou d’un chien réel pourrait mettre leur vie en danger.
Le robot, dont le prix de départ est d’environ 100 000 dollars, peut fonctionner de manière autonome dans de nombreux cas (vérifications de maintenance, détection de fuites de gaz, inspection d’équipements défectueux), mais dépend toujours d’opérateurs humains pour la prise de décision, rappelle Bloomberg :
« À l’aide d’une tablette qui ressemble à une manette de jeu vidéo, l’opérateur guide la machine tout en surveillant les images vidéo en direct transmises par son système de caméras embarquées. Des capteurs supplémentaires intégrés assurent la navigation et la cartographie. Dans les situations à haut risque, les agents peuvent également visionner les images en direct sur des écrans plus grands situés à proximité. »
Spot peut également se rendre là où beaucoup d’autres drones ne peuvent pas aller, notamment à l’intérieur de bâtiments, et l’autonomie de sa batterie lui permet d’opérer pendant environ une heure et demie, contre 20 à 30 minutes pour les drones, relève Bloomberg.
L’ICE, le service américain de contrôle de l’immigration et des douanes, a de son côté récemment dépensé environ 78 000 dollars pour acquérir un robot du fabricant canadien Icor Technology Inc. capable d’effectuer des tâches similaires à celles de Spot, et doté de bombes fumigènes.
Bloomberg relève par ailleurs que, d’après les données de Pitchbook, les investissements en capital-risque dans les start-ups spécialisées dans les technologies de défense (« Defense Tech ») ont atteint 28,4 milliards de dollars, ouvrant la voie à un nouveau record annuel, en hausse de 200 % en glissement annuel :
« Alors que les marchés du capital-risque dans leur ensemble se refroidissent, les technologies de défense sont en pleine effervescence, attirant des capitaux records, des valorisations en hausse et une acceptation croissante par le grand public. »
Les grands gagnants seraient les start-ups qui développent des systèmes autonomes tels que des véhicules terrestres sans pilote, des plateformes informatiques avancées et des technologies antidrones.
Une ancienne responsable de la division podcast d’Amazon pense avoir trouvé un filon « scalable » susceptible de lui permettre de la rendre richissime. Entièrement générés par IA, en une heure et pour un dollar seulement, ses podcasts sont en effet rentables à partir de 20 auditeurs.
Inception Point AI se targue sur son site web d’avoir créé « le plus grand réseau de podcasts indépendants au monde ». Quiet Please (c’est son nom, « Du calme s’il vous plait » en français) a d’ores et déjà créé « plus de 4 000 émissions », diffuse « en moyenne 3 000 nouveaux épisodes par semaine », de 15 à une quarantaine de minutes chacun, et compte se lancer dans l’édition de courtes vidéos, de livres « et bien plus encore ».
Cette start-up ne compte pourtant que huit employés : 4 informaticiens et 4 producteurs, relevait le mois dernier La tech la première, le podcast de Stéphane Jourdain, rédacteur en chef numérique de France Inter. Cette hyperproductivité s’explique par le fait que ces podcasts sont tous entièrement générés par IA, sans supervision humaine.
L’entreprise produit par exemple de nombreux podcasts consacrés à l’indice de pollen dans toutes les grandes villes américaines, afin d’attirer des publicités pour des antihistaminiques. Mais également des podcasts dédiés au jardinage, aux actus people, à la méditation, à la ménopause, aux stations de ski, plages, aux assassins, aux sous-marins nucléaires, à l’économie, la démocratie, le socialisme et même le communisme (entre autres).
Le coût de revient d’un podcast ? 1 $, rentabilité dès le 20ᵉ auditeur
Pour Inception Point AI, les « influenceurs IA » constituent « la prochaine frontière à un milliard de dollars », dans la mesure où ils peuvent travailler tout le temps, sans avoir besoin de dormir, et offrent « une qualité supérieure à ~1/25000 du coût » d’un influenceur humain.
Un épisode de podcast ne leur coûterait en effet que 1 $ seulement. Ce qui leur permet de privilégier la quantité à la qualité, d’autant qu’il suffit de 20 auditeurs pour qu’un épisode soit rentable. Et tant pis si les yeux de certaines de ces influenceuses synthétiques sont quelque peu bâclés.
Captures d’écran du compte de @vvsteeleip, influenceuse IA
D’après The Wrap (« le seul média indépendant dédié à l’industrie hollywoodienne »), Quiet Please aurait d’ores et déjà publié plus de 175 000 épisodes sur des plateformes comme Spotify ou Apple, enregistré 12 millions de téléchargements d’épisodes depuis sa création, et compterait 400 000 abonnés.
« La richesse se trouve dans les niches », explique à The Wrap Jeanine Wright, co-fondatrice et CEO de la start-up et ancienne directrice des opérations de Wondery, la division podcast d’Amazon. « Mes amis dans l’industrie du podcasting me demandent : « As-tu une émission qui figure dans le top 10 ? Comment se classent tes émissions ? » Nous ne voyons pas les choses sous cet angle », précise-t-elle :
« Au lieu de se concentrer uniquement sur la création des prochains Kelce Brothers, Crime Junkie ou Joe Rogan, ces émissions à grand succès, vous pourriez vous adresser à des publics de niche et à des micro-communautés. C’est un modèle économique totalement différent. »
Selon Riverside, plus de 584 millions de personnes ont écouté des podcasts en 2025, et ce chiffre devrait atteindre 619 millions d’ici 2026. D’après Edison Research, le temps passé à écouter des podcasts a augmenté de 355 % au cours des dix dernières années. 34 % des Américains écoutent en moyenne 8,3 épisodes de podcast par semaine, et 83 % y consacrent plus de 9 heures par semaine. Le marché pourrait atteindre une valeur de 17,59 milliards de dollars d’ici 2030. Même Netflix se lance dans le podcasting, en concluant un partenariat avec Spotify et The Ringer pour des podcasts vidéo dans le cadre de sa stratégie 2026, souligne The Wrap.
Une salle de rédaction, mais sans journalistes humains
Inception Point, qui se présente comme la « version audio de Reddit ou Wikipédia », a créé 120 « influenceurs IA », associés à des niches et contenus hyper-spécialisés. La société évite soigneusement les sujets controversés qui pourraient poser problème, précise The Wrap, « de sorte qu’aucune révision humaine n’est nécessaire pour chaque épisode », d’autant qu’il est matériellement impossible aux 8 employés de la start-up de pouvoir les écouter avant qu’ils ne soient mis en ligne :
« Inception Point AI fonctionne presque comme une salle de rédaction, mais sans journalistes humains. Les modèles d’IA scannent Internet et proposent à l’équipe des listes d’idées intéressantes, et les employés voient ce qui leur convient. Avec sa petite équipe de huit personnes, il faut une journée pour passer d’une idée à un épisode complet. Une fois le sujet choisi, un membre de l’équipe l’associe à une personnalité et la machine peut commencer à générer l’épisode, ce qui prend environ une heure. »
Sur son profil LinkedIn, la start-up, créée en 2023, avance que « Dans un avenir proche, la moitié de la population mondiale sera constituée d’IA ». « Les « personnes » générées par l’IA devraient-elles avoir des droits humains ? » s’interrogeait Jeanine Wright, qui se définit elle-même comme une « maximaliste de l’IA », dans AI Proof, un podcast destiné aux parents et aux éducateurs qui entend aider les enfants à se préparer à « un avenir imprégné d’intelligence artificielle ».
« Je pense que très rapidement, nous arriverons à un stade où l’IA sera le moyen par défaut de créer du contenu, non seulement dans le domaine audio, mais aussi à la télévision, au cinéma, dans les publicités, dans l’imagerie et dans tous les autres domaines », explique Jeanine Wright à The Wrap. « Et alors, nous indiquerons quand les contenus ne sont pas créés à l’aide de l’IA, plutôt que de préciser qu’ils ont été créés à l’aide de l’IA. Mais pour l’instant, nous sommes parfaitement heureux d’ouvrir la voie. »
Une ancienne responsable de la division podcast d’Amazon pense avoir trouvé un filon « scalable » susceptible de lui permettre de la rendre richissime. Entièrement générés par IA, en une heure et pour un dollar seulement, ses podcasts sont en effet rentables à partir de 20 auditeurs.
Inception Point AI se targue sur son site web d’avoir créé « le plus grand réseau de podcasts indépendants au monde ». Quiet Please (c’est son nom, « Du calme s’il vous plait » en français) a d’ores et déjà créé « plus de 4 000 émissions », diffuse « en moyenne 3 000 nouveaux épisodes par semaine », de 15 à une quarantaine de minutes chacun, et compte se lancer dans l’édition de courtes vidéos, de livres « et bien plus encore ».
Cette start-up ne compte pourtant que huit employés : 4 informaticiens et 4 producteurs, relevait le mois dernier La tech la première, le podcast de Stéphane Jourdain, rédacteur en chef numérique de France Inter. Cette hyperproductivité s’explique par le fait que ces podcasts sont tous entièrement générés par IA, sans supervision humaine.
L’entreprise produit par exemple de nombreux podcasts consacrés à l’indice de pollen dans toutes les grandes villes américaines, afin d’attirer des publicités pour des antihistaminiques. Mais également des podcasts dédiés au jardinage, aux actus people, à la méditation, à la ménopause, aux stations de ski, plages, aux assassins, aux sous-marins nucléaires, à l’économie, la démocratie, le socialisme et même le communisme (entre autres).
Le coût de revient d’un podcast ? 1 $, rentabilité dès le 20ᵉ auditeur
Pour Inception Point AI, les « influenceurs IA » constituent « la prochaine frontière à un milliard de dollars », dans la mesure où ils peuvent travailler tout le temps, sans avoir besoin de dormir, et offrent « une qualité supérieure à ~1/25000 du coût » d’un influenceur humain.
Un épisode de podcast ne leur coûterait en effet que 1 $ seulement. Ce qui leur permet de privilégier la quantité à la qualité, d’autant qu’il suffit de 20 auditeurs pour qu’un épisode soit rentable. Et tant pis si les yeux de certaines de ces influenceuses synthétiques sont quelque peu bâclés.
Captures d’écran du compte de @vvsteeleip, influenceuse IA
D’après The Wrap (« le seul média indépendant dédié à l’industrie hollywoodienne »), Quiet Please aurait d’ores et déjà publié plus de 175 000 épisodes sur des plateformes comme Spotify ou Apple, enregistré 12 millions de téléchargements d’épisodes depuis sa création, et compterait 400 000 abonnés.
« La richesse se trouve dans les niches », explique à The Wrap Jeanine Wright, co-fondatrice et CEO de la start-up et ancienne directrice des opérations de Wondery, la division podcast d’Amazon. « Mes amis dans l’industrie du podcasting me demandent : « As-tu une émission qui figure dans le top 10 ? Comment se classent tes émissions ? » Nous ne voyons pas les choses sous cet angle », précise-t-elle :
« Au lieu de se concentrer uniquement sur la création des prochains Kelce Brothers, Crime Junkie ou Joe Rogan, ces émissions à grand succès, vous pourriez vous adresser à des publics de niche et à des micro-communautés. C’est un modèle économique totalement différent. »
Selon Riverside, plus de 584 millions de personnes ont écouté des podcasts en 2025, et ce chiffre devrait atteindre 619 millions d’ici 2026. D’après Edison Research, le temps passé à écouter des podcasts a augmenté de 355 % au cours des dix dernières années. 34 % des Américains écoutent en moyenne 8,3 épisodes de podcast par semaine, et 83 % y consacrent plus de 9 heures par semaine. Le marché pourrait atteindre une valeur de 17,59 milliards de dollars d’ici 2030. Même Netflix se lance dans le podcasting, en concluant un partenariat avec Spotify et The Ringer pour des podcasts vidéo dans le cadre de sa stratégie 2026, souligne The Wrap.
Une salle de rédaction, mais sans journalistes humains
Inception Point, qui se présente comme la « version audio de Reddit ou Wikipédia », a créé 120 « influenceurs IA », associés à des niches et contenus hyper-spécialisés. La société évite soigneusement les sujets controversés qui pourraient poser problème, précise The Wrap, « de sorte qu’aucune révision humaine n’est nécessaire pour chaque épisode », d’autant qu’il est matériellement impossible aux 8 employés de la start-up de pouvoir les écouter avant qu’ils ne soient mis en ligne :
« Inception Point AI fonctionne presque comme une salle de rédaction, mais sans journalistes humains. Les modèles d’IA scannent Internet et proposent à l’équipe des listes d’idées intéressantes, et les employés voient ce qui leur convient. Avec sa petite équipe de huit personnes, il faut une journée pour passer d’une idée à un épisode complet. Une fois le sujet choisi, un membre de l’équipe l’associe à une personnalité et la machine peut commencer à générer l’épisode, ce qui prend environ une heure. »
Sur son profil LinkedIn, la start-up, créée en 2023, avance que « Dans un avenir proche, la moitié de la population mondiale sera constituée d’IA ». « Les « personnes » générées par l’IA devraient-elles avoir des droits humains ? » s’interrogeait Jeanine Wright, qui se définit elle-même comme une « maximaliste de l’IA », dans AI Proof, un podcast destiné aux parents et aux éducateurs qui entend aider les enfants à se préparer à « un avenir imprégné d’intelligence artificielle ».
« Je pense que très rapidement, nous arriverons à un stade où l’IA sera le moyen par défaut de créer du contenu, non seulement dans le domaine audio, mais aussi à la télévision, au cinéma, dans les publicités, dans l’imagerie et dans tous les autres domaines », explique Jeanine Wright à The Wrap. « Et alors, nous indiquerons quand les contenus ne sont pas créés à l’aide de l’IA, plutôt que de préciser qu’ils ont été créés à l’aide de l’IA. Mais pour l’instant, nous sommes parfaitement heureux d’ouvrir la voie. »
Le tsunami de soi-disant sites d’informations générés par IA (GenAI) auquel nous assistons depuis des mois, émanant de professionnels du marketing numérique et du référencement (SEO), contamine aussi la presse. Nous avons en effet identifié (au moins) cinq sites hébergés par deux des plus importants groupes de presse français et reposant eux aussi, « en tout ou partie », sur la GenAI, et susceptibles de doper artificiellement leurs statistiques de fréquentation.
Ce lundi 3 novembre, à 6h46, le journaliste Sylvain Ernault, cofondateur du site d’investigation breton Splann, racontait sur BlueSky avoir été surpris de découvrir qu’un site hébergé par Ouest-France.fr, sain-et-naturel.ouest-france.fr, déclenchait le message d’alerte de l’extension que Next a développée afin d’alerter ses utilisateurs lorsqu’ils consultent un site dont les articles « semblent avoir été (en tout ou partie) générés par IA » (GenAI). Nous en avons identifié, à ce jour, plus de 8 500 (rien qu’en français).
Dans son thread, il s’étonnait en outre de découvrir que certains des articles de ce site, à la ligne éditoriale un peu fourre-tout (il y est tout autant question de nature et d’écologie que de psychologie ou de « bien-être », avec une section dédiée à des tests de personnalité ou de QI, défis, énigmes et casse-têtes logiques), figurent dans la rubrique Environnement d’Ouest-France, comme s’il s’agissait d’articles signés par l’un de ses journalistes, ce qui n’est pas le cas.
Il émettait également l’hypothèse que ce recours à l’IA pourrait artificiellement gonfler les statistiques de trafic du groupe de presse. Ce dernier figure en effet en tête du classement des sites grand public et des groupes web de l’Alliance pour les chiffres de la presse et des médias (ACPM), en termes de visites totales.
Sain et Naturel avait par ailleurs ajouté une discrète mention en bas de ses articles, indiquant que « Ce texte a pu être partiellement rédigé avec l’aide d’une IA », ce qui n’était pas non plus le cas jusque-là. Cette mention, constatée par nos soins et attestée par la mémoire de Google, n’est toutefois plus affichée le 19 novembre, date de publication de cet article.
Capture d’écran Google, datée du 19 novembre 2025
« Fasciné par toutes les méthodes d’investigation, vérifiables et reproductibles »
Le responsable du site, Cyril Renault, se présente comme « fasciné par toutes les méthodes d’investigation, vérifiables et reproductibles ayant pour but de produire des connaissances ». Ses articles, publiés dans les rubriques Nature et Écologie de Sain et Naturel, font d’autant plus bonne figure qu’il s’agit de traductions en français de publications anglo-saxonnes de vulgarisation scientifique.
Ses rubriques Psychologie et Bien-être sont quant à elles truffées d’articles « feel good », non sourcés pour ceux que nous avons consultés, mais eux aussi illustrés d’images générées par IA.
Illustration GenAI publiée sur sain-et-naturel.ouest-france.fr
La majeure partie des membres de la petite dizaine des auteurs de Sain et naturel n’y ont plus rien publié depuis des années. Mais plusieurs d’entre eux ont, a contrario, brusquement recommencé à y signer des articles après l’apparition des premières IA génératives, fin 2022.
Il reste 73% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
« Nous comptons un peu plus de 4 900 cybercombattants, avec un objectif de 5 500 d’ici 2030 », explique à LibérationEmmanuel Naëgelen (LinkedIn), ancien chef des opérations du ComCyber de 2018 à 2020, puis directeur adjoint et n°2 de l’ANSSI et, depuis août, nouveau commandant de la cyberdéfense (COMCYBER) de l’état-major des armées.
Il succède à Aymeric Bonnemaison qui, après avoir œuvré dans plusieurs unités de guerre électronique, était devenu adjoint du directeur technique de la DGSE, et a été nommé cet été à la tête de la Direction du renseignement et de la sécurité de la Défense (DRSD), le service de contre-espionnage militaire.
Si les unités du ComCyber ne rassemblent qu’ « environ 500 personnes », elles bénéficient du soutien de 20 autres unités opérationnelles chargées de « combattre dans le cyberespace et renforcer la cyberdéfense des armées françaises », précise le COMCYBER. Ces dernières sont réunies au sein de la Communauté cyber des armées (CCA), comme nous le relevions à l’occasion de la création, en août, du Commissariat au Numérique de Défense (CND), le « 1ᵉʳ intranet militaire européen », composé de 6 745 hommes et femmes (dont 55 % militaires et 45 % civils).
Interrogé sur le nombre de cyberattaques visant les armées françaises, le général de division aérienne Naëgelen avance que le nombre d’incidents graves (à savoir le fait qu’un attaquant a « réussi à pénétrer nos systèmes et à en extraire de l’information ») « se compte sur les doigts d’une à deux mains, et nous sommes plus près de 5 que de 10 », par an.
« Si les IA génératives facilitent clairement le travail de nos adversaires », notamment pour « générer des mails trompeurs extrêmement crédibles », précise-t-il, « nous n’avons pas encore observé des attaques informatiques complexes qui seraient pilotées par un moteur d’intelligence artificielle ».
Rappelant qu’« un char, un avion, un bateau embarquent de l’informatique », il résume ce que le cyber représente en termes d’armements : « Du point de vue du ComCyber, un bateau, c’est un data center qui flotte ! »
« Nous comptons un peu plus de 4 900 cybercombattants, avec un objectif de 5 500 d’ici 2030 », explique à LibérationEmmanuel Naëgelen (LinkedIn), ancien chef des opérations du ComCyber de 2018 à 2020, puis directeur adjoint et n°2 de l’ANSSI et, depuis août, nouveau commandant de la cyberdéfense (COMCYBER) de l’état-major des armées.
Il succède à Aymeric Bonnemaison qui, après avoir œuvré dans plusieurs unités de guerre électronique, était devenu adjoint du directeur technique de la DGSE, et a été nommé cet été à la tête de la Direction du renseignement et de la sécurité de la Défense (DRSD), le service de contre-espionnage militaire.
Si les unités du ComCyber ne rassemblent qu’ « environ 500 personnes », elles bénéficient du soutien de 20 autres unités opérationnelles chargées de « combattre dans le cyberespace et renforcer la cyberdéfense des armées françaises », précise le COMCYBER. Ces dernières sont réunies au sein de la Communauté cyber des armées (CCA), comme nous le relevions à l’occasion de la création, en août, du Commissariat au Numérique de Défense (CND), le « 1ᵉʳ intranet militaire européen », composé de 6 745 hommes et femmes (dont 55 % militaires et 45 % civils).
Interrogé sur le nombre de cyberattaques visant les armées françaises, le général de division aérienne Naëgelen avance que le nombre d’incidents graves (à savoir le fait qu’un attaquant a « réussi à pénétrer nos systèmes et à en extraire de l’information ») « se compte sur les doigts d’une à deux mains, et nous sommes plus près de 5 que de 10 », par an.
« Si les IA génératives facilitent clairement le travail de nos adversaires », notamment pour « générer des mails trompeurs extrêmement crédibles », précise-t-il, « nous n’avons pas encore observé des attaques informatiques complexes qui seraient pilotées par un moteur d’intelligence artificielle ».
Rappelant qu’« un char, un avion, un bateau embarquent de l’informatique », il résume ce que le cyber représente en termes d’armements : « Du point de vue du ComCyber, un bateau, c’est un data center qui flotte ! »
Confrontée à une déferlante de fausses informations, la retraite complémentaire a récemment publié un message d’alerte sur son site web. Nous avons découvert que la quasi-totalité des articles mis en avant ces derniers mois par Google au sujet de l’Agirc-Arrco émanaient d’articles (hallucinés, voire mensongers) générés par IA. Sur les 10 % d’articles émanant de rédactions humaines, plus de la moitié concernaient ces fake news.
Cet été, un éditeur de sites d’infos générées par IA (GenAI) a accusé plusieurs chaînes d’hypermarchés de vendre des produits cancérigènes, pourris, lavés à l’eau de Javel ou recongelés. Ses articles n’en avaient pas moins été recommandés par l’algorithme Discover de Google, comme nous le relations dans un précédent article. Mais ces chaînes de magasins ne sont pas les seules à avoir été ciblées de la sorte par de fausses informations sensationnalistes.
En début d’année, la retraite complémentaire des salariés de l’agriculture, du commerce, de l’industrie et des services (dite Agirc-Arrco, qui complète la retraite obligatoire de base), avait elle aussi été alertée au sujet de rumeurs la concernant sur les réseaux sociaux.
Cet été, elle a en outre été confrontée à une déferlante de fausses informations, diffusées sur des sites d’infos générées par IA, et pour certaines relayées sur des réseaux sociaux. Au point que l’Agirc-Arrco a publié sur son site une alerte dédiée mi-septembre, déplorant cette prolifération d’ « articles aux titres et contenus trompeurs, pouvant provoquer de l’inquiétude ».
Captures d’écran de tweets et messages d’alertes publiés par l’Agirc-Arrco
Dans un article consacré aux « bons réflexes » à adopter en la matière, l’Agirc-Arrco donnait trois fausses informations en exemple, relatives au soi-disant versement d’une prime d’été, à de supposés retards de paiement, et au fait que la revalorisation des retraites complémentaires serait « déjà connue » (alors qu’elle n’est fixée qu’en octobre).
Nous avons effectivement identifié que l’algorithme de recommandation de contenus Discover de Google avait partagé de nombreux articles sensationnalistes cet été émanant de la ferme de sites GenAI de Julien Jimenez notamment, le serial-éditeur qui spamme tellement Google que ses confrères s’en plaignent.
Ils l’accusent en effet de « défonce[r] le business » à force de spammer Google avec des centaines de « conneries de fakenews massive (320 articles hier sur un seul site) pour s’en foutre plein les poches ».
Captures d’écran d’articles sensationnalistes et mensongers générés par IA
Si la peur fait vendre, les bonnes nouvelles peuvent également inciter les internautes à cliquer, surtout lorsqu’elles leur promettent de gagner de l’argent, alors qu’ils ne s’y attendaient pas.
Nous avons ainsi identifié de nombreux articles, eux aussi mensongers, mais qui n’en ont pas moins été recommandés par Discover, annonçant notamment aux retraités un bonus de « jusqu’à 380 € mensuels », des rentes revalorisées ou d’énormes « remboursements ».
Captures d’écran d’articles sensationnalistes et mensongers générés par IA
D’autres articles vont jusqu’à mettre l’accent sur un risque de tensions sociales, avançant par exemple que, « malgré les promesses », les retraités auraient obtenu une « prime exceptionnelle» qualifiée par un syndicaliste (dans une citation elle aussi probablement générée par IA) de « victoire arrachée de haute lutte » qui, cela dit, « ravive les tensions sur la justice sociale ».
Un autre de ces personnages, a priori GenAI, oppose de son côté fonctionnaires du public et salariés du privé en affirmant que ces derniers « touchent un avantage inédit face aux fonctionnaires », au point que ces derniers « vont hurler à l’injustice ».
Ironie de l’histoire, certains sites GenAI poussent le vice jusqu’à publier des articles de fact-checking revenant sur les rumeurs et fausses infos démenties par l’Agirc-Arrco « après que des articles frauduleux, souvent écrits par des intelligences artificielles, ont fait le buzz », alors qu’ils sont eux-mêmes générés par IA.
Captures d’écran d’articles générés par IA
Un autre article, lui aussi recommandé par Discover, relève que des « plateformes douteuses » étaient alors pointées du doigt pour la diffusion de fausses informations sur une aide vacances prétendument offerte par l’Agirc-Arrco, et que « ces sites publient des articles illustrés par des images générées par intelligence artificielle, suggérant que le contenu pourrait également être produit par IA ».
Plus de 84 % des articles recommandés par Discover sur la retraite sont générés par IA
Si Julien Jimenez excelle en la matière, et qu’il surclasse ses concurrents, il n’est pas le seul éditeur de sites GenAI à surfer sur ce type de fausses informations anxiogènes. DiscoverSnoop, un dashboard de suivi des articles recommandés par Discover, a en effet identifié 156 articles recommandés par Discover au sujet de l’Agirc-Arrco, dont 131 générés par IA (soit 84 %), dans 42 médias, dont 31 GenAI (soit 74 %).
Gnewsalyzer, concurrent (gratuit) de DiscoverSnoop, dénombre de son côté 146 articles relatifs à l’Agirc-Arrco recommandés par Discover, dont 17 ont été publiés par des médias connus dans la profession, et 129 (soit 88 %) par des sites figurant dans notre base de données comme étant générés par IA.
Cette épidémie de fake news affecte aussi la presse généraliste : la plupart des articles publiés sur de vrais sites de presse (La Dépêche, Ici, Pleine Vie, Notre Temps, Boursorama, RMC, commentcamarche.net) portaient en effet précisément sur le message d’alerte de l’Agirc-Arrco au sujet de cette prolifération de fausses informations générées par IA.
Dit autrement : la quasi-totalité des articles publiés ces derniers temps au sujet de l’Agirc-Arrco émanent, et/ou concernent, des contenus (hallucinés, voire mensongers) générés par IA.
« Les rumeurs vont bon train. Ce que l’on sait »
Signe de l’ampleur du problème : l’un de ces médias « mainstream », Sud Ouest, a néanmoins relayé une (fausse) « bonne nouvelle pour les retraités ». Dans un article titré (au conditionnel) « Agirc-Arrco : quel est ce versement exceptionnel qui pourrait arriver cet automne ? », il reprenait en effet une info émanant de L’Écho des Seniors, un site d’infos que nous avions identifié comme étant « en tout ou partie » généré par IA.
Il reste 40% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.