Vue normale

Reçu aujourd’hui — 14 novembre 2025

FFmpeg, Google et la « bouillie » des rapports de bugs générés par IA

14 novembre 2025 à 15:00
Multiplier pour grapiller
FFmpeg, Google et la « bouillie » des rapports de bugs générés par IA

Des échanges pimentés ont eu lieu ces dernières semaines entre le projet open source FFmpeg, Google et plusieurs experts en sécurité. Au cœur du débat, le signalement d’un trop grand nombre de problèmes par Google jugés secondaires par l’équipe de FFmpeg. Les discussions houleuses sur le sujet illustrent la problématique du sous-financement des briques logicielles open source essentielles.

FFmpeg est un composant omniprésent, même si vous n’avez jamais croisé sa route. Il est discret, mais il est partout : dans presque tous les navigateurs, VLC, ou encore des produits comme Kodi et Plex. Ce framework, écrit en assembleur, a pour mission de lire et transcoder tous les formats vidéo existants. Il est considéré depuis longtemps comme robuste et très performant.

Cette ubiquité et ces louanges masquent cependant une réalité : FFmpeg est développé par une équipe de bénévoles. Comme de nombreuses briques open source, son financement est difficile et les dons sont essentiels. Une situation mise de nouveau en lumière à la faveur d’un « simple » signalement de sécurité.

Colère montante

Mi-octobre, le compte X de FFmpeg publie plusieurs messages où filtre la colère. On peut lire par exemple que le projet a été accepté par l’initiative européenne YesWeHack pour faciliter la découverte de failles de sécurité. « Aucune réflexion n’a été menée sur le financement des bénévoles qui doivent corriger les bugs gratuitement », ajoute cependant le message.

Dans la foulée, un autre message mettait en avant le cas de Nick Wellnhofer, mainteneur principal de la bibliothèque libxml2, qui critiquait le circuit habituel des signalements de failles de sécurité, autant que le fonctionnement peu ouvert de la Linux Foundation. Il s’en prenait en particulier à Google, dont le Project Zero, décrit comme ce qu’on peut se payer de mieux dans le domaine de la recherche de failles de sécurité, mais venant respirer « sur la nuque des bénévoles ».


Il reste 84% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Retraites Agirc-Arrco : 88 % des articles recommandés par Google sont générés par IA

14 novembre 2025 à 14:32
KO Boomers
Retraites Agirc-Arrco : 88 % des articles recommandés par Google sont générés par IA

Confrontée à une déferlante de fausses informations, la retraite complémentaire a récemment publié un message d’alerte sur son site web. Nous avons découvert que la quasi-totalité des articles mis en avant ces derniers mois par Google au sujet de l’Agirc-Arrco émanaient d’articles (hallucinés, voire mensongers) générés par IA. Sur les 10 % d’articles émanant de rédactions humaines, plus de la moitié concernaient ces fake news.

Cet été, un éditeur de sites d’infos générées par IA (GenAI) a accusé plusieurs chaînes d’hypermarchés de vendre des produits cancérigènes, pourris, lavés à l’eau de Javel ou recongelés. Ses articles n’en avaient pas moins été recommandés par l’algorithme Discover de Google, comme nous le relations dans un précédent article. Mais ces chaînes de magasins ne sont pas les seules à avoir été ciblées de la sorte par de fausses informations sensationnalistes.

En début d’année, la retraite complémentaire des salariés de l’agriculture, du commerce, de l’industrie et des services (dite Agirc-Arrco, qui complète la retraite obligatoire de base), avait elle aussi été alertée au sujet de rumeurs la concernant sur les réseaux sociaux.

Cet été, elle a en outre été confrontée à une déferlante de fausses informations, diffusées sur des sites d’infos générées par IA, et pour certaines relayées sur des réseaux sociaux. Au point que l’Agirc-Arrco a publié sur son site une alerte dédiée mi-septembre, déplorant cette prolifération d’ « articles aux titres et contenus trompeurs, pouvant provoquer de l’inquiétude ».

Captures d’écran de tweets et messages d’alertes publiés par l’Agirc-Arrco

Dans un article consacré aux « bons réflexes » à adopter en la matière, l’Agirc-Arrco donnait trois fausses informations en exemple, relatives au soi-disant versement d’une prime d’été, à de supposés retards de paiement, et au fait que la revalorisation des retraites complémentaires serait « déjà connue » (alors qu’elle n’est fixée qu’en octobre).

Nous avons effectivement identifié que l’algorithme de recommandation de contenus Discover de Google avait partagé de nombreux articles sensationnalistes cet été émanant de la ferme de sites GenAI de Julien Jimenez notamment, le serial-éditeur qui spamme tellement Google que ses confrères s’en plaignent.

Ils l’accusent en effet de « défonce[r] le business » à force de spammer Google avec des centaines de « conneries de fakenews massive (320 articles hier sur un seul site) pour s’en foutre plein les poches ».

De (fausses) bonnes nouvelles, et même du fact-checking (généré par IA)

Certains de ses articles, publiés cet été, n’hésitaient pas à illustrer par le propos des citations de personnes ayant prétendument été interviewées, alors qu’elles ont vraisemblablement été générés par IA : « personne n’avait vu venir une réforme aussi brutale et rapide », « on se sent pris de court et trahis par ceux qui décident », « on nous prend vraiment pour des chiens ».

Captures d’écran d’articles sensationnalistes et mensongers générés par IA

Si la peur fait vendre, les bonnes nouvelles peuvent également inciter les internautes à cliquer, surtout lorsqu’elles leur promettent de gagner de l’argent, alors qu’ils ne s’y attendaient pas.

Nous avons ainsi identifié de nombreux articles, eux aussi mensongers, mais qui n’en ont pas moins été recommandés par Discover, annonçant notamment aux retraités un bonus de « jusqu’à 380 € mensuels », des rentes revalorisées ou d’énormes « remboursements ».

Captures d’écran d’articles sensationnalistes et mensongers générés par IA

D’autres articles vont jusqu’à mettre l’accent sur un risque de tensions sociales, avançant par exemple que, « malgré les promesses », les retraités auraient obtenu une « prime exceptionnelle » qualifiée par un syndicaliste (dans une citation elle aussi probablement générée par IA) de « victoire arrachée de haute lutte » qui, cela dit, « ravive les tensions sur la justice sociale ».

Un autre de ces personnages, a priori GenAI, oppose de son côté fonctionnaires du public et salariés du privé en affirmant que ces derniers « touchent un avantage inédit face aux fonctionnaires », au point que ces derniers « vont hurler à l’injustice ».

Ironie de l’histoire, certains sites GenAI poussent le vice jusqu’à publier des articles de fact-checking revenant sur les rumeurs et fausses infos démenties par l’Agirc-Arrco « après que des articles frauduleux, souvent écrits par des intelligences artificielles, ont fait le buzz », alors qu’ils sont eux-mêmes générés par IA.

Captures d’écran d’articles générés par IA

Un autre article, lui aussi recommandé par Discover, relève que des « plateformes douteuses » étaient alors pointées du doigt pour la diffusion de fausses informations sur une aide vacances prétendument offerte par l’Agirc-Arrco, et que « ces sites publient des articles illustrés par des images générées par intelligence artificielle, suggérant que le contenu pourrait également être produit par IA ».

Plus de 84 % des articles recommandés par Discover sur la retraite sont générés par IA

Si Julien Jimenez excelle en la matière, et qu’il surclasse ses concurrents, il n’est pas le seul éditeur de sites GenAI à surfer sur ce type de fausses informations anxiogènes. DiscoverSnoop, un dashboard de suivi des articles recommandés par Discover, a en effet identifié 156 articles recommandés par Discover au sujet de l’Agirc-Arrco, dont 131 générés par IA (soit 84 %), dans 42 médias, dont 31 GenAI (soit 74 %).

Gnewsalyzer, concurrent (gratuit) de DiscoverSnoop, dénombre de son côté 146 articles relatifs à l’Agirc-Arrco recommandés par Discover, dont 17 ont été publiés par des médias connus dans la profession, et 129 (soit 88 %) par des sites figurant dans notre base de données comme étant générés par IA.

Cette épidémie de fake news affecte aussi la presse généraliste : la plupart des articles publiés sur de vrais sites de presse (La Dépêche, Ici, Pleine Vie, Notre Temps, Boursorama, RMC, commentcamarche.net) portaient en effet précisément sur le message d’alerte de l’Agirc-Arrco au sujet de cette prolifération de fausses informations générées par IA.

Dit autrement : la quasi-totalité des articles publiés ces derniers temps au sujet de l’Agirc-Arrco émanent, et/ou concernent, des contenus (hallucinés, voire mensongers) générés par IA.

« Les rumeurs vont bon train. Ce que l’on sait »

Signe de l’ampleur du problème : l’un de ces médias « mainstream », Sud Ouest, a néanmoins relayé une (fausse) « bonne nouvelle pour les retraités ». Dans un article titré (au conditionnel) « Agirc-Arrco : quel est ce versement exceptionnel qui pourrait arriver cet automne ? », il reprenait en effet une info émanant de L’Écho des Seniors, un site d’infos que nous avions identifié comme étant « en tout ou partie » généré par IA.


Il reste 39% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Michel Feher, philosophe : « Les promoteurs du rassemblement des droites européennes profitent du chemin tracé par Donald Trump »

Dans une tribune au « Monde », Michel Feher s’inquiète des conséquences du trumpisme sur les cultures politiques européennes, et interroge les manières dont les partis de gauche peuvent faire face à cette lame de fond idéologique.

© Brendan McDermid/REUTERS

L’ombre de Donald Trump est projetée sur un drapeau américain, à Green Bay (Wisconsin), en octobre 2024.

Airbags Takata : Toyota, Volkswagen et BMW visés par une enquête en France pour mise en danger et tromperie aggravée

Pour Charles-Henri Coppet, qui défend 11 familles de victimes mortes et 14 blessés, « les constructeurs ont fait les autruches pendant dix ans : ils connaissaient le problème Takata, savaient qu’ils avaient équipé leurs véhicules de ces airbags et ne les avaient pas rappelés ».

© THOMAS PETER / REUTERS

Le vice-président exécutif du fabricant d’airbags Takata Corporation (entreprise qui a déposé le bilan depuis), Yoichiro Nomura, participe à une conférence de presse à Tokyo, le 6 novembre 2014.
❌