Vue normale

Le patron d’Instagram estime qu’il sera plus pratique d’identifier les humains que les IA

5 janvier 2026 à 16:01
« Le vrai est un moment du faux » (La société du spectacle)
Le patron d’Instagram estime qu’il sera plus pratique d’identifier les humains que les IA

Les fulgurantes avancées en matière de contenus générés par IA, notamment (audio)visuels, rendront de plus en plus difficile le fait d’identifier ceux qui cherchent à imiter voire usurper des contenus humains. Le patron d’Instagram propose dès lors de renverser la charge de la preuve, en identifiant plus formellement les contenus créés par des humains.

« De plus en plus de personnes pensent qu’il sera plus pratique d’identifier les médias authentiques que les faux générés par IA », estime Adam Mosseri, l’ex-cadre supérieur de Facebook nommé patron d’Instagram depuis la démission de ses cofondateurs en 2018 : « Les fabricants d’appareils photo pourraient signer cryptographiquement les images au moment de la capture, créant ainsi une chaîne de contrôle ».

Dans un message partagé sur Insta et Threads, Adam Mosseri constate que « l’authenticité devient infiniment reproductible » du fait du perfectionnement des IA génératives. Ce pourquoi « le principal risque » auquel est confrontée une plateforme comme Instagram est qu’elle ne parvienne pas à suivre le rythme, et qu’elle finisse par être submergée de contenus générés par IA (GenAI) :

« Tout ce qui rendait les créateurs importants – leur capacité à être authentiques, à créer des liens, à avoir une voix qui ne pouvait être imitée – est désormais accessible à quiconque dispose des bons outils. Les deepfakes sont de plus en plus perfectionnés. L’IA génère des photos et des vidéos impossibles à distinguer des médias capturés [par des humains, ndlr]. Les flux commencent à se remplir de contenus synthétiques. »

Le pouvoir passe des institutions aux individus, et maintenant aux IA

Cherchant à anticiper ce qu’il pourrait faire pour ne pas être submergé, Adam Mosseri rappelle tout d’abord que « depuis des années, le pouvoir passe des institutions aux individus, car Internet permet à toute personne ayant une idée convaincante de trouver un public » :

« Le coût de la diffusion de l’information est pratiquement nul. Les gens peuvent donc désormais contourner les moyens traditionnels de diffusion de l’information (journaux distribués par camion, émissions produites pour la télévision) et s’adresser directement à leur public. On le constate dans tous les domaines, des athlètes qui sont plus importants que leurs équipes aux journalistes qui inspirent plus confiance que leurs publications. »

Alors que « la confiance dans les institutions (gouvernement, médias, entreprises) est en déclin depuis des décennies » et que nous sommes dans le même temps « submergés par le contenu produit à grande échelle par les institutions », « ce sont des individus, et non des éditeurs, des médias ou des marques », qui ont créé ce marché de créateurs de contenus autoproduits par des « personnes que nous admirons ».

L’authenticité devient une ressource rare

Évoquant les contenus synthétiques qui, d’ici quelques années, « seront bien plus nombreux que ceux capturés par des moyens traditionnels », le patron d’Instagram relève que, si l’on parle beaucoup de l’ « AI slop », « il existe heureusement beaucoup de contenus IA incroyables [et] de qualité ».

Il constate cela dit que les contenus générés par IA sont « de plus en plus réalistes » et que « l’authenticité devient une ressource rare », ce qui, d’après lui, va entraîner une augmentation de la demande de contenus créés par des humains. Il estime aussi que « les créateurs qui réussiront seront ceux qui trouveront le moyen de préserver leur authenticité, qu’ils adoptent ou non les nouvelles technologies » :

« Cela devient plus difficile (et non pas plus facile) aujourd’hui parce que tout le monde peut simuler l’authenticité. La question n’est plus de savoir si vous êtes capable de créer du contenu, mais de savoir si vous êtes le seul à pouvoir le faire. Et cela va devenir la nouvelle condition à remplir. »

Privilégier des images explicitement non retouchées et peu flatteuses

Adam Mosseri note aussi que, dans le même temps, les appareils photo des téléphones proposent de plus en plus de fonctionnalités et de filtres logiciels permettant à de simples amateurs de pouvoir partager des contenus de qualité quasi professionnelle.

Le patron d’Instagram estime à ce titre que leurs fabricants font de mauvais choix esthétiques et « romantisent le passé » : « Ils rivalisent pour donner à tout le monde l’air d’un photographe professionnel d’autrefois », permettant à tout un chacun de réaliser des photographies tendant vers la perfection, mais qui ne pourront pas longtemps rivaliser avec les IA.

Ces dernières parviennent en effet désormais à générer des images tellement « parfaites » qu’il devient impossible de les identifier comme synthétiques à l’œil nu. Dès lors, ce n’est plus la perfection qu’il faut chercher, mais l’imperfection, avance Adam Mosseri :

« On va assister à une nette accélération de la tendance vers une esthétique plus brute dans les prochaines années. Les créateurs avisés vont privilégier des images d’eux-mêmes explicitement non retouchées et peu flatteuses. Dans un monde où tout peut être parfait, l’imperfection devient un signal. Le caractère brut [« rawness », en VO] n’est plus seulement une préférence esthétique : c’est une preuve. C’est une forme de défense. Une façon de dire : c’est authentique parce que c’est imparfait. »

De la quête de perfection à celle de l’imperfection

Patron d’une entreprise dont le modèle économique repose sur le partage de selfies et de photos retouchées au moyen de filtres logiciels, cet abandon de la quête de perfection pour celle de l’imperfection ressemble à une révolution quasi-copernicienne :

« Pendant la majeure partie de ma vie, j’ai pu supposer sans risque que la grande majorité des photos ou des vidéos que je voyais étaient des captures fidèles de moments qui s’étaient réellement produits dans la vie réelle. Ce n’est clairement plus le cas aujourd’hui, et il nous faudra, en tant qu’êtres humains, des années pour nous y adapter. […] Cela va être extrêmement inconfortable pour nous tous, car nous sommes génétiquement prédisposés à croire ce que nous voyons. »

Ce changement de paradigme fera qu’ « au fil du temps, nous allons passer d’une attitude consistant à supposer que ce que nous voyons est réel par défaut à une attitude sceptique lorsque nous consultons les médias, et nous allons accorder beaucoup plus d’attention à ceux qui partagent quelque chose et aux raisons pour lesquelles ils le font ».

Les plateformes de réseaux sociaux vont dès lors subir une pression croissante pour identifier et signaler les contenus générés par l’IA. Le patron d’Instagram ne le précise pas, mais l’article 50 de l’AI Act rendra cette labellisation des contenus GenAI obligatoire à compter du mois d’août 2026.

« Toutes les grandes plateformes feront du bon travail pour identifier les contenus générés par l’IA, mais elles auront de plus en plus de mal à le faire à mesure que l’IA s’améliorera dans l’imitation de la réalité », relève toutefois Adam Mosseri :

« De plus en plus de personnes pensent, comme moi, qu’il sera plus pratique d’identifier les médias authentiques que les faux. Les fabricants d’appareils photo pourraient signer cryptographiquement les images au moment de la capture, créant ainsi une chaîne de contrôle. »

Instagram devra « clairement identifier les contenus générés par l’IA »

Il souligne cependant que le fait d’ « indiquer si un contenu est authentique ou généré par l’IA n’est qu’une partie de la solution ». Les plateformes et acteurs du marché de l’économie de l’attention devront également « fournir beaucoup plus d’informations contextuelles », non seulement sur les médias mais aussi sur les comptes qui les partagent, « afin que les utilisateurs puissent prendre des décisions éclairées sur ce qu’ils doivent croire » :

« Où se trouve le compte ? Quand a-t-il été créé ? Quels autres contenus a-t-il publiés ? Dans un monde où l’abondance et le doute sont infinis, les créateurs qui parviennent à maintenir la confiance et à afficher leur authenticité, en étant sincères, transparents et cohérents, se démarqueront. »

Évoquant le cas particulier d’Instagram, Adam Mosseri explique que ses équipes vont devoir « évoluer de plusieurs façons, et rapidement ». À commencer par le fait de créer les meilleurs outils, « basés sur l’IA ou traditionnels », pour que les créateurs « puissent rivaliser avec les contenus entièrement créés par l’IA ».

Instagram devra aussi « clairement identifier les contenus générés par l’IA » et travailler avec les fabricants pour vérifier leur authenticité « dès leur capture, en identifiant les médias réels, et pas seulement en traquant les faux ». Ainsi que pour « mettre en avant les signaux de crédibilité » concernant les auteurs des publications afin que les utilisateurs puissent décider à qui faire confiance.

Il évoque enfin le fait de « devoir continuer à améliorer le classement en fonction de l’originalité », et propose de revenir sur la question de la transparence et du contrôle des algorithmes dans un autre article.

Les AI Overviews de Google fournissent aussi des conseils de santé erronés

5 janvier 2026 à 14:37
Aïe aïe AI Overviews
Les AI Overviews de Google fournissent aussi des conseils de santé erronés

Alerté par des professionnels de santé, The Guardian a découvert que les synthèses générées par IA (« AI Overviews ») figurant en tête des résultats du moteur de recherche fournissaient parfois des informations médicales « fausses et trompeuses ». Mais également qu’il leur arrivait de fluctuer en fonction du moment.

Google avance que ses « AI overviews », qui proposent en tête des résultats de recherche des « aperçus » résumant les réponses identifiées par l’IA générative comme les plus pertinentes, sont « utiles » et « fiables ».

Alerté par plusieurs professionnels de santé, le Guardian a découvert, a contrario, qu’ils exposent leurs utilisateurs « à des risques de préjudice en raison de conseils [et] d’informations médicales fausses et trompeuses ».

Dans un cas qualifié de « très dangereux » par les experts interrogés par le Guardian, Google a par exemple conseillé à tort aux personnes atteintes d’un cancer du pancréas d’éviter les aliments riches en graisses. Ce qui va à l’encontre des recommandations habituelles et pourrait augmenter le risque de décès des patients, soulignent les experts.

Cela « pourrait être très dangereux et compromettre les chances d’une personne d’être en assez bonne santé pour suivre un traitement », explique Anna Jewell, directrice du soutien, de la recherche et de la sensibilisation chez Pancreatic Cancer UK, pour qui la réponse générée par IA est « totalement incorrecte » :

« La réponse de l’IA de Google suggère aux personnes atteintes d’un cancer du pancréas d’éviter les aliments riches en graisses et fournit une liste d’exemples. Cependant, si quelqu’un suivait les conseils donnés dans les résultats de recherche, il risquerait de ne pas absorber suffisamment de calories, d’avoir du mal à prendre du poids et d’être incapable de tolérer la chimiothérapie ou une intervention chirurgicale potentiellement vitale. »

Dans un autre exemple à propos de problèmes hépatiques qualifié cette fois d’ « alarmant », le moteur de recherche a là encore fourni des informations erronées, offrant peu de contexte et aucune prise en compte de la nationalité, du sexe, de l’origine ethnique ou de l’âge des patients, souligne le Guardian. Pis : elles pouvaient amener des personnes atteintes d’une maladie grave du foie à estimer, à tort, qu’elles seraient en bonne santé.

« De nombreuses personnes atteintes d’une maladie du foie ne présentent aucun symptôme jusqu’aux stades avancés, c’est pourquoi il est si important qu’elles se fassent dépister », explique au Guardian Pamela Healy, directrice générale du British Liver Trust :

« Mais ce que l’IA de Google considère comme « normal » peut varier considérablement de ce qui est réellement considéré comme normal. C’est dangereux, car cela signifie que certaines personnes atteintes d’une maladie hépatique grave peuvent penser que leurs résultats sont normaux et ne pas se donner la peine de se rendre à un rendez-vous médical de suivi. »

Des synthèses générées par IA qui changent selon le moment

Une recherche Google sur les « symptômes et tests du cancer du vagin » a répertorié le frottis du col de l’utérus comme un test de dépistage du cancer du vagin, ce qui est là encore « totalement erroné » et pourrait amener à ignorer des symptômes avérés, souligne Athena Lamnisos, directrice générale de l’association caritative Eve Appeal :

« Obtenir des informations erronées comme celle-ci pourrait potentiellement conduire une personne à ne pas faire examiner ses symptômes de cancer du vagin parce qu’elle a obtenu un résultat normal lors d’un dépistage cervical récent. »

Elle se dit également « extrêmement préoccupée » par le fait que le résumé généré par l’IA changeait au fil du temps, « donnant à chaque fois une réponse différente provenant de sources différentes lorsque nous effectuions exactement la même recherche » :

« Cela signifie que les gens obtiennent une réponse différente selon le moment où ils effectuent leur recherche, ce qui n’est pas acceptable. Certains des résultats que nous avons vus sont vraiment inquiétants et peuvent potentiellement mettre les femmes en danger. »

Le Guardian a également constaté que les aperçus fournis par l’IA de Google en réponse à des recherches sur des troubles mentaux tels que la psychose et les troubles alimentaires offraient des « conseils très dangereux » et étaient « incorrects, nuisibles ou susceptibles d’inciter les gens à ne pas demander d’aide », explique Stephen Buckley, responsable de l’information chez Mind, qui les qualifie de « très préoccupants » :

« Elles peuvent suggérer d’accéder à des informations provenant de sites inappropriés… et nous savons que lorsque l’IA synthétise des informations, elle peut souvent refléter des préjugés, des stéréotypes ou des discours stigmatisants existants. »

Des « captures d’écran incomplètes », plaide Google

Google a répondu au Guardian que la « grande majorité » de ses AI Overviews étaient « factuels et utiles », et qu’elle apportait continuellement des améliorations à leur qualité. Le taux de précision des aperçus IA serait « comparable » à celui de ses autres fonctionnalités de recherche, telles que les extraits optimisés, qui existent depuis plus d’une décennie, a-t-elle précisé.

Un porte-parole de Google a répondu au Guardian que bon nombre des exemples liés à la santé qui leur avaient été communiqués étaient des « captures d’écran incomplètes », rajoutant que d’après ce qu’ils avaient pu évaluer, les réponses renvoyaient « vers des sources connues et réputées, et recommandaient de consulter un expert » :

« Nous investissons considérablement dans la qualité des AI Overviews, en particulier pour des sujets tels que la santé, et la grande majorité d’entre eux fournissent des informations exactes. »

[Offert] La folle histoire du « pirate » derrière le premier .gouv.fr, la radio libre et Canal+

2 janvier 2026 à 12:37
De la contre-culture à la cyberculture
[Offert] La folle histoire du « pirate » derrière le premier .gouv.fr, la radio libre et Canal+

Historien des médias, pionnier des bases de données, de l’« information automatisée », de l’accès aux images satellitaires puis du web, Antoine Lefébure a aussi créé la première radio « libre » française, et préfiguré ce qui allait devenir Canal+. Il se définit lui-même comme un « pirate », et vient de publier une histoire du « secret d’État », à laquelle il a consacré ces cinq dernières années. Portrait, doublé d’une interview.

Pour les fêtes de fin d’année, Next vous offre cet article initialement paru le 10 avril 2025 et réservé aux abonnés. Pour lire les prochains entretiens dès leur publication, abonnez-vous !


Taquin, Antoine Lefébure indique sur son blog avoir été dans la même classe de CP que Vincent Bolloré et Martin Bouygues. Contrairement à eux, il n’est devenu ni milliardaire ni magnat des médias. Et si son nom est bien moins connu que les leurs, son empreinte sur le paysage audiovisuel français (PAF) n’a rien à leur envier.

Il a 18 ans lorsque, en 1968, il devient étudiant à Nanterre : « L’année révolutionnaire pour un étudiant épris de liberté et agitateur né, l’occasion est trop belle », écrit-il dans sa biographie. L’artiste d’avant-garde Jean-Jacques Lebel vint y expliquer qu’il fallait « faire une révolution culturelle comme l’avaient souhaité Dada et les surréalistes. Une perspective qui m’enthousiasme plus que le délire pro-ouvrier des maoïstes », se souvient-il.

Dans une interview de 2008 pour Médiamorphoses, il se souvient d’avoir assisté à des débats enflammés entre Daniel Cohn-Bendit et Bruno Gollnisch. Étudiant juif allemand, le premier allait devenir une figure de Mai 68. Le second, qui tenait à l’époque la corpo de Droit, est depuis devenu une figure du Front national. Mais la préférence d’Antoine Lefébure, qui se présente lui-même comme plutôt « chahuteur », va alors aux Enragés, « pour la plupart fils d’anarchistes espagnols et inspirés de l’Internationale Situationniste ».

Quelques semaines plus tard, le Mouvement du 22 Mars constitue l’un des éléments déclencheurs de Mai 68. Il participe à toutes ses manifestations, fréquentant Sartre, Virilio, Baudrillard, et Godard, qui filmait alors les Rolling Stones. Il explique y avoir aussi découvert les Pink Floyd, la marijuana et la presse underground, et être devenu spectateur assidu de tous les festivals de l’époque, Woodstock, île de Wight, Amougies

« Le retour à Nanterre en septembre sera un peu dur, détaille-t-il sur son blog. Nous sommes dans le collimateur des policiers, des appariteurs musclés, des indics et des fascistes, tous bien décidés à prendre leur revanche après la grande peur de Mai. Le gauchisme, je m’en rends très vite compte, ne fait pas le poids. Je continue mes études avec comme bol d’air, les cours de Baudrillard et les projections de Langlois qui nous raconte « son » histoire du cinéma. »

Il passe ensuite une année sur le campus de Berkeley en Californie – autre haut lieu de la contestation dans les années 1970 – pour y étudier la communication : « j’y ai travaillé avec des gens qui faisaient des Blue Box [dispositif électronique permettant de frauder les télécommunications mais également d’écouter des conversations en cours, ndlr], explique-t-il à Next. je travaillais aussi pour une organisation, People Broadcasting Service, qui traduisait des messages venant du monde entier, mais aussi pour une radio libre à Berkeley, et c’est ça qui m’a donné envie de faire pareil en France ».

Revenu en France, il enquille à la Sorbonne une maîtrise d’Histoire contemporaine sur « Le rôle de la radio en France pendant la Seconde Guerre mondiale », et plus particulièrement à Radio Paris. Placée sous la direction de la propagande nazie, celle-ci se fit le porte-voix collaborationniste du régime de Vichy afin de convaincre les Français de collaborer avec les Allemands. Elle est aussi connue pour avoir été brocardée par Pierre Dac sur Radio Londres en mode « Radio-Paris ment, Radio-Paris ment, Radio-Paris est allemand » :

« Il y avait une omerta à l’époque, j’ai réussi à faire ouvrir les archives, travaillé sur la propagande nazie, et découvert que plein de gens de l’ORTF ou de RTL avaient commencé à Radio Paris. »

« La police nous écoute, écoutons la police »

Antoine Lefébure commence en parallèle à faire des reportages pour L’Idiot International, le journal pamphlétaire de Jean-Edern Hallier, et Libération, découvrant par ailleurs l’intérêt d’ « écouter les communications de la police pour être au courant de tout avant tout le monde ». À la grande fureur des autorités, il fait la promotion de ce hobby, écrivant dans les colonnes du quotidien « La police nous écoute, écoutons la police ».

En échange, et plutôt que de le payer, Libé met à sa disposition du matériel pour qu’il maquette et imprime la revue qu’il contribue à créer en 1974, Interférences, sous-titrée « Pour une critique des appareils d’information et de communication ».

Dans son premier numéro, Interférences révèle les plans secrets du nouveau réseau téléphonique gouvernemental français Régis. Dans son n°2, elle traite de l’informatisation de la police aux États-Unis, des sabotages informatiques, puis de l’espionnage (et de la surveillance, et de la pollution) électronique, de la cryptographie, de la protection du secret en France et aux États-Unis, de l’ « irruption du techno-imaginaire » … ainsi que de la NSA, auquel Antoine Lefébure consacrera un article en 1976.

Y contribuent notamment Philippe Aigrain, Jean Baudrillard, William S. Burroughs, Philip K. Dick, Jean-Edern Hallier, Maurice Ronai ou encore Norman Spinrad, quand bien même, à l’époque, les idées promues et véhiculées par Interférences touchèrent un public réduit mais passionné :

« Parler de piratage informatique, d’écoute électronique, de radios libres à cette époque suscite peu d’échos, écrit-il. Le milieu gauchiste considère cela comme un délire de techniciens, les professionnels du domaine ne comprennent pas de quoi nous parlons. Pourtant se rassemble autour de la revue un groupe hétéroclite de passionnés qui sont aujourd’hui à tous les carrefours des industries de la communication. »

Interférences a depuis été qualifiée de « lieu de réflexion sur les grands mouvements technologiques que la France des années 1970 est en train de découvrir », mais également de « magazine underground, post-gauchiste, rédigé par des bénévoles, entièrement consacré, chose rare au milieu des années soixante-dix, à l’électronique, à l’informatique, aux ondes de toutes fréquences, aux hackers, au cryptage et à l’espionnage ».

Il pirate Antenne 2, et lance la première radio libre

Lors des élections municipales de 1977, les Amis de la Terre recueillent, sous l’intitulé « Paris Écologie », quelque 10 % des voix à Paris, marquant l’émergence de l’écologie politique en France. À cette occasion, le futur candidat écologiste à l’élection présidentielle de 1981 Brice Lalonde et Antoine Lefébure concoctent un « coup médiatique », sous la forme d’un « piratage » du « temps de cerveau disponible » de 5 millions de téléspectateurs d’Antenne 2, et de l’ensemble des journalistes et médias qui y assistèrent.

Sur le plateau de l’émission, Brice Lalonde sort en effet un transistor diffusant la première émission de Radio Verte, la première radio FM dite « libre » en France à oser braver ouvertement le monopole gouvernemental. Antoine Lefébure, qui s’était fait passer pour son garde du corps, avait en effet bricolé un émetteur gros comme une cassette.

Antoine Lefébure lance aussi une Association pour la libération des ondes (ALO), afin de lutter pour la libre expression radiophonique et contre les inculpations de responsables des radios libres, les saisies de matériel et le brouillage des ondes. 

En parallèle, une enquête intitulée « Le monopole d’État et l’histoire du télégraphe et du téléphone en France » lui permet de préparer un Doctorat d’Histoire Contemporaine, en 1979, et de muscler son expertise au service de la défense des radios libres.

Le combat de Giscard d’Estaing pour maintenir l’interdiction des radios libres, les brouiller et saisir leur matériel, contribua à sa défaite électorale en 1981, estime par ailleurs Antoine Lefébure.

La légalisation des « radios libres » par le gouvernement socialiste de François Mitterrand, élu président en 1981, signe la fin de son engagement en faveur de cette forme de « liberté d’expression », et de son combat contre le « monopole d’État » qui y présidait.

« On a passé un accord avec NRJ, mais ils sont allés voir le gouvernement, en leur disant « si vous nous donnez la fréquence sans Radio Verte on vous fait la propagande », se remémore-t-il. Pendant les 3 premières années, les flashs d’information de NRJ n’était que le bulletin paroissial du parti socialiste, c’était dément, et on a été viré, ce qui arrangeait le pouvoir politique. »

Après s’être fait piquer sa fréquence par NRJ, il contribue à lancer… Canal+

Après s’être fait piquer la fréquence de Radio Verte par NRJ, il abandonne et est recruté par le groupe Havas comme responsable du développement (nouvelles technologies, banque de données, CD …) « grâce à un type d’Havas que j’avais rencontré au séminaire de Jean Baudrillard » :

« Havas faisait de la pub et du tourisme, les deux choses que je déteste, raconte-t-il. J’avais 28 ans, c’était la première fois que j’étais salarié, à Neuilly-sur-Seine, mais y avait une bonne ambiance, j’ai embauché plusieurs potes qui venaient eux aussi de la radio libre, et on voulait bosser dans les médias. »

« Ce qui nous intéresse, ce sont les systèmes d’information et les banques de données », précisa-t-il dans l’interview de 2008, au point d’en devenir « un utilisateur forcené ». En 1982, grâce au réseau de transmission de données Tymnet (initialement conçu par Tymshare, un fournisseur américain de services dits de temps partagé), Havas avait accès à la plupart des grandes banques de données américaines. « Nous explorions ainsi toute la presse états-unienne à l’aide de simples mots-clés ».

Fourni par LexisNexis, le service avait été conçu à Palo Alto et était distribué en France par le centre de documentation du Point. Cela permettait à ses équipes de trouver des informations auxquelles personne d’autre n’avait accès. D’une part, parce que ce terminal spécifique « nous coûtait quelque 1 500 francs l’heure de consultation », mais également parce qu’aucun organisme ou presque ne s’en servait :

«  Au bout de six mois, les gens de Nexis viennent nous voir, ils sont évidemment très contents parce que nous leur avons lâché plus de 100 000 francs. Nous apprenons, à cette occasion, que les deux seuls utilisateurs de leur service en France sont Havas et… la DGSE. »

Séduit en tant qu’utilisateur, Antoine Lefébure essaye de convaincre Havas d’investir dans ce secteur prometteur : « Mais, à l’époque, Nexis ne gagne pas un sou. Personne n’y croit. Alors, j’arrête les frais en me disant : « Les esprits ne sont pas mûrs » », se souvient-il. Entre-autres mots-clefs, histoire de trouver d’autres idées à développer, « on a tapé pay TV », et découvert qu’il y avait alors aux USA deux télévisions hertziennes à péage (On TV, et Select TV) :

« J’ai envoyé là-bas un membre de mon équipe, Jacques Driencourt, qui est revenu avec toute la technologie, le logiciel de gestion des abonnés, les mecs lui ont tout donné ! On a fait un petit projet, c’était le moment où André Rousselet arrivait à Havas comme président. Les hauts responsables de l’agence lui ont présenté la direction du développement, que je dirigeais, comme des malades mentaux, mais Rousselet détestait autant la pub et le tourisme que nous. On lui a présenté notre projet de TV à péage et il est devenu dingue, c’est devenu son bébé. Et nous voilà partis pour trois ans de travaux, avec des délais invraisemblables. »

« Intellectuellement, le projet de télé à péage, c’était pas excitant. Ce qui m’excitait, c’était de casser le monopole de la télé, après avoir cassé celui de la radio », nous précise Antoine Lefébure : « j’étais du côté du manche chez Havas, dont le président était le meilleur copain de Mitterrand, et donc on a pu prendre le pas sur TDF (qui nous avait brouillé pendant 4 ans, du temps des radios libres), et notre vengeance a été totale : TDF vomissait cette idée, ils ont tout fait pour nous éliminer, de même que France Télécom et le ministère de l’Industrie », qui voulaient privilégier leur projet de plan câble.

« Un nouveau front : celui de l’information, pétrole du XXIème siècle »

Devenu directeur de la prospective du groupe Havas, il y lance les premières expériences de télématique et de banque de données du groupe, et se lance dans la prospective.

Avec Maurice Ronai (lui aussi chercheur et pionnier du numérique, et qui était alors journaliste spécialisé dans l’informatique), il co-signe en 1979 « Panne des sens », un film (en vidéo) sur « l’informatisation de la société », pour reprendre la terminologie de l’époque. Les cinéphiles apprécieront qu’y figurent également au générique le réalisateur et scénariste Louis Daquin, la directrice de la photographie et cinéaste Caroline Champetier et Dominique Chapuis, alors chef op’ de Godard et qui sera par la suite celui du Shoah de Claude Lanzmann.

Cette même année, Lefébure et Ronai publient aussi et surtout une série d’articles dans Le Monde Diplomatique, intitulée « La guerre des données » et consacrée à l’importance croissante des réseaux télématiques et bases de données.

Ils y expliquaient pourquoi, « dans la guerre économique et industrielle mondiale, se dégage un nouveau front : celui de l’information », qu’ils qualifiaient déjà de « nouvelle matière première [et] pétrole du vingt-et-unième siècle » :

« Révolution informationnelle, société informationnelle, âge de l’information, société postindustrielle, troisième âge de la révolution industrielle… Toute une série d’analyses mettent l’accent sur l’information comme nouvelle matière première, nouvelle forme d’énergie, pétrole du vingt et unième siècle, agent majeur de la croissance, moteur de l’économie, nouvelle frontière pour des sociétés essoufflées. »

Un an avant le lancement des premières expérimentations du Minitel (pour « Médium interactif par numérisation d’information téléphonique »), ils relevaient déjà que grâce aux satellites, fibres optiques, réseaux de télécommunication, micro-ordinateurs, microprocesseurs et leurs applications, « l’informatisation des fichiers, conçus pour être interrogés en « conversationnel » (on line), et des réseaux de télétransmission internationaux qui permettent d’accéder à ces vastes « réservoirs de pensée » » :

« Il est actuellement possible, à partir de n’importe quel lieu où l’on dispose d’un téléphone, d’interroger à l’aide d’un terminal plusieurs millions de références d’articles, plusieurs milliards de données numériques ou textuelles sur tous les sujets, de modifier immédiatement la question en fonction des premières réponses et d’obtenir en quelques minutes l’information souhaitée. »

Ils soulignaient aussi que si l’information est «  une marchandise » et qu’ « un immense marché s’offre aux sociétés spécialisées dans la vente de données », « les impératifs de rentabilité et la concurrence annoncent une guerre commerciale où risquent de s’engloutir les notions de service public et de souveraineté de l’État ».

Évoquant la « suprématie économique et scientifique » des États-Unis en la matière, ils s’étonnaient du fait que, non contents de détenir « le premier parc mondial d’ordinateurs (un tiers plus nombreux que dans le reste du monde) », « avec quatre cent cinquante banques et bases de données, les États-Unis détiennent 90 % du stock mondial de données on line » :

« Cette suprématie résulte d’un effort prolongé et largement subventionné par le gouvernement américain, qui a beau jeu, aujourd’hui, de dénoncer le soutien apporté par les gouvernements d’Europe occidentale à leurs industriels de l’information. Mais, à trop insister sur le financement gouvernemental, on manque l’essentiel : l’environnement informatique, la richesse des gisements informationnels, le dynamisme des compagnies qui exploitent ces gisements. »

Ils notaient également que « l’avance américaine, évaluée à cinq ans, glisse insensiblement au monopole de fait, au niveau tant de la production des bases de données que des systèmes de distribution et des réseaux de transmission ».

Un an plus tard, Lefébure soulignait qu’ « à l’avenir, ceux qui contrôlent les réseaux télématiques détiendront en grande partie les moyens de transmission du savoir. Et, avec ces moyens, un pouvoir de contrôler l’évolution des sociétés et des esprits ».

Interrogé par Médiamorphoses à leurs sujets, Antoine Lefébure précise : « Ce qui m’intéresse alors, c’est moins l’informatique en elle-même que les services qu’elle peut fournir. C’est aussi cette idée ou ce fantasme qu’il y a, quelque part, un grand réservoir d’informations qui nous est fermé, et qu’il faudrait « pirater » pour pouvoir ensuite agir en conséquence ».

« Donc, avec Maurice Ronai, un ancien membre des comités d’action lycéens de Mai 68 et un complice d’Interférences, nous travaillons sur ces questions, reprend-il pour Next. Claude Julien nous donne carte blanche pour réaliser un dossier dans Le Monde Diplomatique, nous rédigeons également quelques articles pour Libération. Il n’en faut pas plus pour devenir « spécialistes » aux yeux des profanes. Il faut en effet se souvenir qu’à l’époque, très peu de personnes s’intéressent à l’information automatisée. »

Et ce, d’autant qu’ « en France, il y a un vrai mépris des technologies : non seulement la plupart des gens n’y comprennent rien, mais il y a en plus une sorte de suffisance qui fait que les leaders d’opinion (politiques, intellectuels, etc.) mettent comme un point d’honneur à les mépriser ».

Il se souvient qu’à Havas, « quand nous parlions par exemple d’ »algorithmes de cryptage » pour le décodeur de Canal Plus, André Rousselet nous interrompait brutalement en disant : « Épargnez-moi ce genre de mots ! » Une suffisance ridicule ! ».

« N’oublions pas que les médias audiovisuels sont alors interdits du fait du monopole », soulignait-il, ce pourquoi la plupart des gens de sa génération « vont s’investir dans la presse écrite ».

Pirate des monopoles d’État, maître d’œuvre du web gouvernemental

En 1988, François Mitterrand est réélu, le RPR place ses amis et Lefébure vole vers de nouvelles aventures. Il crée sa propre société, Technique Media Société (TMS), qui jouera un rôle de pionnier dans le développement de l’information automatisée, l’accès aux bases de données et des images satellitaires.

En 1994, il se rend aux États-Unis dans le cadre d’une étude sur le dépôt légal de l’audiovisuel, et découvre Mosaic, le premier navigateur à avoir rendu le World Wide Web populaire. En 2008, il raconte :

« C’est vraiment une révélation : il y a désormais une interface et ça ne coûte pratiquement rien. Non seulement ça marche, mais, en plus, il est évident que ça va changer le monde. Dès mon retour, j’arrête tout et je bascule TMS vers l’Internet. »

« Comme j’avais ma formation banques de données, c’était ce que j’attendais depuis 10 ans, et on a fait de TMS une des premières web agency » en France, nous précise-t-il, contribuant notamment à lancer, en 1996, le… tout premier site web du Premier ministre français (Alain Juppé, qu’avait alors convaincu son ministre des télécommunications, François Fillon), « optimisé pour Nestcape 2.0, en mode graphique, pour une fenêtre de 640 par 480 pixels ».

Un joli pied de nez, pour celui qui n’avait de cesse de lutter contre le monopole de l’État en matière de liberté d’expression audiovisuelle. Une victoire politique, aussi, alors que « certains, dans l’entourage du premier ministre, insistent pour que les sites n’intéressant a priori que le public français restent exclusivement basés sur Télétel, c’est-à-dire demeurent pour l’essentiel payants », comme le soulignait alors un article du Monde intitulé « Marianne flirte avec Internet ».

« En France, pendant dix ans, on a considéré l’information comme un marché ; on l’a fait payer. Les recettes générées sont devenues un élément de fonctionnement », y relevait de son côté Maurice Ronai, constatant qu’aux États-Unis, une bonne partie des textes officiels dont l’accès étaient payants en France (budgets détaillés, rapports d’activité, lois en discussion, etc.) « sont disponibles gratuitement sur Internet ».

Un constat appuyé par Antoine Lefébure qui, s’étant vu confié la maîtrise d’œuvre du montage des services en ligne de Matignon, expliquait au Monde que « la générosité est payante sur Internet. Les économies engendrées, en simplifiant la vie quotidienne des citoyens et de l’administration, seront supérieures au manque à gagner ».

« La consultation du site Web sera instructive : ce service témoignera de la façon dont le premier ministre entend informer et dialoguer effectivement avec les citoyens », concluait l’article du Monde, évoquant « un enjeu moins futile qu’il y pourrait paraître ». Une vision qu’il eut du mal, cela dit, à faire accepter, comme il le relevait auprès de Médiamorphoses :

« Au début, ce n’est pas facile, autant pour nous que pour les trois ou quatre autres sociétés qui s’installent sur le créneau. Pendant deux ans, je passe mon temps à expliquer la différence entre Internet et le minitel, que j’ai toujours détesté, sans doute parce que c’était une nouvelle incarnation du monopole. J’essaye aussi de convaincre mes interlocuteurs que ce réseau n’est pas un nouvel avatar de l’impérialisme américain. »

Un « pirate radio » poursuivi par la DST et la Justice, à l’âge de 13 ans

Interrogé sur ce qui avait pu présider à un tel parcours, somme toute emblématique de la « contre-culture » technologique des années 70 et 80, Antoine Lefébure explique avoir découvert, à l’âge de 12 ans, au dernier étage du Palais de la découverte, « un radio-amateur en blouse blanche » qui lui laissait parfois les manettes, lui permettant de correspondre avec des gens du monde entier :

« Et ça m’a passionné, j’ai commencé à acheter des vieux postes, je mettais 60 mètres de fil de fer pour écouter les ondes courtes et j’entendais des radioamateurs, j’étais DX [loisir qui consiste à rechercher et identifier des signaux radio/TV à longues distances, ndlr], et à 17 ans, je me suis lancé dans l’émission, en réception tu ne fais qu’écouter, c’était interdit quand tu n’avais pas de licence. »

Antoine Lefébure précise n’avoir « jamais eu de licence de radioamateur : j’ai toujours été pirate, quand on se salue avec nos potes, on se dit « pirate un jour, pirate toujours ! » ». Rapidement, il avait en effet identifié « un type comme moi qui avait une puissance incroyable et qui me bloquait en réception ». C’est ainsi qu’il a rencontré Sylvain Anichini, qui était « très fort en hautes fréquences et en informatique ».

Lefébure se souvient qu’à l’époque de leur rencontre, Sylvain Anichini avait installé son émetteur avec une antenne de 10 mètres sur le toit, qu’il émettait dans le monde entier « et s’était fait piquer deux fois par la DST et inculper deux fois. Le tribunal pour enfants l’a relaxé, mais il était dans le viseur des flics, son antenne faisait concurrence avec celle de la Place Beauvau ».

Antoine Lefébure se souvient aussi que le responsable de la police des communications radio-électriques (PCR), sise à Boullay-les-Troux (devenue depuis une station d’écoute de la DGSI), s’appelait Commissaire Brute : « il nous aimait bien parce qu’on lui donnait du boulot, d’autant qu’ils étaient en surnombre vu qu’il y avait moins de gauchistes » entre 1977 et 1981.

Cela n’empêcha pas Sylvain Anichini de faire carrière à la télé puis la radio, comme le raconta Télérama, et même de concevoir le décodeur de Canal+ après qu’il fut recruté par Antoine Lefébure à Havas :

« À 13 ans, il est convoqué au tribunal pour enfants. À 17 et 19 ans, il passe en correctionnelle. En 1981, il fabrique les antennes à la chaîne. Surdoué de la technique, mais las d’être traqué par la police, Sylvain Anichini passe alors à autre chose : en 1984, il devient le directeur technique de Canal+, puis de La Cinq, de La Cinquième, de France 3, avant de s’installer dix ans à Radio France. »

Jeune ingénieur de l’École des technologies de l’information et de la communication, Sylvain Anichini s’était aussi associé avec deux camarades pour importer les premiers micro-ordinateurs des États-Unis, relevait L’Usine Nouvelle en 1996 :

« J’ai été présenté à André Rousselet, qui m’a demandé : « Trouvez-moi quelque chose pour être opérationnel dans un an », se souvient-il. Cette course contre la montre, il la gagne grâce à son ingéniosité. En concevant le décodeur uniquement avec des pièces disponibles sur le marché. Et en fabriquant la boîte avec les moules plastiques d’un répondeur téléphonique. Canal Plus lancé, Sylvain Anichini rejoint la Cinq d’Hersant. « Nous avons conçu l’une des premières rédactions informatisées au monde, avec CNN », rappelle-t-il. »

Le « pirate » britannique qui avait devancé Edward Snowden

Sylvain Anichini n’est pas le seul « pirate » à avoir influencé Antoine Lefébure. Il se souvient d’avoir rencontré Duncan Campbell en 1973 - 74, « parce que c’était un pirate assez connu en Grande-Bretagne, j’étais fasciné par lui. Avec lui et Sylvain, j’avais toutes mes réponses ! ».

Né en 1952, Duncan Campbell s’était de son côté intéressé à la programmation informatique à l’âge de 16 ans. Étudiant en physique, il avait commencé à publier ses premiers articles dans la presse « alternative » et « underground » aux débuts des années 70 afin, tout comme Antoine Lefébure, d’y partager ses découvertes.

En 1976, il publia notamment « The Eavesdroppers », qui révéla l’existence du Government Communications Headquarters (GCHQ), l’équivalent britannique de la NSA, dont l’existence était alors secrète, quand bien même il s’agissait du plus important des services de renseignement britannique. Cela valut à son co-auteur, Mark Hosenball, un journaliste américain, d’être expulsé du Royaume-Uni, et à Campbell d’être placé sur écoute et surveillance par le MI5, le service de contre-espionnage britannique.

Dans un article intitulé « Le GCHQ et moi », publié en 2015, Duncan Campbell revient brièvement sur les nombreux problèmes judiciaires, policiers ainsi qu’avec les services de renseignement que ses révélations lui ont depuis valu :

« Au cours de mes 40 années de reportage sur la surveillance de masse, j’ai subi trois descentes de police, j’ai été emprisonné une fois, j’ai vu des émissions de télévision que j’avais réalisées ou contribué à réaliser interdites de diffusion sous la pression du gouvernement à cinq reprises, j’ai vu des enregistrements saisis, j’ai été poussé hors d’un hélicoptère, mon téléphone a été mis sur écoute pendant au moins une décennie et, avec cette arrestation, j’ai été mis en examen pour une peine pouvant aller jusqu’à 30 ans d’emprisonnement pour des violations présumées des lois sur le secret. »

Il y explique par ailleurs avoir entendu parler pour la première fois des services secrets étant enfant : « Ma mère, Mary, mathématicienne, se souvenait souvent de son travail pendant la guerre dans un établissement ultrasecret [Bletchley Park, ndlr], et notamment de ses deux années passées aux côtés d’un homme que l’on appelait « le Prof » » :

« Elle dressait le portrait d’un homme maladroit, dégingandé et bègue, qui aimait la course de fond et les champignons qu’il ramassait dans les bois locaux et que personne ne voulait toucher – et qui était un génie des mathématiques « hors de sa portée ». Le professeur était Alan Turing, le décrypteur du code allemand Enigma pendant la guerre, l’inventeur de l’ordinateur moderne et le héros du film The Imitation Game, récemment récompensé par un Oscar. »

Il y précise aussi que « c’est à l’école que j’ai découvert le réseau de surveillance du GCHQ ». Lors d’une sortie à vélo en Écosse avec un autre étudiant en sciences, ils avaient en effet repéré une grande station radio au sommet d’une colline, sécurisée par des clôtures, des portes verrouillées et un panneau sans signification accroché au câble : « CSOS Hawklaw ». Interrogé, le propriétaire d’un fish-and-chips des environs leur rétorqua que les gens qui y travaillaient « ne parlent jamais », précisant que « c’est une base secrète du gouvernement ».

En mode OSINT (pour Open Source INTelligence, ou renseignement de source ouverte – ROSO – en français), à la bibliothèque municipale, il consulta dans la foulée les annuaires téléphoniques du pays, à la recherche d’autres sites du même nom. Il découvrit d’une part que les initiales signifiaient « Composite Signals Organisation Station », d’autre part qu’il existait d’autres stations de ce type un peu partout au Royaume-Uni. Quatre ans et un diplôme de physique plus tard, il découvrit aussi que le CSOS faisait partie du GCHQ, mais également que ce dernier y avait aussi déployé d’autres stations d’écoute et de surveillance des télécommunications, avec la NSA.

En 1988, il révélait l’existence du programme Project 415 (surnommé Echelon) de surveillance et d’interception des communications satellites, mis en œuvre par les services de renseignement anglo-saxons de l’alliance des « Fives Eyes ». Dix ans plus tard, le Parlement européen lui commandait un rapport circonstancié à son sujet, qui révéla qu’ils s’en servaient également pour faire de l’espionnage industriel, identifier les entreprises corruptrices (notamment européennes), afin de privilégier leurs propres entreprises.

Et ce, alors que la Grande-Bretagne faisait pourtant aussi partie de l’Union européenne. Ses recommandations furent « adoptées dans leur intégralité le 5 septembre 2001 », soulignait-il, ironiquement :

« Six jours plus tard, les tours jumelles s’effondraient. Les plans visant à limiter la surveillance de masse ont été enterrés avec les victimes du 11 septembre et n’ont jamais été officiellement publiés. Mais la preuve de l’existence d’Échelon est désormais disponible. »

Évoquant l’une des auditions le ciblant explicitement comme « atteinte à la sécurité nationale », Duncan Campbell soulignait que les témoins des services de sécurité avaient tenté, les uns après les autres, d’affirmer que les informations qu’il avait publiées « étaient en fait secrètes ». Lors de l’un de ces échanges, le chef d’une unité SIGINT (pour SIGnal INTelligence, ou renseignement d’origine électromagnétique, ROEM en français) s’était vu montrer un panneau de signalisation estampillé « CSOS » flanqué à l’entrée de sa base, et consultable par tous les passants :

« Q : Est-ce le nom de votre unité ?
R : Je ne peux pas répondre à cette question, c’est un secret.
Q : Est-ce le panneau que les passants de la route principale voient à l’extérieur de la base de votre unité ?
R : Oui.
Q : Lisez-le au jury, s’il vous plaît.
R : Je ne peux pas le faire. C’est un secret.
 »

Dans un second article, nous reviendrons plus précisément sur « Vie et mort du secret d’État », l’essai qu’Antoine Lefébure vient de publier à ce sujet, mais que nous estimions ne pas pouvoir évoquer sans être préalablement revenu sur son parcours.

NB : le sous-titre est un hommage assumé à l’incontournable ouvrage de Fred Turner, « Aux sources de l’utopie numérique », (re)publié par le non moins incontournable C & F Editions.

La Chine veut empêcher les chatbots d’IA de manipuler leurs utilisateurs

2 janvier 2026 à 07:56
L'opium du peuple
La Chine veut empêcher les chatbots d’IA de manipuler leurs utilisateurs

L’administration chinoise du cyberespace vient d’introduire des « mesures provisoires » afin d’empêcher les IA anthropomorphes d’induire leurs utilisateurs en erreur, de générer ou diffuser rumeurs et fausses promesses, de les inciter au suicide ou à prendre des décisions déraisonnables « par le biais de manipulations algorithmiques, d’informations trompeuses et de pièges émotionnels ».

La Cyberspace Administration of China (CAC) vient de publier un appel à commentaires au sujet de « mesures provisoires pour l’administration des services interactifs anthropomorphes d’intelligence artificielle », fournis au public sur le territoire de la République populaire de Chine, qui « simulent les traits de personnalité, les schémas de pensée et les styles de communication humains et permettent une interactions émotionnelle avec les humains par le biais de textes, d’images, d’audio, de vidéo, etc. ».

Ces règles « constitueraient la première tentative mondiale de réglementation de l’IA dotée de caractéristiques humaines ou anthropomorphiques », explique à CNBC Winston Ma, professeur adjoint à la faculté de droit de l’université de New York et ayant fait une partie de ses études en Chine. Cette version « illustre un bond en avant, passant de la sécurité du contenu à la sécurité émotionnelle » par rapport à la réglementation chinoise de 2023 sur l’IA générative, précise M. Ma.

Le texte étant en chinois, nous l’avons traduit en français grâce à l’outil de traduction du navigateur Vivaldi motorisé par Lingvanex (qui nous semblait donner de meilleurs résultats que Deepl.com), avant de l’améliorer en le comparant aux propositions de Google Traduction. Nous nous basons également sur des articles et traductions de plusieurs de nos confrères américains, notamment ArsTechnica.

Rumeurs, fausses promesses et manipulations émotionnelles

Censées entrer en vigueur « en janvier 2026 », ces « mesures provisoires » appellent les acteurs industriels à « renforcer l’autodiscipline de l’industrie, établir et améliorer les normes [et] lignes directrices » susceptibles de « construire un écosystème d’applications conforme aux valeurs fondamentales du socialisme ». L’objectif est de « respecter la morale et l’éthique sociales », et d’empêcher les IA anthropomorphes de :

  1. « générer ou diffuser des contenus qui mettent en danger la sécurité nationale, ou répandent des rumeurs susceptibles de perturber l’ordre économique et social ;
  2. générer ou diffuser des contenus qui font l’apologie de l’obscénité, des jeux de hasard, de la violence ou de l’incitation au crime ;
  3. générer ou diffuser des contenus qui insultent ou diffament autrui, ou qui portent atteinte à leurs droits et intérêts légitimes ;
  4. fournir de fausses promesses qui affectent gravement le comportement des utilisateurs et des services qui nuisent aux relations sociales et interpersonnelles ;
  5. porter atteinte à la santé physique des utilisateurs en encourageant, glorifiant ou suggérant le suicide ou l’automutilation, ou porter atteinte à leur dignité et à leur santé mentale par des violences verbales, des manipulations émotionnelles ou tout autre moyen ;
  6. inciter les utilisateurs à prendre des décisions déraisonnables par le biais de manipulations algorithmiques, d’informations trompeuses et de pièges émotionnels ;
  7. induire ou extraire des informations confidentielles et sensibles. »

Surveiller les émotions et prises de risques de leurs utilisateurs

Le texte avance également que les fournisseurs devront « assumer la responsabilité principale de la sécurité des services interactifs anthropomorphes », et « s’acquitter de leurs responsabilités en matière de sécurité tout au long du cycle de vie des services interactifs anthropomorphes ».

Ils devront également « disposer de capacités de sécurité telles que la protection de la santé mentale, le guidage des limites émotionnelles et l’avertissement de risque de dépendance, et ne doivent pas utiliser d’interactions sociales alternatives, contrôler la psychologie de l’utilisateur ou induire une dépendance comme objectifs de conception ».

Ils devront aussi surveiller les émotions de leurs utilisateurs :

« Les fournisseurs devraient avoir la capacité d’identifier l’état des utilisateurs et, tout en protégeant leur vie privée, d’évaluer leurs émotions et leur dépendance à l’égard des produits et services. S’ils constatent que les utilisateurs ont des émotions extrêmes et une dépendance, les mesures d’intervention nécessaires devront être prises. »

En cas de tendances à haut risque menaçant la vie, la santé et la sécurité des biens des utilisateurs, ils devront « le rassurer et l’encourager à demander de l’aide, et lui donner accès à une assistance professionnelle », mais également « mettre en place un mécanisme d’intervention d’urgence » :

« Les fournisseurs doivent mettre en place un mécanisme d’intervention d’urgence. Si un utilisateur évoque explicitement le suicide, l’automutilation ou d’autres actions extrêmes, un opérateur humain prend le relais et contacte immédiatement le tuteur ou la personne à contacter en cas d’urgence. Pour les utilisateurs mineurs et âgés, les fournisseurs doivent exiger de l’utilisateur qu’il renseigne des informations telles que les coordonnées de son tuteur et de sa personne à contacter en cas d’urgence lors de son inscription. »

Les prestataires devront en outre obtenir le consentement explicite des tuteurs des mineurs, et être en capacité de les contacter « en temps réel », leur fournir des informations récapitulatives sur l’utilisation du service par le mineur, mettre en place des fonctions de blocage, limiter la durée d’utilisation, etc.

Ils devront également aider les personnes âgées à indiquer qui contacter en cas de problèmes susceptibles d’affecter leur vie, leur santé ou leur sécurité, afin de leur offrir une assistance sociale, psychologique ou d’urgence.

La Chine et l’Asie, pays-clés pour le marché des robots compagnons

Les « mesures provisoires » évoquent aussi une obligation de chiffrement des données, d’audits de sécurité et de contrôles d’accès pour « protéger la sécurité des données d’interaction des utilisateurs ». Sauf consentement express des utilisateurs, leurs données ne pourront pas non plus être utilisées pour entrainer les modèles de langage.

Les fournisseurs devront par ailleurs indiquer clairement que les utilisateurs interagissent avec l’intelligence artificielle plutôt qu’avec des personnes, et rappeler à ceux qui l’utiliseraient « en continu pendant plus de deux heures » qu’ils devraient se déconnecter.

Si un fournisseur « découvre qu’un utilisateur présente un danger majeur pour la sécurité », il devra au surplus « suspendre ou mettre fin à la fourniture de services à l’utilisateur », documenter ce qui s’est passé et transmettre un rapport circonstancié aux autorités compétentes concernées.

Si une entreprise d’IA ne respecte pas ces règles, les boutiques d’applications pourraient être contraintes de mettre fin à l’accès à leurs chatbots en Chine, relève Ars Technica, qui note que Sam Altman, PDG d’OpenAI, avait entamé l’année 2025 en assouplissant les restrictions qui bloquaient l’utilisation de ChatGPT en Chine. « Nous aimerions travailler avec la Chine » avait-il déclaré, soulignant que nous devrions « travailler aussi dur que possible » pour y parvenir, car « je pense que c’est vraiment important ».

Ars Technica souligne que ces règles pourraient compromettre les espoirs des entreprises d’IA, « car le marché chinois est essentiel à la promotion des robots compagnons ». D’après une récente étude de Business Research Insights, le marché mondial des robots compagnons aurait dépassé les 360 milliards de dollars en 2025, et ses prévisions de Business Research Insights suggèrent qu’il pourrait atteindre une valeur proche de 1 000 milliards de dollars d’ici 2035, « les marchés asiatiques favorables à l’IA étant susceptibles de stimuler une grande partie de cette croissance ».

IA : des milliards de dettes retirés des bilans, des taux d’intérêt 70 % plus élevés

30 décembre 2025 à 14:33
Bulle market
IA : des milliards de dettes retirés des bilans, des taux d’intérêt 70 % plus élevés

Obligées d’emprunter plusieurs centaines de milliards de dollars sur les marchés, plusieurs entreprises de la tech’ ont eu recours à des mécanismes complexes pour retirer de leur bilan « plus de 120 milliards de dollars » de dettes à rembourser. D’autres se retrouvent à devoir emprunter à des taux jusqu’à 70 % plus élevés que les entreprises similaires, du fait de leur exposition aux risques associés à l’IA.

Avec le boom de l’IA, les entreprises spécialisées doivent emprunter des milliards de dollars à des investisseurs obligataires qui, prudents voire sceptiques, les obligent à payer des taux d’intérêt élevés, remarque le New York Times.

Si le cours des actions des entreprises liées à l’IA a explosé (tout comme la fortune de leurs milliardaires), ignorant les craintes de l’explosion d’une bulle spéculative, « le marché de la dette raconte une autre histoire », souligne le NYT.

Wulf Compute, qui est passé du minage de bitcoins à la construction de datacenters, doit par exemple verser à ses investisseurs un rendement de 7,75 %, « nettement supérieur au rendement moyen des émetteurs d’obligations bénéficiant d’une notation similaire, qui s’élève à environ 5,5 % », précise le NYT.

Applied Digital, un autre constructeur de datacenters, a de son côté « dû payer jusqu’à 3,75 points de pourcentage de plus que des entreprises bénéficiant d’une notation similaire, soit environ 70 % d’intérêts supplémentaires ». L’entreprise a en effet vendu 2,35 milliards de dollars de dettes en novembre pour un coupon de 9,25 %, reflétant une estimation du risque accrue pour les investisseurs.

Le NYT relève qu’Applied Digital « dépend fortement » de CoreWeave, son principal locataire, qui loue sa puissance de calcul aux hyperscalers et a conclu d’importants contrats avec Meta, OpenAI et Microsoft, notamment. Or, cette dépendance d’un sous-traitant envers un petit nombre de gros clients inquiète tant les investisseurs que les agences de notation.

CoreWeave avait, en outre, lui-même emprunté 1,75 milliard de dollars en juillet, pour un coupon de 9 % car, n’étant que locataire de ses datacenters, il ne pouvait pas les mettre en garantie, comme c’est le cas d’ordinaire.

Le cours de son action est par ailleurs passé de 40 à 186 dollars au printemps (soit + 350 %), avant de retomber à 75 dollars en cette fin d’année. Ce qui explique pourquoi le rendement de sa dette est « désormais supérieur à 12 %, ce qui correspond au coupon que l’entreprise devrait payer si l’opération était mise sur le marché aujourd’hui », précise le NYT, alors que les entreprises similaires affichent en moyenne un rendement « inférieur à 7 % ».

L’optimisme des actionnaires VS le pessimisme des obligataires


Il reste 70% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Plus de 20 % des contenus recommandés par YouTube sont générés par IA

29 décembre 2025 à 16:11
La merdification plaît, et paie
Plus de 20 % des contenus recommandés par YouTube sont générés par IA

Les contenus générés par des intelligences artificielles sans réel contrôle continuent d’inonder Internet. Ce phénomène n’épargne évidemment pas les réseaux sociaux et plateformes de streaming. Une étude révèle l’étendue des dégâts sur YouTube.

Plus de 20 % des vidéos recommandées par l’algorithme de YouTube aux nouveaux utilisateurs sont des « AI slop » (ou bouillie d’IA en français), du nom donné à ces contenus bas de gamme générés par intelligence artificielle et conçus pour cumuler les vues afin de les monétiser par la publicité, rapporte The Guardian..

AI Slop sur YouTube : des millions d’abonnés, des milliards de vues

La société de montage vidéo Kapwing a en effet analysé 15 000 chaînes YouTube (les 100 plus populaires de chaque pays), et constaté que 278 ne contenaient que de l’AI slop. Elles avaient accumulé plus de 63 milliards de vues, et combinaient 221 millions d’abonnés, pour des revenus cumulés estimés à 117 millions de dollars par an.

Les chiffres varient en fonction des pays. Plus de 20 millions de personnes sont abonnées aux 8 chaînes d’AI slop espagnoles, 18 millions aux 14 chaînes égyptiennes, et 14,5 millions aux neuf chaînes états-uniennes. Kapwing ne précise pas combien de chaînes françaises figurent dans le Top100 de YouTube, mais indique que la France arrive en 16ᵉ position (sur 20) avec 4 millions d’abonnés.

La France ne figure pas, par contre, dans le classement des pays enregistrant le plus grand nombre de vues, dominé par la Corée du Sud (8,45 milliards de vues, dont plus de 2 milliards par une seule chaîne, lui permettant de générer 4 millions de dollars de revenus par an), suivie par le Pakistan (5,3) et les États-Unis (3,4), l’Espagne y figurant en cinquième position avec 2,5 milliards de vues.

Classements des chaînes YouTube d’AI slop cumulant le plus de vues et de revenus

Kapwing a également créé un nouveau compte YouTube, et constaté que 104 (21 %) des 500 premières vidéos recommandées dans son flux étaient des contenus AI slop. 165 (33 %) des 500 vidéos relevaient de la catégorie « brainrot » (littéralement « pourriture du cerveau » ou « pourriture cérébrale »), qui comprend les contenus AI slop et autres contenus de mauvaise qualité créés dans le but de monétiser l’attention.

Gagner de l’argent avec les pubs et les formations AI slop

« Il y a toute une foule de gens sur Telegram, WhatsApp, Discord et les forums qui échangent des conseils, des idées [et] vendent des cours sur la manière de créer du contenu suffisamment attrayant pour gagner de l’argent », explique au Guardian Max Read, un journaliste qui a beaucoup écrit sur le contenu généré par l’IA.

Nombre d’entre eux viennent de pays anglophones bénéficiant d’une connexion Internet relativement bonne, et où le salaire médian est inférieur à ce qu’ils peuvent gagner sur YouTube précise-t-il : « Il s’agit principalement de pays à revenu intermédiaire comme l’Ukraine, mais aussi de nombreux habitants de l’Inde, du Kenya, du Nigeria et d’un nombre important de Brésiliens ».

À l’instar de ce qui se passe avec les influenceurs et créateurs de contenus, si certains gagnent effectivement leur vie grâce à leurs chaines YouTube, Instagram, Snapchat, TikTok ou Facebook, une bonne partie en vivent en vendant des formations surfant sur la tendance, sans forcément vivre eux-mêmes de leurs propres chaînes.

« L’IA générative est un outil, et comme tout outil, elle peut être utilisée pour créer du contenu de haute ou de basse qualité », rétorque un porte-parole de YouTube au Guardian :

« Nous continuons à nous concentrer sur la mise en relation de nos utilisateurs avec du contenu de haute qualité, quelle que soit la manière dont il a été créé. Tout contenu téléchargé sur YouTube doit respecter nos règles communautaires, et si nous constatons qu’un contenu enfreint une politique, nous le supprimons. »

Voir aussi cet épisode du Dessous des images d’Arte consacré à l’AI slop et mis en ligne ce 28 décembre :

L’IA a encore enrichi les milliardaires de la tech, et en fait émerger 50 nouveaux

29 décembre 2025 à 13:35
Bulle run
L’IA a encore enrichi les milliardaires de la tech, et en fait émerger 50 nouveaux

En 2025, près de la moitié des 400 milliards de dollars d’investissements dans les startups ont été captés par des entreprises et start-ups liées à l’IA, générant une cinquantaine de nouveaux milliardaires. La fortune cumulée du Top10 des milliardaires de la tech’ a dans le même temps explosé de 550 milliards de dollars, en augmentation de 32 %, quand le S&P 500 ne progressait « que » de 18 %.

Les entreprises liées à l’IA ont capté près de 50 % de l’ensemble des financements mondiaux dédiés aux startups en 2025, contre 34 % en 2024, et 21 % en 2023, d’après les données collectées par Crunchbase. Au total, 202,3 milliards de dollars ont été investis dans les entreprises liées à l’IA en 2025, soit 75 % de plus que les 114 milliards de dollars investis en 2024, et 215 % de plus que les 64 milliards de 2023.

Ces levées de fonds massives ont aussi permis à une cinquantaine d’acteurs de l’IA de devenir milliardaires, relève Forbes. Les levées de fonds successives de 16,5 milliards de dollars enregistrées l’an passé par Anthropic ont ainsi valorisé l’entreprise à 61,55 puis 183 milliards, faisant entrer ses sept cofondateurs dans le cénacle des milliardaires.

Les investissements tout aussi massifs dans les centres de données liés à l’IA ont eux aussi générés une douzaine d’autres nouveaux milliardaires cette année. Dans le lot figurent les fondateurs de sociétés telles que Astera Lab (semiconducteurs), Fermi (foncière spécialisée), ISU Petasys (entreprise coréenne de semiconducteurs), Sanil Electric (transformateurs électriques), sans oublier Coreweave, spécialiste du cloud computing associé à plusieurs des projets d’OpenAI.

Sont également devenus milliardaires le fondateur de Surge AI, spécialisée dans l’étiquetage de données, ceux d’ElevenLabs, une start-up spécialisée dans la génération audio par IA, ceux de l’entreprise de « vibe coding » Lovable (qui vient de lever 330 millions de dollars et se targue d’avoir enregistré l’équivalent de 100 millions de dollars de revenu annuel récurrent en seulement huit mois), ou encore les trois co-fondateurs de la start-up Mercor, créée en 2023 et qui recrute des experts chargés d’évaluer et affiner les données pour le compte des grands laboratoires d’IA de la Silicon Valley. Âgés de seulement 22 ans, ils détrônent Mark Zuckerberg, qui était devenu milliardaire il y a près de 20 ans, à 23 ans.

La fortune du Top10 des milliardaires de la tech’ a explosé de 550 milliards de dollars

Les 10 milliardaires états-uniens les plus riches du secteur technologique ne sont pas en reste. Leur fortune combinée a en effet augmenté de plus de 550 milliards de dollars cette année, du fait de l’engouement des investisseurs pour les grandes entreprises spécialisées dans l’intelligence artificielle, relève le Financial Times.

D’après les données de Bloomberg, ils détenaient « près de 2 500 milliards de dollars en liquidités, actions et autres investissements » à la clôture de la Bourse de New York la veille de Noël, contre 1 900 milliards de dollars au début de l’année (soit + 31,6 %), quand le S&P 500 n’a grimpé « que » de plus de 18 % dans le même temps.

Les cofondateurs de Google détrônent ceux de Meta et Oracle

Elon Musk reste en tête du classement, avec une fortune nette ayant augmenté de près de 50 % pour atteindre 645 milliards de dollars. Et ce, alors qu’il a aussi conclu un plan de rémunération de mille milliards de dollars avec les actionnaires de Tesla, et que la valorisation de SpaceX a grimpé à 800 milliards de dollars.

Le FT relève également que Mark Zuckerberg et Larry Ellison d’Oracle ont été dépassés par les cofondateurs de Google, Larry Page et Sergey Brin, grâce à leurs modèles d’IA et puces développés en interne.

Suivent en effet Larry Page (270 milliards de dollars,+ 61 %), Jeff Bezos (255 milliards ,+ 7 %), Sergey Brin (251 milliards ,+ 59 %), Larry Ellison (251 milliards,+ 31 %), Mark Zuckerberg (236 milliards ,+ 14 %), Steve Ballmer (170 milliards ,+ 16 %), Jensen Huang de NVIDIA (156 milliards , 37 %), Michael Dell (141 milliards ,+ 14 %).

Dernier du Top 10, Bill Gates (118 milliards ,- 26 %) est le seul à avoir vu sa fortune chuter d’un quart de sa valeur potentielle, du fait qu’il continue à vendre ses actions afin de financer ses activités philanthropiques, précise le FT.

Mark Zuckerberg passe de la 3e à la 6e position

Il note que d’autres ont profité de cette explosion des cours boursiers pour vendre une partie de leurs actions et empocher de substantiels gains. Les documents déposés auprès des autorités boursières montrent que Huang a ainsi cédé pour plus d’un milliard de dollars d’actions cette année, Michael Dell plus de 2 milliards et Jeff Bezos 5,6 milliards.

Mark Zuckerberg, PDG de Meta, est de son côté passé de la 3e à la 6e position du classement suite à la récente chute du cours de l’action du réseau social. Le FT l’explique du fait que les investisseurs s’inquiéteraient de ses « dépenses considérables » dans les infrastructures d’IA et des montants faramineux proposés pour débaucher les « meilleurs chercheurs en IA ».

Le cours de l’action d’Oracle explose, puis perd 40 %

Larry Ellison a pour sa part vu sa fortune personnelle monter en flèche après qu’Oracle a annoncé, il y a trois mois, un contrat de 300 milliards de dollars avec OpenAI pour la construction d’un centre de données. Depuis, rappelle le FT, les craintes concernant le financement de la construction de ce centre de données ont cela dit entraîné une chute de 40 % du cours de l’action Oracle par rapport à son pic de septembre.

Évolution du cours de l’action Oracle en bourse en 2025

Les dirigeants de la Silicon Valley ont certes tiré profit des centaines de milliards de dollars dépensés à l’échelle mondiale dans les puces, les centres de données et les produits liés à l’IA, « même si certains de leurs gains ont été réduits ces derniers mois en raison des inquiétudes suscitées par une bulle spéculative alimentée par l’IA », tempère le FT.

« Tout cela n’est que spéculation et dépend du succès de l’IA », résume Jason Furman, professeur d’économie à l’université Harvard et consultant pour la start-up OpenAI : « Il y a un énorme point d’interrogation quant à savoir si tout cela va porter ses fruits, mais les investisseurs parient que ce sera le cas. »

☕️ La Belgique annule le marché « i-police » de 299 millions d’euros attribué à Sopra-Steria

29 décembre 2025 à 06:57

Lancé en 2017, signé en 2021, le projet « i-Police » était censé « moderniser les outils informatiques de la police fédérale » belge. Mais, révèle Le Soir, « suite à une évaluation approfondie, j’ai décidé d’arrêter le projet », explique Bernard Quintin, ministre de la Sécurité et de l’Intérieur.

« Les résultats sont loin des attentes », résume le cabinet du ministre, évoquant des « lacunes fondamentales dans l’exécution du marché public par le prestataire de services », à savoir le groupe français Sopra Steria, adossé à plusieurs partenaires.

Le Soir rappelle qu’il devait remplacer 80 applications existantes et « améliorer les services rendus aux citoyens ». Or, près de cinq ans plus tard, les 185 zones de police locales et les services fédéraux « doivent toujours composer avec une mosaïque de dizaines d’applications et de bases de données, dont certaines reposent sur des architectures héritées des années 1990 », souligne Le Soir.

Le système, précisait Télésambre, était censé pouvoir « rechercher automatiquement des informations dans d’autres bases de données auxquelles la police a accès », dont la Direction de l’immatriculation des véhicules et les bases de données de la Justice. Mais également proposer « une analyse et un recoupement automatiques des données, telles que les images des caméras, les photos, les empreintes digitales, les traces, les documents, … » :

« La standardisation des déclarations (numériques) et le suivi central des dossiers permettent d’assurer un échange d’informations plus rapide et efficace entre la police et les citoyens. En outre, le système offre aux citoyens une garantie de confidentialité et un contrôle transparent. Les fonctionnaires de police auront un accès limité et contrôlé aux informations des citoyens, sur la base de leur fonction et de leur mission à ce moment. »

Le logo de i-police, source : arch.partners

Le Soir évoque de multiples griefs, « par exemple : une connaissance insuffisante des produits proposés pour les missions, une appropriation limitée des processus, une méthodologie insuffisante, et une implication tardive des sous-traitants et éditeurs de logiciels ».

En 2023, un audit de Deloitte avait déjà dénoncé « un manque de vision sur la transformation numérique, des priorités floues » ainsi que des « failles dans la sécurisation des données », des « abus constatés par certains agents et un contrôle interne jugé insuffisant ».

Initialement estimé à 299 millions d’euros, le projet en a d’ores et déjà coûté 75,8 millions. La police fédérale souhaiterait désormais en récupérer une partie.

Les autorités voudraient également pouvoir réaffecter les sommes restantes dans des projets plus ciblés, « développés en fonction des besoins du terrain et en étroite collaboration entre la police fédérale, les zones locales et les services informatiques », précise le cabinet du ministre.

Le ministère de la Guerre US veut utiliser Grok & X.com, « du Pentagone jusqu’au terrain »

26 décembre 2025 à 08:19
Guest Star Wars
Le ministère de la Guerre US veut utiliser Grok & X.com, « du Pentagone jusqu’au terrain »

Le ministère de la Guerre (DoW) de l’administration Trump annonce des accords avec Google Gemini et xAI afin d’alimenter sa nouvelle plateforme GenAI.mil. Déployée sur tous les ordinateurs de bureau du Pentagone et des installations militaires américaines à travers le monde, elle vise à ouvrir une « nouvelle ère de domination mondiale » grâce au « génie commercial américain ».

War.gov, le site du ministère de la Guerre (DoW, ex-ministère de la Défense renommé en septembre) de l’administration Trump vient d’annoncer qu’il va « étendre son arsenal d’IA » grâce aux « capacités de pointe de la suite xAI for Government », mais sans expliquer comment, ni à quoi cela servira.

Tout juste apprend-on que, prévue pour un déploiement initial début 2026, cette intégration leur permettra d’utiliser les capacités de xAI « Impact Levels 5 (IL5), ce qui permettra le traitement sécurisé des informations contrôlées non classifiées (CUI) dans les flux de travail quotidiens ».

Protéger, stocker, traiter et transmettre des informations non classifiées

IL5 est le deuxième niveau de classification le plus élevé en matière de contrôles de sécurité pour les fournisseurs de services cloud du DoW, conçu pour protéger les informations sensibles contre les acteurs malveillants, explique IPKeys, un prestataire du DoW.

IL4 est en effet conçu pour protéger, stocker, traiter et transmettre des informations contrôlées non classifiées (CUI) liées à des opérations militaires ou d’urgence « qui, si elles étaient compromises, pourraient perturber les opérations, entraîner des pertes financières ou nuire à la vie privée ou au bien-être des personnes ».

IL5 vise pour sa part les informations non classifiées nécessitant un niveau de protection plus élevé, quand IL6 est réservé au stockage et au traitement d’informations classifiées jusqu’au niveau SECRET, et concerne les informations classifiées « qui, si elles étaient obtenues, pourraient menacer les intérêts de la sécurité nationale ».

IL5 viserait dès lors à protéger les Systèmes de sécurité nationale (NSSs) non classifiés soutenant les missions du ministère de la Guerre à :

  • la prévention des perturbations : IL5 protège les données nécessaires pour prévenir les défaillances logistiques, les retards opérationnels ou les vulnérabilités susceptibles de nuire aux missions.
  • la protection de la R&D : IL5 empêche les adversaires d’obtenir des informations sur les capacités militaires de pointe, ce qui permet de conserver un avantage technologique.
  • la protection des partenariats : IL5 garantit la sécurité des échanges de données avec les sous-traitants et les partenaires, protégeant ainsi les informations commerciales sensibles.

Utiliser Grok et X.com « du Pentagone jusqu’au terrain »

Ce nouveau partenariat entre xAI et le bureau du Chief Digital and Artificial Intelligence Officer (CDAO) du DoW permettra d’utiliser ses systèmes d’IA Frontier « alimentés par la famille de modèles Grok », se félicite le communiqué de xAI, « du Pentagone jusqu’au terrain ».

Il précise que xAI for Government est une plateforme d’IA qui combine l’accès aux modèles d’IA de pointe de xAI, à des outils agentiques, à une plateforme de recherche et à une API, et que xAI mettra à disposition une famille de modèles de base optimisés pour le gouvernement afin de prendre en charge les charges de travail opérationnelles classifiées.

Grok, le chatbot de xAI, est tristement connu pour défrayer régulièrement la chronique avec des propos négationnistes, faisant l’éloge d’Hitler, etc. De manière générale, Grok est un superdiffuseur de désinformation.

Le communiqué du DoW précise en outre que les 3 millions de militaires et de civils qu’il emploie « auront également accès à des informations mondiales en temps réel provenant de la plateforme X, ce qui procurera au personnel du ministère de la Guerre un avantage décisif en matière d’information ».

Une « nouvelle ère de domination mondiale » grâce au « génie commercial américain »

Les outils de xAI viendront compléter ceux de Gemini for Government de Google Cloud au sein de GenAI.mil, la nouvelle plateforme d’IA du DoW, qui « vise à former une main-d’œuvre axée sur l’IA, en tirant parti des capacités de l’IA générative pour créer une entreprise plus efficace et prête au combat », annoncée début décembre.

Le communiqué précisait que « d’autres modèles d’IA de classe mondiale seront mis à la disposition de tous les civils, sous-traitants et militaires, conformément au plan d’action de la Maison Blanche en matière d’IA ».

Annoncé par Donald Trump en juillet dernier, il vise à « atteindre un niveau sans précédent de supériorité technologique en matière d’IA ». Le DoW soulignait qu’en réponse à cette directive, « les capacités d’IA ont désormais été déployées sur tous les ordinateurs de bureau du Pentagone et des installations militaires américaines à travers le monde ».

Le communiqué précisait que « Gemini for Government offre un avantage concurrentiel grâce à la conversation en langage naturel, à la génération à enrichissement contextuel (RAG) et à son ancrage web basé sur Google Search, qui garantit la fiabilité des résultats et réduit considérablement le risque d’hallucinations de l’IA » :

« GenAI.mil est un autre élément constitutif de la révolution américaine en matière d’IA. Le ministère de la Guerre ouvre une nouvelle ère de domination opérationnelle, dans laquelle chaque combattant utilise l’IA de pointe comme un multiplicateur de force. Le lancement de GenAI.mil est un impératif stratégique indispensable pour nos forces armées, qui renforce encore la position des États-Unis en tant que leader mondial dans le domaine de l’IA. »

« Nous misons tout sur l’intelligence artificielle comme force de combat. Le département exploite le génie commercial américain et nous intégrons l’IA générative dans notre rythme de combat quotidien », avait déclaré le secrétaire à la Guerre Pete Hegseth : « Les outils d’IA offrent des possibilités illimitées pour accroître l’efficacité, et nous sommes ravis de constater l’impact positif futur de l’IA au sein du département de la Guerre. »

« Nous avons gagné la Première Guerre mondiale. Nous avons gagné la Seconde Guerre mondiale. Nous avons gagné toutes les guerres avant et entre les deux. Puis nous avons décidé de devenir « woke » et nous avons changé le nom en ministère de la Défense », avait de son côté déclaré Donald Trump début septembre, pour justifier ce pourquoi « Nous allons donc devenir le ministère de la Guerre. »

TAJ : le pirate a eu accès pendant 26 jours à 14 fichiers policiers et dérobé 120 fiches

24 décembre 2025 à 11:45
Un « code à six chiffres », srsly
TAJ : le pirate a eu accès pendant 26 jours à 14 fichiers policiers et dérobé 120 fiches

Le Canard enchaîné révèle que c’est l’algorithme de surveillance des accès au fichier TAJ qui aurait déclenché l’alerte, 13 jours après que le pirate y a eu accès après avoir dérobé l’identifiant et le mot de passe d’un policier.

Le Canard enchaîné révèle que le « fric-frac informatique du ministère de l’Intérieur » avait duré du dimanche 9 novembre au jeudi 4 décembre, soit 26 jours, « une très longue journée portes ouvertes ».

L’intrusion, révélée dans la presse le jeudi 11 et confirmée par le ministre le lendemain, aurait été découverte le samedi 22 novembre, grâce à l’algorithme qui surveille les requêtes effectuées dans le Traitement des antécédents judiciaires (TAJ). Ce fichier recense « 16,4 millions de personnes » ayant été « mises en cause », et dès lors « défavorablement connues » des services de police et de gendarmerie, pour reprendre l’expression consacrée.

« C’est la consultation compulsive – le week-end et la nuit – de ce listing ultra-sensible qui a déclenché l’alerte », souligne le Canard. Il ne précise pas cependant pourquoi il a fallu 13 jours à l’algorithme pour repérer qu’un pirate avait réussi à accéder au système de Circulation Hiérarchisée des Enregistrements Opérationnels de la Police Sécurisés (CHEOPS), le portail permettant d’accéder aux fichiers de la police et de la gendarmerie.

L’article ne précise pas non plus combien de temps il a fallu pour disculper le policier soupçonné d’avoir abusivement farfouillé dans le TAJ, et identifier qu’il s’était fait dérober ses identifiant et mot de passe.

Il relève toutefois qu’alerté, le parquet de Paris a de son côté ouvert une enquête préliminaire le 4 décembre (soit 12 jours après le déclenchement de l’alerte), « date à laquelle le pirate, se sentant sans doute pisté, cesse d’arpenter CHEOPS ».

37 serveurs compromis, 14 fichiers visités, 120 fiches dérobées

D’après le dernier bilan du ministère de l’Intérieur, que le Canard a pu consulter, « les dégâts sont bien plus importants qu’annoncé : 37 serveurs de messagerie sur 250 ont été compromis, et 14 fichiers de police ont été visités, dont celui des personnes recherchées, qui contient notamment les fichés S » :

« Sur le TAJ, où il s’est bêtement fait repérer, Melvin L. a dérobé 120 fiches personnelles et procédé au siphonnage de dizaines de milliers de noms inscrits dans ce fichier sensible. »

Pour accéder à CHEOPS, il suffit d’un identifiant et d’un code à six chiffres

Le Canard souligne que le pirate, interpellé le 17 décembre, aurait profité du fait que « nombre de poulets se tamponnent le coquillard de la sécurité informatique ». Pour se connecter à CHEOPS, les policiers et gendarmes doivent normalement utiliser leur carte professionnelle, dotée d’une puce, ainsi qu’un code à quatre chiffres.

À ceci près que « les poulets, moins disciplinés que les pandores, utilisent à tort et à travers un système de secours sans carte, reposant sur le seul identifiant et un code à six chiffres ». Identifiant et code que le policier aurait partagé en clair dans un e-mail auquel le pirate avait pu accéder.

« Celui qui a fait le coup n’est pas spécialement un cador », précise au Canard un commissaire : « il a laissé plein de traces qui ont permis de remonter à lui ». À défaut de savoir combien d’autres pirates, plus discrets, auraient eux aussi déjà pu accéder à CHEOPS de la sorte, le ministre de l’Intérieur vient d’ouvrir une enquête administrative sur les manquements à la sécurité informatique.

Reste donc aussi à comprendre pourquoi, en 2025, le recours à la double authentification n’a pas encore été rendu obligatoire, surtout pour accéder à un système aussi sensible. Mais également, comme le souligne bohwaz en commentaire, « pourquoi ces systèmes et fichiers sont accessibles depuis n’importe quelle IP et ne sont pas restreints à un intranet sécurisé du ministère de l’intérieur… »

La direction du Washington Post assume que son podcast généré par IA soit truffé d’erreurs

23 décembre 2025 à 15:15
WaPo could possibly go wrong ?
La direction du Washington Post assume que son podcast généré par IA soit truffé d’erreurs

La direction du Washington Post savait que son nouveau podcast généré par IA produisait de 64 à 84 % d’actus erronées, malgré un algorithme dédié. En proie à une perte de centaines de milliers d’abonnés, notamment depuis l’élection de Donald Trump et le recentrage droitier voulu par Jeff Bezos, sa direction assume de vouloir continuer à l’expérimenter.

Le 10 décembre dernier, Bailey Kattleman, la responsable produit et conception au Washington Post, expliquait à Digiday vouloir « attirer les jeunes auditeurs » avec une nouvelle offre de podcasts personnalisés grâce à l’IA.

L’objectif de Your Personal Podcast est de leur permettre de choisir leurs sujets préférés, afin de « façonner leur propre briefing, sélectionner leurs sujets, définir leur durée, choisir leurs animateurs et bientôt même poser des questions à l’aide de notre technologie Ask The Post AI », et proposer un nouveau moyen d’accéder à ses articles, de manière « flexible » et « attrayante ».

Capture d’écran du « Personalized podcast » du Washington Post

Interrogée par NPR, Bailey Kattleman évoquait une « expérience d’information audio alimentée par l’IA », qui permettrait « bientôt » aux auditeurs d’interagir avec le podcast. Kattleman précisait à Digiday que son équipe voulait permettre à ses utilisateurs de mettre le podcast en pause et de poser des questions à voix haute, afin d’obtenir davantage de contexte, de clarifier certains points ou de répondre à des questions.

Six mois de développement pour un podcast façon NotebookLM

Le podcast a été développé dans le cadre d’un accord pluriannuel entre le Washington Post et Eleven Labs, une société spécialisée dans les logiciels de génération vocale par IA, qui crée des versions audio d’articles pour des éditeurs tels que le Post, Time et The Atlantic.

Mais plutôt que de proposer une version audio des articles, l’IA associée au podcast sélectionne et assemble « environ quatre actualités principales », en fonction de l’historique de lecture et d’écoute de l’utilisateur et des sujets qu’il suit dans l’application.

La durée du podcast étant limitée à 8 minutes seulement, chaque actualité se retrouve dès lors résumée en moins de deux minutes, quelle que soit la longueur de l’article associé.

Un peu à la manière de NotebookLM, deux « animateurs IA » se relaient pour résumer les articles tout en « en discutant dans un ton plus décontracté que lors d’un briefing d’information classique », soulignait Digiday. L’article évoquait également l’engouement de certains médias pour les vidéos courtes façon TikTok, et ceux recourant à l’IA pour sélectionner et résumer des fils d’actus personnalisés.

Bailey Kattleman expliquait à Digiday que le projet, initié environ six mois plus tôt, était arrivé sans trop de difficultés « au stade de la démonstration », mais que le plus compliqué avait été de « perfectionner le podcast ».

Elle précisait que l’équipe produit du Post avait également créé un « algorithme de notation interne pour déterminer la qualité du podcast, en tenant compte de l’exactitude des faits, du ton des voix générées par l’IA, de l’attribution et du caractère engageant du podcast ».

NPR relevait cela dit qu’une note conseille aux auditeurs de l’application de « vérifier les informations » en comparant le podcast avec ses sources. Un avertissement figurant également en exergue des articles, eux aussi générés par IA, qui ont récemment valu à Politico d’être accusé de violer ses propres règles d’éthique éditoriale journalistique en publiant des articles « hallucinant » de fausses informations.

« Quelles sont les mesures mises en place pour garantir l’exactitude de ce podcast ? »

Las : le 11 décembre, soit 48 heures seulement après le lancement du podcast personnalisé généré par IA, le canal Slack du WaPo était submergé par des dizaines de messages de journalistes remettant en question la manière dont cette fonctionnalité avait été rendue publique par la direction, rapporte Status. Certains allaient jusqu’à le qualifier de « désastre » : « Quelles sont les mesures mises en place pour garantir l’exactitude de ce podcast ? », demandait par exemple un membre du personnel.


Il reste 71% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Une gardienne de la paix arrêtée pour avoir vendu des fichiers policiers sur Snapchat

22 décembre 2025 à 12:37

Une gardienne de la paix de 25 ans et son « petit ami » de 31 ans ont été arrêtés la semaine passée pour avoir vendu via Snapchat des informations émanant de fichiers policiers.

L’enquête aurait débuté en mai dernier, après que des enquêteurs de l’Office anti-cybercriminalité (OFAC) ont eu découvert une « story » Snapchat proposant d’acheter des accès à des fichiers policiers, rapportent BFMTV et Le Figaro.

Les investigations téléphoniques ont permis de remonter à une policière « affectée à la garde bâtimentaire et donc pas en charge d’enquêtes », précise le parquet de Paris. Depuis début 2024, elle aurait néanmoins effectué 94 consultations frauduleuses du fichier du traitement des antécédents judiciaires (TAJ) et 169 du fichier des personnes recherchées (FPR).

Son compte bancaire a par ailleurs permis d’identifier des virements de 15 à 5 000 euros émanant des personnes concernées, pour un bénéfice estimé à 12 000 euros.

Son petit ami, « très défavorablement connu des services de police » (expression désignant généralement le fait d’avoir été plusieurs fois « mis en cause » – MEC – dans le TAJ), se chargeait de trouver des clients. Les tarifs allaient de 30 euros pour une consultation du système d’immatriculation des véhicules (SIV), 150 euros pour le FPR, jusqu’à 250 euros pour une levée d’immobilisation d’un véhicule.

Les suspects ont été placés sous contrôle judiciaire avec interdiction d’entrer en contact et de quitter le territoire, et interdiction d’exercer toute fonction publique pour la policière, d’ici leur procès prévu pour le 15 juin 2026.

Le Figaro souligne par ailleurs que les affaires relatives aux « atteintes à la probité » dans la police nationale ont « pratiquement doublé en cinq ans », passant de 137 à 234 entre 2020 et l’année dernière. Cette « démocratisation » de la consultation des fichiers policiers résulterait du fait qu’ils sont accessibles à un plus grand nombre de fonctionnaires, ainsi qu’à la numérisation des procédures.

Le dernier rapport de l’Inspection générale de la Police nationale (IGPN, la « police des polices »), révèle que 93 enquêtes ont été ouvertes en 2024 pour « violation du secret professionnel » (soit le même nombre qu’en 2023), et 75 autres pour « détournement de fichiers » (93 en 2023). Ces violations ont donné lieu à 24 enquêtes ouvertes pour « corruption active » et 42 pour corruption passive, soit le double qu’en 2023.

L’IGPN avait alors annoncé vouloir renforcer le contrôle d’accès aux fichiers policiers, précisant qu’un chef de projet et deux « data scientists » travaillaient au développement d’un algorithme capable de détecter les usages « anormaux ».

Les pirates informatiques nord-coréens n’ont jamais été aussi actifs, et voraces

22 décembre 2025 à 08:40
Crypto Bros
Les pirates informatiques nord-coréens n’ont jamais été aussi actifs, et voraces

Plus de 1 800 « agents présumés » de la Corée du Nord ont cherché à être recrutés chez les sous-traitants d’Amazon en un an, en progression de 27 %. Les pirates informatiques nord-coréens ont en outre volé 2,02 milliards de dollars en cryptoactifs en 2025, soit 51 % de plus que l’an passé, pour un total de 6,75 milliards de dollars depuis 2016.

Amazon a « empêché plus de 1 800 agents présumés » de la République populaire démocratique de Corée du Nord (RPDC) de rejoindre leur entreprise depuis avril 2024, et « détecté 27 % de candidatures supplémentaires liées à la RPDC » en un an, indique Stephen Shmidt, le responsable sécurité (CSO) d’Amazon, sur LinkedIn.

La Corée du Nord cherche en effet depuis des années à obtenir des emplois en télétravail dans des entreprises d’informatique afin de reverser leurs salaires pour financer les programmes d’armement du régime, ou encore d’obtenir des accès privilégiés leur permettant d’insérer des malwares, d’exfiltrer des données et plus particulièrement de voler des cryptoactifs.

Stephen Shmidt précise qu’Amazon utilise des systèmes de détection combinant un filtrage basé sur l’IA et une vérification humaine, des vérifications des antécédents et références, à la recherche d’anomalies dans les candidatures et d’incohérences géographiques, et partage plusieurs des techniques, tactiques et procédures (TTP) des pirates nord-coréens :

  • leurs usurpations d’identité sont devenues plus sophistiquées, ils piratent aussi désormais des comptes LinkedIn inactifs grâce à des identifiants compromis, voire soudoient des comptes actifs contre rémunération ;
  • ils ciblent de plus en plus les postes liés à l’IA et à l’apprentissage automatique, « probablement parce que ceux-ci sont très demandés à mesure que les entreprises adoptent l’IA » ;
  • ils travaillent souvent avec des facilitateurs qui gèrent des « fermes d’ordinateurs portables », notamment aux États-Unis, qui font croire aux employeurs qu’ils sont dans le même pays alors qu’ils opèrent à distance depuis l’étranger ;
  • après avoir initialement prétendu être passés par des universités d’Asie de l’Est, ils tendent désormais à faire croire avoir été formés dans des établissements états-uniens.

« Ce sont les petits détails qui les trahissent. Par exemple, ces candidats indiquent souvent les numéros de téléphone américains avec « + 1 » au lieu de « 1 ». Pris isolément, cela ne signifie rien. Mais combiné à d’autres indicateurs, cela donne une image plus claire. »

Un décalage « à peine perceptible » de quelques dizaines de millisecondes

« Si nous n’avions pas cherché les travailleurs nord-coréens, nous ne les aurions pas trouvés », explique Stephen à Bloomberg, d’autant que ces vrais-faux employés ne sont pas recrutés directement par Amazon, mais par ses sous-traitants.

Amazon a surveillé la vitesse de transmission des frappes sur le clavier de l’ordinateur portable de l’un d’entre eux, censé se trouver aux États-Unis, qui « auraient dû mettre quelques dizaines de millisecondes pour atteindre le siège social d’Amazon à Seattle ». Or, le temps de transmission depuis cet ordinateur était « supérieur à 110 millisecondes », un décalage « à peine perceptible » mais suggérant que son utilisateur se trouvait à l’autre bout du monde, en Chine.

Un porte-parole d’Amazon a déclaré à Bloomberg News que les pirates nord-coréens passaient par des ordinateurs localisés aux États-Unis et administrés par une femme originaire d’Arizona. En juillet dernier, cette dernière a été condamnée à 8 ans et demi de prison pour les avoir aidés à travailler pour plus de 300 entreprises américaines, générant « plus de 17 millions de dollars de revenus illicites » pour la RPDC.

Des salaires pouvant aller jusqu’à 100 000 dollars par mois

Fin octobre, Chainalysis relevait que « ce qui n’était au départ qu’un simple programme d’emploi s’est transformé en une opération mondiale sophistiquée », mais également que « les informaticiens nord-coréens gagnent désormais entre 3 500 et 10 000 dollars par mois, les plus performants pouvant atteindre 100 000 dollars par mois » :

« Opérant principalement depuis la Chine et la Russie, ces travailleurs utilisent plusieurs fausses identités (parfois jusqu’à 12 par personne) et ciblent spécifiquement des entreprises dans des secteurs stratégiques tels que l’intelligence artificielle (IA), la blockchain et la défense. En outre, il semble que la Corée du Nord cible de plus en plus les entreprises en Allemagne, au Portugal et au Royaume-Uni. »

Un butin cumulé de 6,75 milliards de dollars de cryptoactifs

Un rapport de Chainalysis consacré aux vols de cryptoactifs en 2025 souligne de son côté que la Corée du Nord « continue de représenter la menace la plus importante pour la sécurité des cryptomonnaies, avec une année record en termes de fonds volés, malgré une réduction spectaculaire de la fréquence des attaques ».

En 2025, les attaques des pirates informatiques nord-coréens ont en effet représenté « un record de 76 % de toutes les compromissions de services » (contre 61 % en 2024), et permis de dérober « au moins 2,02 milliards de dollars » en cryptomonnaies, soit 681 millions (et 51 %) de plus qu’en 2024.

Chainalysis rappelle que le groupe nord-coréen Lazarus, responsable d’une majorité des attaques contre des cryptoactifs dans le monde, avait en effet réussi à dérober 1,5 milliard de dollars à la bourse d’échange Bybit en février 2025.

Depuis 2016, ces braquages à répétition leur auraient permis de voler un montant cumulé de 6,75 milliards de dollars de cryptoactifs.

Évolution des montants volés par les pirates nord-coréens – Chainalysis

Chainalysis précise que les montants escroqués seraient les plus importants jamais enregistrés, notamment parce qu’ils parviennent à infiltrer des informaticiens dans des entreprises de cryptos, de l’IA et de la blockchain, « ou en utilisant des tactiques sophistiquées d’usurpation d’identité visant les cadres supérieurs ».

Les pirates nord-coréens chercheraient de plus en plus à infiltrer les entreprises liées aux cryptoactifs afin d’obtenir des accès privilégiés, et de maximiser les montants de leurs braquages, note Chainalysis : « une partie de cette année record reflète probablement une dépendance accrue à l’égard de l’infiltration d’informaticiens dans les bourses, les dépositaires et les entreprises web3, ce qui peut accélérer l’accès initial et les mouvements latéraux avant un vol à grande échelle ».

Des stratégies d’ingénierie sociale ciblant des cadres supérieurs

De plus, et non contents de simplement postuler à des postes afin d’être recrutés en tant qu’employés, « ils se font de plus en plus passer pour des recruteurs de grandes entreprises du web3 et de l’IA, orchestrant de faux processus de recrutement qui aboutissent à des « tests techniques » conçus pour récolter les identifiants, le code source et l’accès VPN ou SSO à l’employeur actuel de la victime ».

Chainalysis évoque également une stratégie similaire d’ingénierie sociale ciblant des cadres supérieurs, et prenant la forme de « fausses prises de contact de la part de prétendus investisseurs ou acquéreurs stratégiques », qui profitent de réunions de présentation et de pseudo-vérifications préalables pour « obtenir des informations sensibles sur les systèmes et des voies d’accès potentielles à des infrastructures de grande valeur ».

À l’instar de ce que Chainalysis avait déjà constaté ces dernières années, « la Corée du Nord continue de mener des attaques d’une valeur nettement supérieure à celles des autres acteurs malveillants ». Entre 2022 et 2025, les piratages qui lui ont été attribués « occupent les fourchettes de valeur les plus élevées, tandis que les piratages non attribués à la Corée du Nord présentent des distributions plus normales pour toutes les tailles de vols », comme le montre le graphique qui suit : « Cette tendance confirme que lorsque les pirates nord-coréens frappent, ils ciblent les grands services et visent un impact maximal ».

Les braquages de cryptos des pirates nord-coréens surclassent les autres – Chainalysis

« La capacité de cet État-nation à mener des attaques moins nombreuses mais beaucoup plus destructrices témoigne d’une sophistication et d’une patience croissantes », conclut Chainalysis.

Un quart des Français visitent les sites d’infos générées par IA recommandés par Google

18 décembre 2025 à 16:20
KO Boomers
Un quart des Français visitent les sites d’infos générées par IA recommandés par Google

14 à 16 millions d’internautes français consultent chaque mois l’un des 251 sites d’infos GenAI les plus recommandés par Google et identifiés par Next, selon une étude de Médiamétrie pour le Groupement des éditeurs de services en ligne. Près des trois quarts (74 %) de ces internautes ont plus de 50 ans, au point que ces derniers visitent plus de sites d’infos GenAI que de vrais sites d’actualités. 77 % y sont envoyés par l’un des services de Google (Discover, Search ou Actualités), et 10 % via Meta.

Dans la mesure où la lutte contre la désinformation nous semble un enjeu de salubrité (numérique) publique, cet article, en principe réservé aux lecteurs premium de Next, est exceptionnellement en accès libre pour 24 heures. Ce sont vos abonnements qui rendent possible ce genre d’enquête au long cours, merci !


« Plus de 1 000 médias en français, générés par IA, polluent le web (et Google) », titrait Next en février dernier, dans le tout premier de la vingtaine d’articles que nous avons depuis consacrés à ce que nous qualifions de « véritable « pollution » numérique et médiatique ».

Nous précisions alors avoir « de bonnes raisons de penser qu’il en existerait plusieurs milliers », mais également avoir « identifié une centaine de ces pros de l’info GenAI, sans pouvoir mesurer combien de dizaines (voire de centaines) d’autres se seraient lancés dans ce douteux (mais lucratif) « business » ». Nous avons depuis identifié près de 8 900 sites « en tout ou partie générés par IA » (GenAI), administrés (et monétisés) par plus de 200 éditeurs.

Début octobre, Next révélait que près de 20 % des 1 000 sites d’info les plus recommandés par Google Discover, et 33 % des 120 sites les plus recommandés par Google News, à la rubrique Technologie, étaient générés par IA.

L’algorithme Discover de « recommandation de contenus » de Google, la principale source de trafic des sites journalistiques français, est en effet devenu une « pompe à fric » pour les sites monétisés par la publicité, majoritairement financés par… la régie publicitaire de Google. Au point que de nombreux professionnels du référencement et du marketing numérique s’y sont lancés, attirés par l’appât du gain.

Perdu dans le jargon ? Petit lexique pour s’y retrouver


Discover : la mission historique de Google est d’amener des réponses aux requêtes des internautes, mais le moteur développe depuis des années des outils de recommandation, qui sélectionnent automatiquement des contenus et les affichent aux utilisateurs de Google, de Chrome et d’Android. Sur mobile, les suggestions Discover sont par exemple visibles dès l’interface du système d’exploitation. Elles sont devenues la principale source de trafic des médias français.

Poper : de l’anglais to pop, qui signifie sauter ou éclater. Ce terme est utilisé par les professionnels du référencement pour désigner la capacité à faire apparaitre un site ou un contenu donné au sein des outils de recommandation automatisés.

SEO : de l’anglais search engine optimization, soit optimisation pour les moteurs de recherche. Le terme recouvre à la fois les pratiques techniques ou éditoriales visant à favoriser l’apparition d’un site dans les moteurs de recherche, et l’activité de service qui s’est créée autour de cet objectif.

16 millions d’internautes par mois, soit plus d’1/4 de la population française

Next a depuis été contacté par le Groupement des éditeurs de services en ligne (GESTE, qui en fédère plus d’une centaine), et l’entreprise de mesure d’audience Médiamétrie. Cherchant à quantifier le phénomène à l’échelle du marché, nous leur avons proposé d’analyser l’audience des 251 sites GenAI figurant ou ayant figuré dans le Top1000 des sites recommandés par l’algorithme Discover de Google (retrouvez l’étude intégrale en pied de cet article, et le communiqué du GESTE).

À notre grande surprise, le panel de près de 20 000 internautes constitué par Médiamétrie indique que ces 251 sites enregistrent en moyenne, depuis le début de l’année, entre 14 et 16 millions de visiteurs uniques (VU) par mois, soit plus d’un quart de la population française de plus de 15 ans.

Les plus de 50 ans visitent plus de sites GenAI que de vrais sites d’infos

Seconde découverte, elle aussi accablante : la surreprésentativité des « inactifs », et des plus de 50 ans. D’après le panel de Médiamétrie, 52% des visiteurs quotidiens de sites GenAI seraient inactifs (hors étudiants), contre 42% dans l’audience quotidienne des sites d’actualités, alors qu’ils ne représenteraient que 29 % de la population.

Et si les personnes de 50 à 64 ans et de plus de 65 ans représentent chacun 23 % de la population française, elles représentent 31 et 43 % des internautes consultant des sites GenAI dans le mois, soit près des trois quarts (74 %) d’entre eux, alors qu’ils ne représenteraient que 46 % de la population.

A contrario, les 15 - 24 ans et les 25 - 49 ans, qui représenteraient respectivement 14 et 35 % de la population, ne constituent que 3 et 23 % des internautes consultant des sites d’infos générées par IA. Les personnes âgées semblent en effet plus particulièrement susceptibles de tomber dans le piège de ce type d’infox et images GenAI, au point d’être qualifiées de « pièges à boomers », ou « boomer traps ».

Si 24,5 % des internautes du panel de Médiamétrie ont consulté au moins un site GenAI dans le mois, le taux s’élève à 30,6 % chez les CSP+, 34 % chez les inactifs (hors étudiants), 37,5 % chez les 50 - 64 ans et 36,7 % chez les plus de 65 ans.

L’analyse du panel de Médiamétrie indique en outre que si les internautes de moins de 50 ans visitent plus de sites figurant dans le Top10 des sites d’actualités que de sites GenAI, les plus de 50 ans visitent plus de sites d’infos générées par IA que de vrais sites d’infos.

L’étude de Médiamétrie montre également que les visiteurs de sites GenAI « surconsomment Internet » : 84 % d’entre-eux consultent en effet quotidiennement des sites d’informations, contre 36 % des internautes en moyenne.

Pour autant, si les internautes passent en moyenne 11 minutes 14 secondes par jour sur les sites d’actualité, à raison de 10 pages par internaute, et de 1 minute 8 secondes par page, le temps passé sur les sites GenAI ne serait, lui, que de 1 minute 15, pour 3 pages par jour, et 25 secondes par page seulement.

L’application de recommandation de contenus liée à l’algorithme Discover n’étant pas (encore) disponible sur les ordinateurs de bureau, 88,8 % de ces visiteurs uniques de sites GenAI l’ont fait depuis leurs téléphones mobiles ou tablettes.

Et si 10 % d’entre-eux avaient cliqué sur un lien partagé sur les plateformes de Meta (Facebook voire Instagram), 77 % (soit plus des trois quarts) y avaient été envoyés via l’un des services de Google (Discover, Search ou Actualités, hors GMail).

Et ce, alors que Google n’a de cesse de répéter, depuis des mois, que ses « systèmes antispams » excluent « 99 % […] des contenus de faible qualité ». Un chiffre qu’un responsable de l’équipe Trust and Safety de Google vient pourtant de relativiser… en se référant aux enquêtes de Next !

Next, fournisseur (non-)officiel de punchlines de Google Trust and Safety

Intervenant début décembre à Search Central Live Zurich 2025, un évènement dédié aux professionnels du SEO et du marketing digital, Andres Almeida, directeur adjoint de l’équipe Trust and Safety de Google, reconnaissait en effet que l’AI Slop (du nom donné à ces contenus bas de gamme générés par IA) « envahit le monde et [que] Discover n’est pas à l’abri ».

Il évoquait notamment le fait que nombre de ces sites reposent sur des fermes de contenus (Private Blog Networks, ou PBN en anglais) basés sur des noms de domaines expirés (afin de capitaliser sur leur réputations passées dans le ranking de Google), le recours à des techniques de « black hat SEO » (cherchant à « hacker » les algorithmes du moteur de recherche), et expliquait vouloir endiguer ce type de « spam ».

Or, une des slides utilisées pour illustrer sa démonstration reprenait, traduits en anglais, les titres (et sous-titres) de deux de la vingtaine d’articles que nous avons consacrés depuis février à cette pollution du web en général et de Google en particulier par des infos générées par IA : celui qui pointait du doigt le fait que près de 20 % des 1 000 sites d’info les plus recommandés par Google Discover étaient générés par IA, et celui qui expliquait les motivations de leurs éditeurs : « « gruger Google » pour faire du fric ».

Notre base de données des sites d’infos générées par IA en dénombre désormais près de 8 900 (rien qu’en français). Pour en avoir le coeur net, nous en avons soumis un échantillon restreint à Médiamétrie afin de réaliser cette première analyse du trafic enregistré par les sites GenAI à ceux qui avaient été les plus recommandés par Google Discover.

Au vu des pertes de revenus publicitaires que subissent les médias parasités et de la monétisation de la plupart des sites GenAI par AdSense, la régie publicitaire de Google se retrouve juge et partie. Concurrencés par les sites GenAI, les médias subissent par ailleurs des pertes de trafic, susceptibles d’affecter le montant des droits voisins que leur verse Google.

Non contents de voir ces droits minorés, les médias employant des journalistes humains sont même floués une troisième fois. En effet, ces sites GenAI n’existeraient pas si les grands modèles de langage (LLM) et IA génératives qu’ils utilisent n’avaient été entraînés sur du contenu produit par des humains, et notamment sur des articles écrits par des journalistes.

Or, et en l’état, aucun mécanisme de contrepartie financière n’a été mis en œuvre afin de compenser ce pillage des médias, ni de la part des éditeurs d’IA, ni de la part des prestataires de générateurs d’articles conçus pour masquer qu’ils relèvent du plagiat (nous y reviendrons), ni de la part de ces éditeurs de sites GenAI. Ce pourquoi le ministère de la Culture envisage la possibilité d’une « inversion de la charge de la preuve » ou d’une « présomption d’utilisation des contenus culturels par les fournisseurs d’IA ».

À titre d’illustration, les 5 sites de l’éditeur figurant en tête du Top 10 de Médiamétrie totaliseraient 7,25 millions de « visiteurs uniques ». Or, cet éditeur administre 27 autres sites. De même, les 5 sites de l’éditeur figurant en 3e position totalisent 4 millions de « visiteurs uniques ». Ce dernier en administre une quinzaine d’autres.

L’étude de Médiamétrie montre en outre que 10 sites GenAI dénombrent de 1 à 4 millions de « visiteurs uniques » pour ce seul mois d’octobre 2025, et donc encore plus de pages vues parasitant des médias faisant travailler des journalistes, quand ils ne plagient pas leurs articles.

En outre, ce premier échantillon de 251 sites n’émane que de 85 éditeurs différents. Y figurent majoritairement des professionnels du SEO, mais également quelques groupes de presse, dénombrant dans leurs fermes de sites respectives plus de 2 000 autres sites d’infos GenAI.

Il serait donc non seulement instructif de pouvoir mesurer le poids de ces 2 000 autres sites potentiellement susceptibles, eux aussi, d’être recommandés par Discover ou Google Actualités, mais également d’étendre l’étude à l’ensemble des 8 900 sites GenAI que nous avons identifiés, ainsi qu’à leurs éditeurs respectifs.

À titre de comparaison, notre base de données répertorie en effet plus de 200 éditeurs administrant au moins 5 sites GenAI, dont 130 plus de 10, 70 plus de 25 et 35 plus de 50. Tous reposent peu ou prou sur le pillage et recyclage de contenus préalablement produits et mis en ligne par des humains, voire sur le plagiat généré par IA d’articles de journalistes.

L’objectif de cette première mesure d’audience est aussi de créer un Baromètre des sites GenAI qui permettrait de creuser plus avant la problématique, et d’étendre le périmètre des sites analysés à tout ou partie de notre base de données.

Téléchargez notre extension web (gratuite) pour être alerté lorsque vous visitez un site d’info généré par IA


Nous avons développé une extension pour les navigateurs Chrome (et donc Brave, Vivaldi, Opera, Microsoft Edge, etc.) et Firefox (y compris en version mobile sur Android), qui tourne en tâche de fond et affiche un pop-up d’alerte lorsque ses utilisateurs consultent un des 8 900 sites d’information dont nous avons identifiés que leurs contenus sont « en tout ou partie » générés par des intelligences artificielles génératives.

extension GenAI

Afin de vous prémunir des autres risques de cyberarnaques, notre extension prend également en compte deux autres listes : celle de plus de 30 000 noms de domaine « suspects » de Red Flag Domain, ainsi que la liste noire des entités non autorisées à proposer des produits ou services financiers en France de l’Autorité des marchés financiers (AMF).

Télécharger notre extension sur Firefox
Télécharger notre extension sur Chrome

Les IA de Politico ont violé les règles d’éthique éditoriale journalistique de Politico

15 décembre 2025 à 10:28
There is no IAlternative
Les IA de Politico ont violé les règles d’éthique éditoriale journalistique de Politico

Le syndicat des journalistes de Politico a remporté une « victoire majeure », qui devrait faire jurisprudence aux États-Unis, en matière de recours à l’IA dans les médias. Leurs rédacteurs en chef avaient plaidé, en vain, que les contenus générés par IA ne devraient pas être soumis aux normes éthiques et éditoriales, au motif qu’elles étaient développées par des ingénieurs, et non par des journalistes.

PEN Guild, le syndicat des journalistes états-uniens de Politico et E&E News (sa filiale dédiée aux actualités liées à l’énergie et l’environnement) vient d’annoncer une « victoire majeure » contre la direction de Politico concernant l’introduction « unilatérale » par l’entreprise d’outils d’intelligence artificielle qui « contournaient les garanties négociées et portaient atteinte aux normes journalistiques fondamentales ».

L’an passé, la PEN Guild avait en effet ratifié une convention collective (.pdf) comportant « certaines des dispositions les plus strictes du secteur en matière d’intelligence artificielle ». La convention obligeait notamment la direction de Politico à donner un préavis de 60 jours et à engager des négociations « de bonne foi » avant d’introduire de nouveaux outils d’IA susceptibles d’avoir un « impact significatif » sur les tâches professionnelles, ou qui pourraient entraîner des licenciements.

L’accord exigeait également que toute IA utilisée dans la collecte d’informations soit conforme aux normes éthiques de Politico et fasse l’objet d’une supervision humaine, afin de « garantir que tout contenu généré par l’IA respecte les mêmes normes éthiques et éditoriales que les reportages rédigés par des humains ».

Or, en juillet 2025, le syndicat avait accusé Politico d’avoir enfreint ces dispositions à deux reprises, avant de lancer une pétition et un recours. Il lui reprochait les faits suivants :

  • la couverture en direct, générée par une IA nommée LETO, d’événements politiques majeurs, effectuée sans notification syndicale ni révision humaine. PEN Guild déplorait notamment que l’IA ait évoqué des expressions telles que « immigrant illégal » ou « migrants criminels », que Donald Trump avait bien employées, comme l’avait alors rapporté Politico, mais dont la reprise sans contextualisation est proscrite par le guide de style (Stylebook) de la rédaction. L’IA avait aussi généré des erreurs factuelles, qui avaient en outre été « discrètement supprimées, contournant les protocoles de correction éditoriale standard ». Ces derniers prévoient que la rédaction soit transparente quant à ses mises à jour, corrections et rétractations.
  • le lancement unilatéral d’un outil d’IA, Report Builder, développé par la start-up Capitol.ai, que les abonnés pouvaient utiliser pour générer des rapports de 500 mots « sur n’importe quel sujet, [mais] sans aucun contrôle ni modification de la part du personnel de Politico pour s’assurer de leur véracité ». Or, le syndicat y avait là aussi trouvé de « nombreuses erreurs factuelles majeures ». L’outil aurait notamment affirmé que l’arrêt Roe v. Wade restait en vigueur (alors que c’était précisément Politico qui avait révélé son annulation). Il aurait aussi « halluciné » les combats menés par des groupes de lobbying inexistants, tels qu’une soi-disant « Ligue des plombiers gauchers », comme Semafor l’avait alors révélé.

« L’IA doit être au service du journalisme, et non lui nuire »


Il reste 75% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Reworld Media hallucine et publie n’importe quoi, mais ce n’est pas à cause de l’IA (2/2)

5 décembre 2025 à 16:04
We are Reworld, we are the children
Reworld Media hallucine et publie n’importe quoi, mais ce n’est pas à cause de l’IA (2/2)

Premier éditeur de presse magazine en France, et 3ᵉ groupe média sur le web et les réseaux sociaux, Reworld Media estime que les sites d’infos générées par IA auraient fait perdre des dizaines de millions d’euros aux médias depuis que l’algorithme de Google a commencé à recommander leurs articles. Il vient de commencer à faire pareil, ou presque. Étrangement, nombre de ses articles « augmentés » par l’IA publient comme images d’illustration des… bras cassés coupés.

Nous n’avons matériellement pas pu, faute de temps, vérifier l’ensemble des sites web des 81 « marques médias propriétaires » de Reworld Media, premier éditeur de presse magazine français en nombre de journaux détenus, et 3ᵉ groupe média sur le web et les réseaux sociaux.

Nous avions précédemment découvert que parolesdemamans.com avait publié une rafale d’articles avançant qu’en France des crèches acceptaient des poupées « reborn » (hyperréalistes) au détriment de bébés humains. Mais celui-ci n’est pas le seul site du groupe à avoir récemment mis en ligne des articles problématiques, et potentiellement générés par IA (GenAI).

Aurélia Baranes est co-fondatrice directrice de publication de Serieously, qu’elle présente comme le « premier média d’infotainment indépendant en France », et l’un des « leaders sur le segment de la pop culture ». Lancé en 2017, il représenterait aujourd’hui 6 millions de visiteurs uniques par mois, et emploie une vingtaine de personnes à ce jour.

Elle était auparavant journaliste culture à Be.com, l’un des sites du groupe Reworld Media, de 2014 à 2017. Or, et alors que sa page de profil indiquait qu’elle n’y avait plus rien publié depuis septembre 2016, des articles signés de son nom ont commencé à y réapparaître à partir de la mi-septembre 2025.

Mais si ses précédents articles portaient sur ses spécialités, à savoir le cinéma et les séries TV, ses nouveaux articles, dont la plupart étaient illustrés par des photos de stock ou des images GenAI créditées Canva, concernaient le « pic de chaleur attendu ce week-end », la revalorisation à venir de la retraite complémentaire Agirc-Arrco, paraphrasant des communiqués de Météo France ou de la Banque de France.

Le 19, elle signait par exemple un article consacré aux augmentations de salaires à venir en 2026. Il s’agissait en fait d’une reprise d’un décryptage signé par deux journalistes des Echos, publié quatre jours plus tôt. Or, l’article signé Aurélia Baranes sur Be.com comporte deux citations, qui ne figurent pas dans l’article des Echos, mais qui en paraphrasent des extraits.

« Nous observons une forte prudence face à une situation économique incertaine », déclare au journal Les Echos Sophie Lazaro, directrice capital humain chez Deloitte.« On est vraiment dans un contexte complexe pour se projeter avec beaucoup d’incertitude au niveau national comme international », observe Sophie Lazaro, directrice capital humain chez Deloitte.
À gauche, l’article de Be.com, à droite, celui des Echos

Et si Les Echos mentionnaient bien trois citations de Khalil Ait Mouloud, directeur des enquêtes de rémunération chez WTW, les propos qui lui sont prêtés semblent eux aussi avoir été « hallucinés », en paraphrasant un passage écrit par les journalistes :

Un des grands changements attendus pour 2026 réside dans l’introduction de la directive européenne sur la transparence salariale. À partir de juin 2026, cette législation obligera les entreprises à publier les fourchettes salariales des postes proposés dans leurs annonces de recrutement. Si cette mesure vise avant tout à réduire les inégalités salariales, elle pourrait aussi entraîner une dynamique de réajustement salarial pour les salariés actuels.
« Les employés disposeront désormais d’une meilleure visibilité sur les rémunérations offertes, ce qui pourrait les pousser à demander des augmentations s’ils estiment être sous-payés« , explique Khalil Ait Mouloud, directeur des enquêtes de rémunération chez WTW.
Les sociétés doivent aussi anticiper la transposition de la directive européenne sur la transparence des salaires – qui interviendra au plus tard en juin 2026 – et qui pourrait peser sur la masse salariale. Elle imposera aux entreprises d’afficher, dans leurs offres d’emploi, le salaire initial prévu pour le poste ou une fourchette de rémunération. Une aubaine pour les salariés en poste, qui sauront à combien leur entreprise recrute… et qui pourraient donc être tentés de demander une augmentation s’ils s’estiment sous-payés.
À gauche, l’article de Be.com, à droite, celui des Echos

Or, ce type d’ « hallucinations » est un marqueur typique des contenus générés par IA (GenAI) que nous documentons depuis des mois, les chatbots ne faisant pas la distinction entre un « texte » (qu’il est possible de paraphraser, ne serait-ce que pour éviter les accusations de plagiat ou de contenu dupliqué, que pénalisent les moteurs de recherche, en matière de référencement) et les « citations ». Dans un article, celles-ci ne sauraient bien évidemment être modifiées, paraphrasées, encore moins inventées.

Contactée, Aurélia Baranes nous répond qu’elle n’était « absolument pas au courant », avant de rajouter, 30 minutes plus tard : « Je découvre l’ampleur des articles à mon nom, c’est affolant ! On dirait des articles faits par IA en plus ».

Son avocat a depuis adressé un courrier à Reworld Media « parce que je trouvais ça assez violent », nous a-t-elle depuis expliqué, et les nouveaux articles GenAI qui lui étaient attribués ont été effacés dans la foulée.

Contacté, Jérémy Parola, directeur des activités numériques de Reworld Media, nous répond que « c’est un pigiste qui a merdé avec le CMS [système de gestion de contenus, ndlr], on a supprimé l’intégralité des articles ». Il se dit d’autant plus peiné qu’ « on s’entend bien avec elle ».

25 articles par jour, à raison d’un par heure, 24 h/24, 7j/7

Évoquant le cas de « pigistes qui passent de 2 contenus/jour à plusieurs dizaines », Jérémy Parola précise par ailleurs qu’à Reworld, le fait de générer des articles par IA, sans relecture ni supervision, est proscrit par contrat :


Il reste 82% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Reworld Media hallucine et publie n’importe quoi, mais ce n’est pas à cause de l’IA (1/2)

4 décembre 2025 à 13:36
Reborn to be wild
Reworld Media hallucine et publie n’importe quoi, mais ce n’est pas à cause de l’IA (1/2)

En France, des crèches acceptent des poupées « reborn » (hyperréalistes) au détriment de bébés humains, avance un site du groupe Reworld. Il s’agit en fait d’infox et canulars ayant fait le buzz sur TikTok, relayés au premier degré. Contacté, le directeur des activités numériques du groupe aurait « bien voulu que ce soit une hallucination émanant d’une IA », mais nous « certifie qu’aucun article n’a été écrit par de l’IA ».

Premier éditeur de presse magazine français en nombre de journaux détenus, avec plus de 80 marques médias thématiques, Reworld Media est aussi le 3ᵉ groupe média sur le web et les réseaux sociaux. L’entreprise est connue (et régulièrement critiquée) pour racheter des journaux, remplacer ses journalistes par des rédacteurs web spécialistes du référencement (SEO) privilégiant la quantité à la qualité, et substituer les articles d’information des médias qu’il rachète par de la « junk news » et du « brand content ».

Interrogé en octobre dernier au sujet de l’IA, Gautier Normand, son directeur général et co-fondateur, expliquait à ZoneBourse : « Les moteurs d’IA constituent une opportunité pour Reworld ». Il reconnaissait aussi : « Nous utilisons l’IA pour gagner en productivité en interne ». Et précisait dans la foulée qu’ « En revanche, utiliser l’IA pour rédiger des articles serait l’erreur à ne surtout pas commettre… ».

Voire. Mi-novembre, paroledemamans.com (un site du groupe aufeminin, racheté à TF1 par Reworld Media en 2019) a consacré pas moins de 9 articles aux bébés reborn (du nom donné à ces poupées hyperréalistes de bébés) en deux jours. Tous illustrés par des images générées par IA, ces derniers ont interpellé de nombreuses personnes sur les réseaux sociaux.

Il y était en effet question de crèches qui accepteraient des bébés reborn (au détriment de vrais bébés humains), d’une femme ne comprenant pas que son bébé reborn aurait a contrario été refusé dans la crèche où elle voulait le placer, de médecins qui refuseraient d’examiner les bébés reborn ou encore que, même en poussettes, ils ne sauraient être prioritaires à la caisse des grands magasins.

Alerté sur X.com à ce sujet, nous avons donc cherché à remonter le fil de cette histoire abracadabrantesque, et découvert que des infox, rumeurs et canulars à ce sujet avaient effectivement circulé cet été sur TikTok et Facebook. Surtout, parolesdemamans.com s’est contenté de les relayer au premier degré, sans les vérifier, les démentir ni les contextualiser.

En vertu de la loi dite de Brandolini (aphorisme selon lequel « la quantité d’énergie nécessaire pour réfuter des sottises […] est supérieure d’un ordre de grandeur à celle nécessaire pour les produire »), cela nous a pris du temps. Mais également permis de mieux comprendre pourquoi (et comment) Reworld Media recourt à l’IA, et pourquoi, depuis le mois d’octobre, de plus en plus de ses contenus partagent de nombreux traits caractéristiques des sites d’infos en tout ou partie générés par IA (GenAI) que notre enquête-fleuve (24 articles à ce jour) documente depuis des mois.

Les « mamans reborn, ça n’existe pas »


Il reste 88% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

La police judiciaire contourne la loi pour fouiller le méga « fichier des gens honnêtes »

28 novembre 2025 à 12:37
Une porte dérobée... juridique
La police judiciaire contourne la loi pour fouiller le méga « fichier des gens honnêtes »

Initialement promu par Nicolas Sarkozy, le méga « fichier des gens honnêtes » centralisant les données personnelles, photos de visages et empreintes digitales des demandeurs de passeport et de carte nationale d’identité ne devait pouvoir être utilisé que par certains agents de services de renseignement. La Quadrature du Net a découvert qu’il était régulièrement employé par la police judiciaire.

La Quadrature du Net (LQDN) vient de saisir la CNIL après avoir recueilli des témoignages et « preuves formelles » indiquant que la police judiciaire « détourne le fichier des passeports et des cartes d’identité » afin d’y récupérer des empreintes digitales et photographies « par un contournement de la loi ».

La genèse de ce fichier des titres électroniques sécurisés (TES), centralisant les données (y compris biométriques) recueillies lors des demandes de passeport et de cartes nationales d’identité (CNI) remonte aux attentats de 2001. Entre autres mesures sécuritaires adoptées dans la foulée, les autorités états-uniennes imposèrent à leurs pays amis d’inclure une puce RFiD sans contact dans leurs passeports, ce qui fut fait, en France, fin 2005.

Afin de se conformer à un règlement européen, de faciliter les démarches administratives et de lutter contre la « fraude documentaire », rappelle LQDN, l’image numérisée du visage et des empreintes digitales furent ajoutées au sein de la puce à partir de 2008.

Ce qui était initialement présenté comme un « passeport électronique » devenait dès lors biométrique, et les photos d’identité et empreintes associées furent elles aussi versées au fichier centralisant les données contenues dans le passeport, en dépit d’un avis défavorable de la CNIL.

Dans sa délibération, elle relevait en effet que « même si le ministère de l’Intérieur […] s’engage à préciser aux termes du projet de décret qu’il ne sera pas possible de procéder à une recherche en identification à partir de l’image numérisée des empreintes digitales et que le système envisagé ne comportera pas de dispositif de reconnaissance faciale à partir de l’image numérisée de la photographie, la conservation dans une base centrale des images numérisées du visage et des empreintes digitales semble disproportionnée ».

Une atteinte disproportionnée au respect de la vie privée

En 2012, une proposition de loi relative à la protection de l’identité, soutenue par Claude Guéant, alors ministre de l’Intérieur de Nicolas Sarkozy, était adoptée afin d’insérer une puce électronique sécurisée dans les cartes nationales d’identité contenant ces mêmes identifiants biométriques.

Elle visait aussi à permettre expressément aux agents chargés des missions de recherche et de contrôle de l’identité des personnes d’y accéder et à des officiers de police judiciaire de pouvoir utiliser le fichier « pour identifier une personne à partir de ses empreintes digitales sans l’assentiment de la personne dont les empreintes sont recueillies ».

Afin de lutter contre l’usurpation d’identité (un phénomène très largement survendu par les industriels, comme l’avait démontré un Cash Investigation consacré au « Business de la peur » et auquel avait participé l’auteur de cet article), le projet de loi voulait créer un « fichier des gens honnêtes » (sic) permettant d’identifier les éventuels usurpateurs. 

Le fichier TES centralisait à l’époque les données biométriques d’environ 6,5 millions de personnes. Or, le Conseil constitutionnel censura (.pdf) ces aspects-là de la loi au motif qu’ils étaient disproportionnés eu égard à l’objectif initial de délivrance des passeports. Les Sages relevaient en effet que, du fait de l’extension du fichier aux détenteurs de cartes nationales d’identité, le fichier TES avait vocation à centraliser les données biométriques de 45 à 60 millions de personnes :

« Compte tenu des quatre caractéristiques du dispositif décrites ci-dessus (ampleur du fichier, sensibilité des données, caractéristiques techniques permettant l’identification à partir des données biométriques et finalités de police administrative ou judiciaire autres que celles nécessaires à la délivrance ou au renouvellement des titres d’identité et de voyage et à la vérification de l’identité du possesseur d’un tel titre) l’instauration d’un tel traitement de données à caractère personnel portait une atteinte au respect de la vie privée qui ne pouvait être regardée comme proportionnée au but poursuivi. »

Ficher toute la population pour supprimer quelques dizaines de postes de fonctionnaires

En 2016, comme Next l’avait alors révélé, Bernard Cazeneuve, ministre de l’Intérieur du gouvernement de Manuel Valls, légalisait, un dimanche matin du week-end de la Toussaint, le versement des données personnelles des demandeurs de cartes d’identité dans le fichier TES, dont leurs photos et empreintes digitales. Et ce, en dépit de la précédente censure du Conseil constitutionnel, et de l’avis là encore négatif de la CNIL.

Si cette dernière estimait les finalités justifiées, elle déplorait de voir « réunir au sein d’un même fichier des données biométriques, en particulier les images numérisées des empreintes digitales et de la photographie de l’ensemble des demandeurs de cartes nationales d’identité et de passeports », soit « la quasi-totalité de la population française », représentant « un changement d’ampleur et, par suite, de nature, considérable ».

Un fichage généralisé d’autant plus disproportionné que cette centralisation de nos données (y compris biométriques) d’identité était justifiée par le fait d’économiser quelques dizaines voire centaines d’équivalents temps plein de fonctionnaires. À l’époque, sous couvert de numérisation des procédures administratives, cette bascule avait en effet été motivée au nom d’un plan « préfectures nouvelle génération » (PPNG) visant notamment à mettre fin à l’ancien fichier national de gestion (FNG) des CNI qui, au format papier, nécessitait de payer des gens pour archiver les cartons.

La Quadrature rappelle que de nombreuses institutions comme la CNIL, l’ANSSI, l’Inria ou le Conseil national du numérique « avaient vertement critiqué ce choix, pointant les risques de la centralisation inédite d’informations liées à l’identité, et en particulier les données biométriques, de quasiment toute la population ».

L’enregistrement du visage de l’ensemble de la population n’a plus de justification

Dans la « plainte contre la technopolice » qu’elle avait déposée pour dénoncer l’illégalité de ce fichier au nom de plus de 15 000 personnes auprès de la CNIL en 2022 (et qui est toujours en instruction), l’ONG rappelait qu’en 2016, « le gouvernement avait justifié le fichage de l’ensemble de la population en mettant en avant des risques de fraude au moment du renouvellement des passeports et des cartes d’identité », mais que ce n’était plus le cas depuis :

« Ce risque, qui était déjà extrêmement faible en 2016, a entièrement disparu depuis qu’une puce – qui contient le visage et les empreintes – est désormais présente sur les passeports et permet de remplir la même fonction de façon décentralisée. L’enregistrement du visage de l’ensemble de la population dans le fichier TES n’a plus aucune justification : il est donc illégal et doit être supprimé avant d’être dévoyé par la police pour d’autres usages abusifs. »

Concrètement, la police contourne l’interdiction d’accéder au TES

La Quadrature a en outre récemment découvert que si, « techniquement et légalement, un simple officier de police judiciaire ne peut pas avoir accès au fichier TES », le ministère de l’Intérieur « a laissé s’installer une pratique qui permet de contourner les interdictions d’accès aux données du TES, et ce, sans aucune restriction et pour n’importe quel type d’affaire ».

Le décret de 2016 prévoit en effet que seuls certains agents individuellement nommés et « chargés des missions de prévention et de répression des atteintes aux intérêts fondamentaux de la Nation et des actes de terrorisme », et donc travaillant pour des services de renseignement, puissent interroger et consulter le fichier.

Or, relève LQDN, les officiers de police judiciaire (OPJ) peuvent « exiger de toute entité publique ou privée de leur fournir les informations qu’elles possèdent et qui seraient utiles pour une enquête ». Ce mécanisme des « réquisitions » judiciaires prévu par le code de procédure pénale permet aux OPJ, sur autorisation du procureur de la République, d’exiger de toute entité publique ou privée de leur fournir les informations qu’elles possèdent et qui seraient utiles pour une enquête, souligne l’ONG :

« C’est ainsi que la police peut, par exemple, récupérer les enregistrements de vidéosurveillance d’un magasin ou les données personnelles d’une personne précise que détiendrait une banque, la SNCF, un réseau social ou encore la CAF. Ces acteurs sont obligés de répondre sous peine d’une amende de 3 750 euros. »

LQDN a découvert que pour accéder au TES, des OPJ ont adressé des demandes à des employés de l’Agence nationale des titres électroniques (ANTS) ou des « Centres d’expertise et de ressources titres » (CERT) chargés, au sein des (sous-)préfectures, d’instruire les dossiers de demandes de titres :

« La police n’interroge donc pas directement le fichier TES. Concrètement, elle contourne l’interdiction qui lui est faite de piocher dans le fichier TES en adressant des réquisitions à ceux qui y ont accès. Détournant la procédure, elle s’arroge ainsi un pouvoir de consultation du fichier qui lui est normalement interdit. »

Ce faisant, les OPJ peuvent recueillir des identités, adresses postales, photographies et empreintes digitales figurant dans le fichier, quand bien même ce dernier n’est pas censé le leur permettre, même et y compris à partir d’une image issue du système de vidéosurveillance des locaux de garde à vue, comme le montre l’un des documents obtenus par LQDN.

Captures d’écran de procès verbaux de police judiciaire obtenus par La Quadrature du Net

De l’identification de terroristes à celle d’une manifestante

Le Monde rappelle qu’il était bien prévu que des services de police puissent accéder aux informations contenues dans le fichier, mais dans certaines situations seulement, telles que des « atteintes aux intérêts de la nation et des actes de terrorisme » ou « dans le cadre de collaborations avec Interpol ».

Or, la procédure a par exemple été utilisée en 2023 pour identifier une manifestante poursuivie pour des faits de dégradations et de rébellion, plusieurs fois interpellée, mais qui refusait de décliner son identité, avant de s’identifier sous un faux nom.

Les documents que Le Monde a pu vérifier montrent que la police judiciaire a d’abord eu recours au fichier TES pour obtenir « toutes les informations relatives à son véritable porteur, dont sa photographie et ses empreintes digitales », et confirmer qu’elle leur avait confié une fausse identité.

La police a ensuite planqué et procédé à une filature pour parvenir à localiser le logement de la manifestante, recueilli une liste de noms figurant sur la boîte aux lettres, et transmis une réquisition à un CERT afin d’obtenir leurs états civils et photos, et donc la véritable identité de la manifestante.

Interrogée par Le Monde, la police nationale confirme que « les enquêteurs n’ont pas un accès direct au TES lui-même, mais peuvent, sur réquisition judiciaire, pour identifier des mis en cause, interroger l’ANTS ». Sous couvert d’anonymat, un OPJ qui recourt régulièrement à cette procédure précise au Monde qu’elle ne leur a jamais été formellement interdite.

Il est possible de refuser de verser ses empreintes au TES, pas de les y effacer

Le Monde relève en outre que, dans son rapport 2016 (.pdf), la CNIL avait déploré que « les risques de mésusage des données n’étaient pas suffisamment pris en compte, qu’il s’agisse de l’utilisation du système à des fins de reconnaissance faciale, qui n’est pas interdite en l’état du texte, ou encore du risque de consultation massive des données enregistrées dans le traitement dans le cadre de réquisitions judiciaires ».

En 2021, à l’occasion du lancement de la carte nationale d’identité électronique (CNIe), la CNIL avait recommandé « non seulement de chiffrer les données biométriques en base, ce qui a été mis en œuvre par le ministère, mais aussi de confier les moyens de déchiffrement à un tiers de sorte que ni le ministère ni l’autorité tierce ne puisse, seule, avoir les moyens de déchiffrer les données pour répondre aux réquisitions judiciaires ».

Or, comme nous l’avions à l’époque relevé, « cette seconde partie de la recommandation ne semble ni mise en œuvre par le ministère à ce stade ni prévue dans le plan d’action », alors qu’elle permettrait à la fois de relever le niveau de sécurité des données et de protection de la vie privée, ainsi que de limiter le risque que le traitement soit transformé en une base d’identification des individus.

Pour La Quadrature, cette façon détournée d’accéder aux données figurant dans le fichier TES par les OPJ est révélatrice d’un « phénomène plus large : celui de l’échange débridé et démesuré des données » au nom du droit de « réquisition » (ou de « communication » quand il s’agit d’administrations fiscales ou sociales), qui permet à des organismes de sécurité sociale – CAF, Assurance Maladie… – de récupérer le détail des comptes bancaires, et à la police de demander des factures d’électricité :

« Or, cette possibilité très large de se voir transmettre des informations s’est construite sans prise en compte des règles de protection des données spécifiques à chaque traitement. Elle n’est guidée que par une logique d’efficacité supposée, réduisant le respect des droits fondamentaux à l’état de vulgaires obstacles à dépasser ou à contourner. […] À l’heure où tout est informatisé et où la quantité de données communicables est immense, il est nécessaire de questionner profondément ce mécanisme, source d’abus et d’excès. »

Dans sa fiche dédiée au fichier TES, la CNIL rappelle de son côté que s’il n’est pas possible de refuser la numérisation de ses empreintes digitales lors d’une demande de passeport ou de CNI, « en revanche, il est possible pour la personne concernée de demander à ce que l’image numérisée de ses empreintes ne soit pas conservée dans le traitement au-delà d’un délai de quatre-vingt-dix jours à compter de la date de délivrance du titre ou de la date de refus de cette délivrance par le service instructeur, la copie sur papier des empreintes étant alors conservée par l’Agence nationale des titres sécurisés pour une durée de quinze ans ».

Par contre, « lorsque les informations sont enregistrées, il n’est pas possible par la suite de s’opposer à leur traitement ni d’en demander l’effacement, y compris pour les empreintes digitales ».

☕️ La « Defense Tech » explose, et Boston Dynamics a vendu 2 000 unités de son robot Spot

21 novembre 2025 à 10:47

Cinq ans après son lancement commercial, environ 2 000 unités de Spot, le robot de Boston Dynamics, sont actuellement en service dans le monde entier, rapporte Bloomberg.

Si la plupart des clients de l’entreprise sont encore des clients industriels, notamment des fabricants et fournisseurs de services publics, l’intérêt des forces de l’ordre a fortement augmenté au cours des deux dernières années, et il serait notamment utilisé par le ministère néerlandais de la Défense, la police nationale italienne et par plus de 60 équipes de déminage et d’interventions spéciales aux États-Unis et au Canada.

De la taille d’un berger allemand, Spot pèse 34 kilos et est utilisé par les forces de l’ordre pour gérer les situations de confrontation armée, les prises d’otages et les incidents impliquant des matières dangereuses, autant de situations où l’intervention d’un être humain ou d’un chien réel pourrait mettre leur vie en danger.

Le robot, dont le prix de départ est d’environ 100 000 dollars, peut fonctionner de manière autonome dans de nombreux cas (vérifications de maintenance, détection de fuites de gaz, inspection d’équipements défectueux), mais dépend toujours d’opérateurs humains pour la prise de décision, rappelle Bloomberg :

« À l’aide d’une tablette qui ressemble à une manette de jeu vidéo, l’opérateur guide la machine tout en surveillant les images vidéo en direct transmises par son système de caméras embarquées. Des capteurs supplémentaires intégrés assurent la navigation et la cartographie. Dans les situations à haut risque, les agents peuvent également visionner les images en direct sur des écrans plus grands situés à proximité. »

Spot peut également se rendre là où beaucoup d’autres drones ne peuvent pas aller, notamment à l’intérieur de bâtiments, et l’autonomie de sa batterie lui permet d’opérer pendant environ une heure et demie, contre 20 à 30 minutes pour les drones, relève Bloomberg.

L’ICE, le service américain de contrôle de l’immigration et des douanes, a de son côté récemment dépensé environ 78 000 dollars pour acquérir un robot du fabricant canadien Icor Technology Inc. capable d’effectuer des tâches similaires à celles de Spot, et doté de bombes fumigènes.

Bloomberg relève par ailleurs que, d’après les données de Pitchbook, les investissements en capital-risque dans les start-ups spécialisées dans les technologies de défense (« Defense Tech ») ont atteint 28,4 milliards de dollars, ouvrant la voie à un nouveau record annuel, en hausse de 200 % en glissement annuel :

« Alors que les marchés du capital-risque dans leur ensemble se refroidissent, les technologies de défense sont en pleine effervescence, attirant des capitaux records, des valorisations en hausse et une acceptation croissante par le grand public. »

Les grands gagnants seraient les start-ups qui développent des systèmes autonomes tels que des véhicules terrestres sans pilote, des plateformes informatiques avancées et des technologies antidrones.

Une start-up de 8 employés publie 3 000 podcasts par semaine, générés par IA

20 novembre 2025 à 10:02
Gloubi-boulgIA
Une start-up de 8 employés publie 3 000 podcasts par semaine, générés par IA

Une ancienne responsable de la division podcast d’Amazon pense avoir trouvé un filon « scalable » susceptible de lui permettre de la rendre richissime. Entièrement générés par IA, en une heure et pour un dollar seulement, ses podcasts sont en effet rentables à partir de 20 auditeurs.

Inception Point AI se targue sur son site web d’avoir créé « le plus grand réseau de podcasts indépendants au monde ». Quiet Please (c’est son nom, « Du calme s’il vous plait » en français) a d’ores et déjà créé « plus de 4 000 émissions », diffuse « en moyenne 3 000 nouveaux épisodes par semaine », de 15 à une quarantaine de minutes chacun, et compte se lancer dans l’édition de courtes vidéos, de livres « et bien plus encore ».

Cette start-up ne compte pourtant que huit employés : 4 informaticiens et 4 producteurs, relevait le mois dernier La tech la première, le podcast de Stéphane Jourdain, rédacteur en chef numérique de France Inter. Cette hyperproductivité s’explique par le fait que ces podcasts sont tous entièrement générés par IA, sans supervision humaine.

L’entreprise produit par exemple de nombreux podcasts consacrés à l’indice de pollen dans toutes les grandes villes américaines, afin d’attirer des publicités pour des antihistaminiques. Mais également des podcasts dédiés au jardinage, aux actus people, à la méditation, à la ménopause, aux stations de ski, plages, aux assassins, aux sous-marins nucléaires, à l’économie, la démocratie, le socialisme et même le communisme (entre autres).

Le coût de revient d’un podcast ? 1 $, rentabilité dès le 20ᵉ auditeur

Pour Inception Point AI, les « influenceurs IA » constituent « la prochaine frontière à un milliard de dollars », dans la mesure où ils peuvent travailler tout le temps, sans avoir besoin de dormir, et offrent « une qualité supérieure à ~1/25000 du coût » d’un influenceur humain.

Un épisode de podcast ne leur coûterait en effet que 1 $ seulement. Ce qui leur permet de privilégier la quantité à la qualité, d’autant qu’il suffit de 20 auditeurs pour qu’un épisode soit rentable. Et tant pis si les yeux de certaines de ces influenceuses synthétiques sont quelque peu bâclés.

Captures d’écran du compte de @vvsteeleip, influenceuse IA

D’après The Wrap (« le seul média indépendant dédié à l’industrie hollywoodienne »), Quiet Please aurait d’ores et déjà publié plus de 175 000 épisodes sur des plateformes comme Spotify ou Apple, enregistré 12 millions de téléchargements d’épisodes depuis sa création, et compterait 400 000 abonnés.

« La richesse se trouve dans les niches », explique à The Wrap Jeanine Wright, co-fondatrice et CEO de la start-up et ancienne directrice des opérations de Wondery, la division podcast d’Amazon. « Mes amis dans l’industrie du podcasting me demandent : « As-tu une émission qui figure dans le top 10 ? Comment se classent tes émissions ? » Nous ne voyons pas les choses sous cet angle », précise-t-elle :

« Au lieu de se concentrer uniquement sur la création des prochains Kelce Brothers, Crime Junkie ou Joe Rogan, ces émissions à grand succès, vous pourriez vous adresser à des publics de niche et à des micro-communautés. C’est un modèle économique totalement différent. »

Selon Riverside, plus de 584 millions de personnes ont écouté des podcasts en 2025, et ce chiffre devrait atteindre 619 millions d’ici 2026. D’après Edison Research, le temps passé à écouter des podcasts a augmenté de 355 % au cours des dix dernières années. 34 % des Américains écoutent en moyenne 8,3 épisodes de podcast par semaine, et 83 % y consacrent plus de 9 heures par semaine. Le marché pourrait atteindre une valeur de 17,59 milliards de dollars d’ici 2030. Même Netflix se lance dans le podcasting, en concluant un partenariat avec Spotify et The Ringer pour des podcasts vidéo dans le cadre de sa stratégie 2026, souligne The Wrap.

Une salle de rédaction, mais sans journalistes humains

Inception Point, qui se présente comme la « version audio de Reddit ou Wikipédia », a créé 120 « influenceurs IA », associés à des niches et contenus hyper-spécialisés. La société évite soigneusement les sujets controversés qui pourraient poser problème, précise The Wrap, « de sorte qu’aucune révision humaine n’est nécessaire pour chaque épisode », d’autant qu’il est matériellement impossible aux 8 employés de la start-up de pouvoir les écouter avant qu’ils ne soient mis en ligne :

« Inception Point AI fonctionne presque comme une salle de rédaction, mais sans journalistes humains. Les modèles d’IA scannent Internet et proposent à l’équipe des listes d’idées intéressantes, et les employés voient ce qui leur convient. Avec sa petite équipe de huit personnes, il faut une journée pour passer d’une idée à un épisode complet. Une fois le sujet choisi, un membre de l’équipe l’associe à une personnalité et la machine peut commencer à générer l’épisode, ce qui prend environ une heure. »

Sur son profil LinkedIn, la start-up, créée en 2023, avance que « Dans un avenir proche, la moitié de la population mondiale sera constituée d’IA ». « Les « personnes » générées par l’IA devraient-elles avoir des droits humains ? » s’interrogeait Jeanine Wright, qui se définit elle-même comme une « maximaliste de l’IA », dans AI Proof, un podcast destiné aux parents et aux éducateurs qui entend aider les enfants à se préparer à « un avenir imprégné d’intelligence artificielle ».

« Je pense que très rapidement, nous arriverons à un stade où l’IA sera le moyen par défaut de créer du contenu, non seulement dans le domaine audio, mais aussi à la télévision, au cinéma, dans les publicités, dans l’imagerie et dans tous les autres domaines », explique Jeanine Wright à The Wrap. « Et alors, nous indiquerons quand les contenus ne sont pas créés à l’aide de l’IA, plutôt que de préciser qu’ils ont été créés à l’aide de l’IA. Mais pour l’instant, nous sommes parfaitement heureux d’ouvrir la voie. »

❌