Vue normale

Reçu — 30 mars 2026 Actualités numériques

☕️ États-Unis : une femme emprisonnée 5 mois sur la foi d’une reconnaissance faciale erronée

30 mars 2026 à 15:10


Cinq mois de prison pour un crime commis dans un état dans lequel elle n’est jamais allée : c’est l’erreur judiciaire dont Angela Lipps, 50 ans, affirme avoir été victime. 
Arrêtée le 14 juin dans sa maison d’Elizabethton, dans l’état du Tennessee, cette mère et grand-mère de famille était visée par un mandat d’arrêt émis à 2 000 km de là, par la police de Fargo, dans le Dakota du Nord. 


Au fil de l’été, la ville a subi plusieurs cas de fraude bancaire, rapporte CNN, ce qui a conduit la police à recourir aux « technologies de reconnaissance faciale de notre partenaire » et à plusieurs « autres étapes d’enquêtes indépendantes du recours à l’IA pour aboutir à une identification », a indiqué le chef du département de police de Fargo au média.

Si ses équipes ont reconnu « quelques erreurs », aucune excuse n’a été présentée à Angela Lipps, dont les conseils déclarent qu’elle a été victime d’une erreur d’identification, notamment provoquée par le recours des forces de police aux outils de Clearview AI, et par un manque d’enquête supplémentaire.

Illustration : Flock

Utilisé par la police de West Fargo, l’outil « a identifié un suspect potentiel présentant des traits similaires à ceux d’Angela Lipps », images transmises ensuite aux équipes de Fargo. À ce moment-là, aucune charge n’était retenue dans la mesure où la police de West Fargo ne disposait pas de suffisamment de preuve pour inculper quiconque.

Le 1er juillet 2025, néanmoins, un juge du Dakota du Nord signait un mandat d’arrêt avec demande d’extradition à l’échelle des États-Unis à l’encontre de Mme Lipps. 13 jours plus tard, celle-ci était arrêtée sous les yeux de ses petits-enfants. Gardée trois mois dans les prisons du Tennessee, Angela Lipps n’a ensuite été envoyée au Dakota du Nord que le 30 octobre. « C’était la première fois que je prenais l’avion, écrit-elle en description d’une campagne GoFundMe. J’étais terrifiée. »

Ce n’est qu’à partir de ce moment qu’un avocat lui a été assigné, puis a démontré, en obtenant ses relevés bancaires, qu’elle n’avait jamais quitté le Tennessee pendant la période des fraudes. Le 23 décembre, le détective de Fargo, le procureur de l’état et le juge se sont mis d’accord pour classer la procédure, indique la police de Fargo.

Les avocats d’Angela Lipps cherchent encore à comprendre pourquoi cette dernière a été retenue autant de temps avant d’avoir accès à un conseil et aux éléments de l’enquête la visant. À Fargo, le directeur des forces de l’ordre Dave Zibolski indique que ses services n’utilisent pas d’IA de manière générale, mais que ses collègues de West Fargo le font. Un membre de ses équipes aurait considéré que les éléments envoyés par les équipes de West Fargo contenaient des images de surveillance, et non un résultat renvoyé par une machine de reconnaissance faciale.

Ses équipes n’utiliseront plus les résultats des systèmes utilisés par la police de West Fargo, faute de bien connaître leur fonctionnement. Dave Zibolski a par ailleurs indiqué considérer des mesures disciplinaires pour les policiers impliqués. Les bureaux du procureur du Dakota se sont par ailleurs déclarés « très intéressés » par des formations sur les risques d’utilisation de la reconnaissance faciale.

☕️ États-Unis : une femme emprisonnée 5 mois sur la foi d’une reconnaissance faciale erronée

30 mars 2026 à 15:10


Cinq mois de prison pour un crime commis dans un état dans lequel elle n’est jamais allée : c’est l’erreur judiciaire dont Angela Lipps, 50 ans, affirme avoir été victime. 
Arrêtée le 14 juin dans sa maison d’Elizabethton, dans l’état du Tennessee, cette mère et grand-mère de famille était visée par un mandat d’arrêt émis à 2 000 km de là, par la police de Fargo, dans le Dakota du Nord. 


Au fil de l’été, la ville a subi plusieurs cas de fraude bancaire, rapporte CNN, ce qui a conduit la police à recourir aux « technologies de reconnaissance faciale de notre partenaire » et à plusieurs « autres étapes d’enquêtes indépendantes du recours à l’IA pour aboutir à une identification », a indiqué le chef du département de police de Fargo au média.

Si ses équipes ont reconnu « quelques erreurs », aucune excuse n’a été présentée à Angela Lipps, dont les conseils déclarent qu’elle a été victime d’une erreur d’identification, notamment provoquée par le recours des forces de police aux outils de Clearview AI, et par un manque d’enquête supplémentaire.

Illustration : Flock

Utilisé par la police de West Fargo, l’outil « a identifié un suspect potentiel présentant des traits similaires à ceux d’Angela Lipps », images transmises ensuite aux équipes de Fargo. À ce moment-là, aucune charge n’était retenue dans la mesure où la police de West Fargo ne disposait pas de suffisamment de preuve pour inculper quiconque.

Le 1er juillet 2025, néanmoins, un juge du Dakota du Nord signait un mandat d’arrêt avec demande d’extradition à l’échelle des États-Unis à l’encontre de Mme Lipps. 13 jours plus tard, celle-ci était arrêtée sous les yeux de ses petits-enfants. Gardée trois mois dans les prisons du Tennessee, Angela Lipps n’a ensuite été envoyée au Dakota du Nord que le 30 octobre. « C’était la première fois que je prenais l’avion, écrit-elle en description d’une campagne GoFundMe. J’étais terrifiée. »

Ce n’est qu’à partir de ce moment qu’un avocat lui a été assigné, puis a démontré, en obtenant ses relevés bancaires, qu’elle n’avait jamais quitté le Tennessee pendant la période des fraudes. Le 23 décembre, le détective de Fargo, le procureur de l’état et le juge se sont mis d’accord pour classer la procédure, indique la police de Fargo.

Les avocats d’Angela Lipps cherchent encore à comprendre pourquoi cette dernière a été retenue autant de temps avant d’avoir accès à un conseil et aux éléments de l’enquête la visant. À Fargo, le directeur des forces de l’ordre Dave Zibolski indique que ses services n’utilisent pas d’IA de manière générale, mais que ses collègues de West Fargo le font. Un membre de ses équipes aurait considéré que les éléments envoyés par les équipes de West Fargo contenaient des images de surveillance, et non un résultat renvoyé par une machine de reconnaissance faciale.

Ses équipes n’utiliseront plus les résultats des systèmes utilisés par la police de West Fargo, faute de bien connaître leur fonctionnement. Dave Zibolski a par ailleurs indiqué considérer des mesures disciplinaires pour les policiers impliqués. Les bureaux du procureur du Dakota se sont par ailleurs déclarés « très intéressés » par des formations sur les risques d’utilisation de la reconnaissance faciale.

La CNC écarte la streameuse Ultia d’une de ses commissions après une polémique née sur X

30 mars 2026 à 14:40
Flux de conscience
La CNC écarte la streameuse Ultia d’une de ses commissions après une polémique née sur X

Après avoir détaillé sur Twitch le positionnement qu’elle comptait prendre au sein de la commission CNC Talent, la streameuse Ultia s’est vue suspendue du jury dédié à allouer des financements à divers projets numériques. Ses propos ont notamment gagné en viralité sous l’effet de comptes d’extrême-droite.

L’affaire a commencé sur Twitch, où la streameuse Ultia (291 000 followers, l’une des plus suivies de France) tient ses quartiers depuis près de dix ans. Le 25 mars, elle explique être intégrée au dispositif CNC Talent du Centre national du cinéma et de l’image animée (CNC), pour deux ans. Concrètement, elle est membre du jury d’un « fonds d’aide monétaire aux créateurs de contenus web », explique-t-elle dans son stream, avant de détailler l’intérêt d’y postuler pour celles et ceux qui souhaiteraient l’obtenir.

En ligne, le CNC détaille que l’objet de ce dispositif est d’« identifier les nouveaux talents » sur diverses plateformes sociales (YouTube, Instagram, TikTok, Twitch), pour « favoriser le renouvellement de la création et des formats » qui y sont déployés. Créé en 2017, refondu en début d’année et nommé « Fonds d’aide à la création pour les plateformes sociales », il est doté de 3 millions d’euros par an, tirés du budget général du CNC, rappelle le Figaro. Dans son stream, Ultia détaille le processus concret d’attribution des projets, qui passe par l’analyse d’une quarantaine de dossiers par la dizaine de membre composant le jury. Elle s’attarde ensuite sur ce que ça lui apporte à elle, à commencer par la recherche des formulations et justifications précises permettant d’étayer son jugement des divers dossiers.

Alors qu’elle détaille le positionnement qu’elle compte prendre, et notamment son refus de soutenir des projets portés par des créateurs d’extrême-droite, le stream est « clippé » (c’est-à-dire qu’un court passage en est extrait), publié sur X par le compte @TwitchGauchiste, puis rendu viral par d’autres comptes très en vue, notamment de figures de l’extrême-droite. Rapidement, le CNC annonce suspendre la streameuse. Si la polémique n’est pas la première à toucher l’institution publique, elle illustre aussi certains effets du clipping. Outre donner de la visibilité à certains vidéastes, cette logique d’extraction de quelques images rarement contextualisées en prive d’autres d’une partie de leurs revenus, voire se traduit par des vagues de harcèlement.

Clipping par @TwitchGauchiste

Discutant avec son public, Ultia détaillait le 25 mars certains enjeux de la participation au jury du CNC. Alors que des internautes rappellent les accusations de conflit d’intérêt qui ont concerné le youtubeur Cyprien en 2018, alors que lui-même siégeait dans une commission de la CNC, Ultia indique que les membres du jury doivent sortir de la salle au moment des délibérations si le projet étudié les concernent directement.

Comme les candidatures ne sont pas anonymisées, la streameuse déclare « évident » qu’elle se prononcera en faveur de celles portés par des personnes dont elle connaît et apprécie le travail : « C’est évident que c’est subjectif, c’est pas pour rien qu’on est une bonne dizaine, on est là pour se contredire. » En parallèle, elle explique faire des « background check » des candidats pour éviter de voter pour des créateurs inclus « dans des trucs chelous » ou « dans des scandales ». Et déclare que, si le projet est « proposé délibérément par quelqu’un d’extrême-droite, désolé, ben non, en fait ! ».

Ce sont ces éléments, cités dans le désordre par le compte @TwitchGauchiste (32 000 abonnés), qui ont provoqué l’émoi sur X dès le 26 mars au matin. Actif depuis novembre 2024, le compte anonyme se présente comme un « média » d’analyse du « discours d’extrême gauche ». Auprès de Streetpress comme directement sur leurs canaux de communication, plusieurs créatrices et créateurs de contenu se sont plaints ces derniers mois des campagnes de cyberharcèlement qui avaient découlé de publications ainsi raccourcies du compte X. 



En l’occurrence, l’extrait gagne rapidement en viralité, notamment poussé par des comptes beaucoup plus populaires, dont ceux des influenceurs d’extrême-droite Le Raptor (188 000 abonnés sur X) ou Sardoche (610 000 abonnés sur X). De même, le youtubeur identitaire Kroc Blanc (48 000 abonnés sur YouTube) s’attaque à la streameuse depuis sa plateforme favorite. À 15 h, le jour même, le CNC publie un message selon lequel les propos d’Ultia « contreviennent manifestement à l’obligation de neutralité, d’indépendance et d’impartialité qui s’impose à tous les membres des commissions appelées à formuler un avis sur l’attribution des soutiens financiers du CNC ». La streameuse est suspendue.

Le clipping comme vecteur de cyberviolence

Le soir même, dans un nouveau stream, Ultia exprime son « choc » devant cette décision. Elle explique avoir voulu discuter avant tout « autour de l’objectivité et la subjectivité plutôt qu’(…) autour du CNC », ne pas avoir eu connaissance du « devoir de réserve » que lui imposait sa nouvelle fonction, et regretter l’usage du terme « extrême-droite » : « J’aurais dû dire si c’est quelque chose de raciste, de sexiste, de misogyne, d’homophobe. Peut-être que j’ai fait l’amalgame ».

Elle aussi membre d’une commission du CNC, sa collègue Modiie souligne sur X « la nécessité de suivre [le] règlement » de l’institution , mais s’est « alarmée » du fait « qu’un post X puisse faire pression ainsi sur une commission ».

La polémique se fait par ailleurs sur fond de problématiques liées au clipping, cette pratique consistant à enregistrer des extraits courts de contenus vidéos (souvent des streams, parfois des émissions TV ou autre contenus filmés) pour les faire circuler sur les réseaux sociaux en espérant jouer des mécaniques de viralité. Si certaines créatrices et créateurs poussent leurs abonnés à s’y adonner pour augmenter leur visibilité sur des plateformes extérieures à celle qu’ils investissent habituellement, d’autre s’y opposent ouvertement. En effet, lorsqu’ils les monétisent, les propriétaires de comptes de clipping tirent profit du contenu qu’ils ont copié et extrait de la production d’autres personnes.

Cette pratique est par ailleurs régulièrement critiquée pour sa propension à provoquer des cycles de violence numérique : en isolant un moment fort ou clivant d’une vidéo longue pour en faire un extrait choc, ils cherchent très clairement à jouer de la viralité permise par les algorithmes des principaux réseaux sociaux, mais aussi par le jeu sur les émotions du public. Maghla, une autre des streameuses les plus suivies de France, ou Chloé Gervais, co-animatrice du podcast « Hot Girls Only » et compagne du vidéaste Squeezie, se sont toutes deux plaintes de ces vagues de violence – la seconde a porté plainte contre un compte X.

Il y a quatorze mois, à la barre du procès de plusieurs cyberharceleurs, Ultia se déclarait « fatiguée » des attaques qu’elle subissait en ligne depuis plus de trois ans. Si le cas évoqué au tribunal émanait d’autres communautés numériques, la streameuse soulignait que ce type de comportement lui avait fait manquer à plusieurs reprises des opportunités professionnelles.

La CNC écarte la streameuse Ultia d’une de ses commissions après une polémique née sur X

30 mars 2026 à 14:40
Flux de conscience
La CNC écarte la streameuse Ultia d’une de ses commissions après une polémique née sur X

Après avoir détaillé sur Twitch le positionnement qu’elle comptait prendre au sein de la commission CNC Talent, la streameuse Ultia s’est vue suspendue du jury dédié à allouer des financements à divers projets numériques. Ses propos ont notamment gagné en viralité sous l’effet de comptes d’extrême-droite.

L’affaire a commencé sur Twitch, où la streameuse Ultia (291 000 followers, l’une des plus suivies de France) tient ses quartiers depuis près de dix ans. Le 25 mars, elle explique être intégrée au dispositif CNC Talent du Centre national du cinéma et de l’image animée (CNC), pour deux ans. Concrètement, elle est membre du jury d’un « fonds d’aide monétaire aux créateurs de contenus web », explique-t-elle dans son stream, avant de détailler l’intérêt d’y postuler pour celles et ceux qui souhaiteraient l’obtenir.

En ligne, le CNC détaille que l’objet de ce dispositif est d’« identifier les nouveaux talents » sur diverses plateformes sociales (YouTube, Instagram, TikTok, Twitch), pour « favoriser le renouvellement de la création et des formats » qui y sont déployés. Créé en 2017, refondu en début d’année et nommé « Fonds d’aide à la création pour les plateformes sociales », il est doté de 3 millions d’euros par an, tirés du budget général du CNC, rappelle le Figaro. Dans son stream, Ultia détaille le processus concret d’attribution des projets, qui passe par l’analyse d’une quarantaine de dossiers par la dizaine de membres composant le jury. Elle s’attarde ensuite sur ce que ça lui apporte à elle, à commencer par la recherche des formulations et justifications précises permettant d’étayer son jugement des divers dossiers.

Alors qu’elle détaille le positionnement qu’elle compte prendre, et notamment son refus de soutenir des projets portés par des créateurs d’extrême-droite, le stream est « clippé » (c’est-à-dire qu’un court passage en est extrait), publié sur X par le compte @TwitchGauchiste, puis rendu viral par d’autres comptes très en vue, notamment de figures de l’extrême-droite. Rapidement, le CNC annonce suspendre la streameuse. Si la polémique n’est pas la première à toucher l’institution publique, elle illustre aussi certains effets du clipping. Outre donner de la visibilité à certains vidéastes, cette logique d’extraction de quelques images rarement contextualisées en prive d’autres d’une partie de leurs revenus, voire se traduit par des vagues de harcèlement.

Clipping par @TwitchGauchiste

Discutant avec son public, Ultia détaillait le 25 mars certains enjeux de la participation au jury du CNC. Alors que des internautes rappellent les accusations de conflit d’intérêt qui ont concerné le youtubeur Cyprien en 2018, alors que lui-même siégeait dans une commission de la CNC, Ultia indique que les membres du jury doivent sortir de la salle au moment des délibérations si le projet étudié les concernent directement.


Il reste 60% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Les créateurs de podcast face au virage vidéo

30 mars 2026 à 09:02


Fini, les médias audios ? Sur Linkedin, la créatrice des podcasts La Poudre et Folie Douce Lauren Bastide indiquait le mois dernier renoncer à la transformation de ses épisodes en vidéo, car le processus « coûte cher, prend du temps, mobilise de l’énergie… pour une valeur ajoutée minimale ».

Dix ans après la création des studios Binge Audio, Paradiso ou Nouvelles Écoutes, les créatrices et créateurs de podcasts comme elle sont face à une évolution d’ampleur : la transformation d’un format axé sur le son à des entretiens désormais filmés, régulièrement animés par des célébrités – des réseaux sociaux, de la culture, de l’entrepreneuriat aussi, pourquoi pas –, et diffusés, en long, sur YouTube. 
La plateforme a en effet tiré l’évolution du format vers la vidéo, poussant des outils historiquement dédiés à l’audio comme Spotify à intégrer des formats vidéos à leur dispositif.

D’après le Figaro, Apple Podcasts devrait faire de même dans les prochaines semaines pour tenter de récupérer des parts d’audience, alors que 46 % de la génération Z états-unienne écoute ses podcasts sur YouTube, 35 % sur Spotify, et seulement 9 % sur Apple Podcasts, selon Coleman Insights. L’évolution a aussi poussé journalistes et créateurs de ces émissions à multiplier les « shorts », ces courts extraits aussi bien promus par YouTube que TikTok.

Auprès du quotidien français, la créatrice Clémentine Galley, dont le programme Bliss Stories sur la maternité enregistre plus de 110 millions d’écoutes, se déclare « déprimée » d’avoir dû passer à la vidéo.

Pour autant, elle constate – de même que Louie Media ou Nouvelles Écoutes – que ce nouveau mode de diffusion lui permet de toucher des publics différents, plus jeunes pour Bliss Stories, moins uniformément urbains et CSP+ pour les podcasts de Louie Media.

Si l’évolution semble positive en termes d’audience, elle ne l’est pas nécessairement en termes de revenus : pour le cofondateur de Binge Audio (racheté le mois dernier par le groupe québécois Urbania), le coût pour mille sur YouTube, en matière de publicités, ne revient qu’à quelques euros, contre 60 à 90 euros pour un podcast classique, centré sur le son.

Illustration : Flock

☕️ Les créateurs de podcast face au virage vidéo

30 mars 2026 à 09:02


Fini, les médias audios ? Sur Linkedin, la créatrice des podcasts La Poudre et Folie Douce Lauren Bastide indiquait le mois dernier renoncer à la transformation de ses épisodes en vidéo, car le processus « coûte cher, prend du temps, mobilise de l’énergie… pour une valeur ajoutée minimale ».

Dix ans après la création des studios Binge Audio, Paradiso ou Nouvelles Écoutes, les créatrices et créateurs de podcasts comme elle sont face à une évolution d’ampleur : la transformation d’un format axé sur le son à des entretiens désormais filmés, régulièrement animés par des célébrités – des réseaux sociaux, de la culture, de l’entrepreneuriat aussi, pourquoi pas –, et diffusés, en long, sur YouTube. 
La plateforme a en effet tiré l’évolution du format vers la vidéo, poussant des outils historiquement dédiés à l’audio comme Spotify à intégrer des formats vidéos à leur dispositif.

D’après le Figaro, Apple Podcasts devrait faire de même dans les prochaines semaines pour tenter de récupérer des parts d’audience, alors que 46 % de la génération Z états-unienne écoute ses podcasts sur YouTube, 35 % sur Spotify, et seulement 9 % sur Apple Podcasts, selon Coleman Insights. L’évolution a aussi poussé journalistes et créateurs de ces émissions à multiplier les « shorts », ces courts extraits aussi bien promus par YouTube que TikTok.

Auprès du quotidien français, la créatrice Clémentine Galley, dont le programme Bliss Stories sur la maternité enregistre plus de 110 millions d’écoutes, se déclare « déprimée » d’avoir dû passer à la vidéo.

Pour autant, elle constate – de même que Louie Media ou Nouvelles Écoutes – que ce nouveau mode de diffusion lui permet de toucher des publics différents, plus jeunes pour Bliss Stories, moins uniformément urbains et CSP+ pour les podcasts de Louie Media.

Si l’évolution semble positive en termes d’audience, elle ne l’est pas nécessairement en termes de revenus : pour le cofondateur de Binge Audio (racheté le mois dernier par le groupe québécois Urbania), le coût pour mille sur YouTube, en matière de publicités, ne revient qu’à quelques euros, contre 60 à 90 euros pour un podcast classique, centré sur le son.

Illustration : Flock
Reçu — 26 mars 2026 Actualités numériques

IA : pour éviter la « rupture du pacte social », la CSNP promeut la coordination

26 mars 2026 à 15:58
Dialoguer pour simplifier
IA : pour éviter la « rupture du pacte social »,  la CSNP promeut la coordination

Pour la publication de son avis sur l’adoption de l’intelligence artificielle par les entreprises françaises, la Commission Supérieure du Numérique et des Postes organisait ce 26 mars une table-ronde avec plusieurs des acteurs qu’elle a auditionnés. Next y était.

En matière de développement de l’intelligence artificielle dans les entreprises, la France fait face à trois tensions principales : une tension financière, illustrée par les 420 milliards de dollars d’investissements injectés dans les infrastructures numérique outre-Atlantique sur la seule année 2025 ; une tension énergétique, qui vient concurrencer les objectifs français de « réindustrialisation décarbonée » et une tension sociale, notamment sur la question des emplois des jeunes diplômés.

Tel était le constat posé ce 26 mars par le sénateur Damien Michallet (Les Républicains) alors qu’il présentait l’avis de la Commission Supérieure du Numérique et des Postes (CSNP) sur l’adoption de l’intelligence artificielle par les entreprises françaises. Pour les relever, la CSNP formule 26 recommandations réparties en cinq chapitres : piloter, accompagner (les entreprises et l’adoption de solutions françaises ou européennes), former, dialoguer de manière « renforcée », selon les mots du sénateur de l’Isère, avec les partenaires sociaux, mais aussi simplifier les textes existants.

Nécessité d’adopter l’IA…

Aux trois enjeux identifiés par la CSNP, la ministre déléguée chargée de l’intelligence artificielle et du numérique Anne le Hénanff ajoute une tension d’ordre « sociétale », au sens des risques de « détournement des systèmes d’IA à des fins malveillantes ». Ces types de manipulation soulèvent des problématiques « d’ordre démocratique, envers les plus vulnérables » (on entend ici un écho aux débats soulevés par la diffusion massive de deepfakes pornographiques sur Grok), sans oublier aux « entreprises elles-mêmes », susceptibles elles aussi d’être « attaquées » par le biais d’éléments manipulés par IA.


Il reste 84% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Reçu — 25 mars 2026 Actualités numériques

☕️ Santé mentale des mineurs : Meta condamné à 375 millions de dollars de dommages

25 mars 2026 à 16:07


Meta a déployé des outils dangereux pour la santé mentale des mineurs en toute connaissance de cause et retenu des informations sur des cas d’exploitation sexuelle de mineurs, a tranché ce 24 mars un jury états-unien.

Au Nouveau-Mexique, le tribunal a condamné l’entreprise à 375 millions de dollars de dommages civils, une décision que le procureur qualifie d’ « historique », quand bien même les plaignants visaient un montant cinq fois plus élevé. 
C’est la première fois que l’entreprise de Mark Zuckerberg est déclaré coupable d’actes commis sur ses plateformes, note the Guardian.

L’affaire a été portée devant les tribunaux en décembre 2023, après que des enquêtes eurent détaillé comment Facebook et Instagram s’étaient transformés en place de marché de l’exploitation sexuelle de mineurs.

L’entreprise ne devra pas pour autant adapter ses pratiques tout de suite : ce sera un juge, et non un jury populaire, qui pourra se prononcer sur ce type d’évolution, rappelle AP. Meta a indiqué se pourvoir en appel.

Cette affaire est la première d’une série de plaintes déposées contre le groupe. Plus de 40 procureurs états-uniens ont par exemple déposé des plaintes fin 2023 pour le manque de protection des internautes mineurs de la part de la société.

☕️ Santé mentale des mineurs : Meta condamné à 375 millions de dollars de dommages

25 mars 2026 à 16:07


Meta a déployé des outils dangereux pour la santé mentale des mineurs en toute connaissance de cause et retenu des informations sur des cas d’exploitation sexuelle de mineurs, a tranché ce 24 mars un jury états-unien.

Au Nouveau-Mexique, le tribunal a condamné l’entreprise à 375 millions de dollars de dommages civils, une décision que le procureur qualifie d’ « historique », quand bien même les plaignants visaient un montant cinq fois plus élevé. 
C’est la première fois que l’entreprise de Mark Zuckerberg est déclaré coupable d’actes commis sur ses plateformes, note the Guardian.

L’affaire a été portée devant les tribunaux en décembre 2023, après que des enquêtes eurent détaillé comment Facebook et Instagram s’étaient transformés en place de marché de l’exploitation sexuelle de mineurs.

L’entreprise ne devra pas pour autant adapter ses pratiques tout de suite : ce sera un juge, et non un jury populaire, qui pourra se prononcer sur ce type d’évolution, rappelle AP. Meta a indiqué se pourvoir en appel.

Cette affaire est la première d’une série de plaintes déposées contre le groupe. Plus de 40 procureurs états-uniens ont par exemple déposé des plaintes fin 2023 pour le manque de protection des internautes mineurs de la part de la société.

Deepfakes pornographiques : l’Allemagne secouée par un scandale de « viols virtuels »

25 mars 2026 à 15:33
Violences conjugales numériques et publiques
Deepfakes pornographiques : l’Allemagne secouée par un scandale de « viols virtuels »

Alors qu’elle subissait depuis des années des diffusions non consenties d’images à caractère sexuel en ligne, l’actrice allemande Collien Fernandes a découvert et fait savoir publiquement que l’auteur de ces manipulations était son ex-mari, une autre star du petit écran allemand, Christian Ulmen. Ces révélations défraient la chronique, alors que l’Allemagne se prépare à débattre d’une loi de protection des internautes contres les deepfakes pornographiques et d’autres types de violences numériques.

Très engagée contre les diffusions non consenties d’images à caractère sexuel, l’animatrice et actrice allemande Collien Fernandes a déposé plainte contre son ex-mari, l’acteur Christian Ulmen, pour « agression, usurpation d’identité et diffamation ». Ensemble depuis 2010, mariés depuis l’été suivant, les deux formaient l’un des couples les plus populaires du pays jusqu’à leur séparation, annoncée en septembre 2025.

Ce 20 mars, une longue enquête du magazine Der Spiegel détaille les raisons de cette séparation : pendant des années, son ex-mari avait recouru à toutes sortes d’outils technologiques, notamment d’intelligence artificielle, pour se faire passer pour Collien Fernandes et la faire interagir dans des échanges à caractère sexuel avec des inconnus. Ces discussions recouraient par ailleurs à des images, des vidéos et des sons générés par IA à caractère sexuel.

Qualifiant le phénomène de « viol virtuel », Der Spiegel compare les débats soulevés par cette agression répétée en ligne à ceux qui entourent l’affaire Pélicot ou l’affaire Espstein, dans lesquels les victimes se battent pour être entendues.

En l’occurrence, loin d’être isolées, les violences numériques touchent des personnes de tous les âges, dans des contextes publics ou privés. Dans le cadre du foyer, le centre Hubertine Auclert constatait en 2018 (.pdf) que 9 victimes de violences conjugales sur 10 essuyaient aussi des formes de violences numériques, allant de la diffusion non consentie de contenus variés au harcèlement ou à la surveillance.

Diffusions non consenties de multiples contenus à caractère sexuel

Sur Instagram, Collien Fernandes a aussi pris la parole pour exposer ce qu’elle a subi : « Pendant des années, de faux profils ont été créés à mon nom (…) qui contactaient avant tout des hommes. Après des débuts de conversation normaux, les discussions prenaient un ton de flirt, et la personne envoyait de (fausses) images dénudées et vidéos sexuelles de moi, qui semblaient prises dans le cadre privé, comme si je m’étais moi-même photographiée dénudée et m’étais filmée en plein acte sexuel. »

Capture d’écran de la publication de Collien Fernandes sur Instagram. Ce 25 mars au matin, Meta n’affichait cette publication que derrière un panneau indiquant que le contenu pouvait choquer, ndlr.

Le phénomène, qui impliquait par ailleurs des conversations téléphoniques à caractère sexuel, là encore tenues via de la génération de voix par IA, a duré « pendant dix ans (!) », écrit Collien Fernandes. À plusieurs de ces hommes, l’auteur de l’usurpation d’identité a envoyé une « histoire érotique » évoquant un viol de la présentatrice « par 21 hommes ».

Le phénomène n’a pas cessé alors qu’en 2023, elle prenait la parole publiquement, puis, en 2024, publiait un documentaire sur la question. Seule la suspension des comptes par les plateformes concernées a permis de freiner l’agression, mais l’actrice et ses avocats n’ont jamais réussi à faire supprimer certains contenus, dont une vidéo qui a déjà enregistré plus de 270 000 vues.

Quoiqu’il arrive, raconte Der Spiegel, l’ancienne présentatrice de télévision voulait savoir qui était derrière ces diffusions, ces faux comptes LinkedIn, ces manipulations répétées de son image et son nom. En 2024, elle avait déjà déposé plainte contre X.

Et lors des fêtes de Noël de la même année, son monde s’est effondré lorsque son époux de l’époque lui a avoué être l’auteur de cette manipulation de longue durée. Outre le fait d’illustrer brutalement un phénomène vécu par d’autres femmes, l’affaire choque d’autant plus l’opinion allemande que le couple Fernandes-Ulmen, très populaire dans le paysage médiatique local, s’est exprimé à plusieurs reprises sur les enjeux d’égalités des droits.

Christian Ulmen a notamment donné des interviews dans lesquelles il expliquait le rôle qu’il jouait au foyer, lorsque sa femme était en tournage, ou indiquait dédaigner les hommes qui se comportent comme de « prétendus petits mâles dominants ». Auprès du Westdeutschen Allegmeinen Zeitung, l’acteur s’est par ailleurs décrit comme « le genre d’homme que le féminisme a toujours souhaité ».

Loi allemande vouée à évoluer

En ligne, majeurs et mineurs sont régulièrement visés par diverses formes de violences. Ce 23 mars, l’ONG britannique Internet Watch Foundation alertait par exemple sur l’évolution rapide des contenus représentant des agressions sexuelles sur mineurs (CSAM, Child sexual abuse material), dans lesquels on trouve de plus en plus d’images et de vidéos hautement crédibles générées par IA.

De même, depuis l’explosion des robots conversationnels et des outils de génération d’image, nombreuses sont les spécialistes ou les victimes de deepfakes pornographiques qui alertent contre l’explosion du phénomène, qui frappe ultra-majoritairement les femmes.

Outre ces évolutions récentes, les occurrences de diffusions non consenties d’images à caractère sexuelles de personnalités ou de personnes moins exposées, les scandales d’upskirting (prises de photo sous les jupes), de sextorsion, ou encore ceux de captation d’images à l’insu de clientes de magasins ou d’hôtel se sont répétés, au fil des années écoulées.

Si la France s’est peu à peu dotée de différents outils légaux pour lutter contre les diverses formes de cyberviolences numériques, l’Allemagne reste, à l’heure actuelle, relativement démunie sur le sujet.

Alors que plusieurs milliers de personnes se réunissaient ce week-end près de la Brandenburger Tor, à Berlin, pour soutenir Collien Fernandes, le pays attend un débat réglementaire sur une proposition de loi relative à la protection contre les violences numériques. Le texte est « presque prêt », a déclaré un porte-parole du ministère fédéral de la Justice et de la protection des consommateurs au média Heise.

Il devrait couvrir deux volets : un pénal, dans lequel les deepfakes pornographiques et diverses autres formes d’agressions numériques deviendront condamnables, et un civil, pensé pour faciliter la réaction des victimes.

Concrètement, pour ces dernières, il s’agirait de renforcer le droit à être informé par les plateformes dans les cas de violations des droits de la personnalité (qui protègent un individu contre toute ingérence dans sa vie et sa liberté).

Du côté des agresseurs, le gouvernement compte menacer de bloquer les comptes des auteurs de ce type d’agression numérique des plateformes sur lesquelles ils agissent. Le but général est de « réduire le sentiment d’impunité », a indiqué la ministre fédérale de la Justice.

Si les plateformes numériques sont principalement régulées à l’échelle européenne, tout ce qui relève du droit pénal est laissé à l’appréciation des États membres. En l’espèce, l’Allemagne manque actuellement de certaines dispositions, que cette proposition de loi pourrait permettre d’accélérer.

À défaut, les victimes de diffusion non consenties d’images à caractère sexuel ne peuvent pour le moment s’appuyer que sur des actions au civil, en demandant des compensations aux auteurs et le retrait des contenus incriminés. Mais ces procédures sont longues, et peuvent constituer une charge supplémentaire pour les victimes de violences numériques.

En attendant les évolutions allemandes, Collien Fernandes a déposé plainte devant la justice espagnole, où elle a vécu, pour usurpation d’identité, injure publique, divulgation de secrets, coups et blessures répétés dans le cadre familial et menaces graves.

Au-delà du pan numérique des agressions dont elle témoigne, elle accuse en effet son ex-mari de lui avoir fait subir des violences psychologiques et émotionnelles, ainsi que des agressions physiques.

Comme Gisèle Pélicot et d’autres victimes de violences sexistes et sexuelles, qui prennent plus facilement la parole depuis la vague #MeToo, Collien Fernandes indique au Spiegel vouloir faire « changer la honte de camp » : que les internautes qui ressentent de la honte, face à la diffusion de ce type de contenu, ne soient plus celles et ceux représentés sur les images ou vidéos, mais bien ceux qui les créent.

C’est notamment pour cela qu’elle soutient, depuis 2023, les travaux d’une association comme HateAid, qui vise à faire évoluer l’opinion publique et à pousser les législateurs allemands à mieux protéger les internautes contre les deepfakes pornographiques.

Deepfakes pornographiques : l’Allemagne secouée par un scandale de « viols virtuels »

25 mars 2026 à 15:33
Violences conjugales numériques et publiques
Deepfakes pornographiques : l’Allemagne secouée par un scandale de « viols virtuels »

Alors qu’elle subissait depuis des années des diffusions non consenties d’images à caractère sexuel en ligne, l’actrice allemande Collien Fernandes a découvert et fait savoir publiquement que l’auteur de ces manipulations était son ex-mari, une autre star du petit écran allemand, Christian Ulmen. Ces révélations défraient la chronique, alors que l’Allemagne se prépare à débattre d’une loi de protection des internautes contres les deepfakes pornographiques et d’autres types de violences numériques.

Très engagée contre les diffusions non consenties d’images à caractère sexuel, l’animatrice et actrice allemande Collien Fernandes a déposé plainte contre son ex-mari, l’acteur Christian Ulmen, pour « agression, usurpation d’identité et diffamation ». Ensemble depuis 2010, mariés depuis l’été suivant, les deux formaient l’un des couples les plus populaires du pays jusqu’à leur séparation, annoncée en septembre 2025.

Ce 20 mars, une longue enquête du magazine Der Spiegel détaille les raisons de cette séparation : pendant des années, son ex-mari avait recouru à toutes sortes d’outils technologiques, notamment d’intelligence artificielle, pour se faire passer pour Collien Fernandes et la faire interagir dans des échanges à caractère sexuel avec des inconnus. Ces discussions recouraient par ailleurs à des images, des vidéos et des sons générés par IA à caractère sexuel.

Qualifiant le phénomène de « viol virtuel », Der Spiegel compare les débats soulevés par cette agression répétée en ligne à ceux qui entourent l’affaire Pélicot ou l’affaire Espstein, dans lesquels les victimes se battent pour être entendues.

En l’occurrence, loin d’être isolées, les violences numériques touchent des personnes de tous les âges, dans des contextes publics ou privés. Dans le cadre du foyer, le centre Hubertine Auclert constatait en 2018 (.pdf) que 9 victimes de violences conjugales sur 10 essuyaient aussi des formes de violences numériques, allant de la diffusion non consentie de contenus variés au harcèlement ou à la surveillance.

Diffusions non consenties de multiples contenus à caractère sexuel

Sur Instagram, Collien Fernandes a aussi pris la parole pour exposer ce qu’elle a subi : « Pendant des années, de faux profils ont été créés à mon nom (…) qui contactaient avant tout des hommes. Après des débuts de conversation normaux, les discussions prenaient un ton de flirt, et la personne envoyait de (fausses) images dénudées et vidéos sexuelles de moi, qui semblaient prises dans le cadre privé, comme si je m’étais moi-même photographiée dénudée et m’étais filmée en plein acte sexuel. »

Capture d’écran de la publication de Collien Fernandes sur Instagram. Ce 25 mars au matin, Meta n’affichait cette publication que derrière un panneau indiquant que le contenu pouvait choquer, ndlr.

Le phénomène, qui impliquait par ailleurs des conversations téléphoniques à caractère sexuel, là encore tenues via de la génération de voix par IA, a duré « pendant dix ans (!) », écrit Collien Fernandes. À plusieurs de ces hommes, l’auteur de l’usurpation d’identité a envoyé une « histoire érotique » évoquant un viol de la présentatrice « par 21 hommes ».

Le phénomène n’a pas cessé alors qu’en 2023, elle prenait la parole publiquement, puis, en 2024, publiait un documentaire sur la question. Seule la suspension des comptes par les plateformes concernées a permis de freiner l’agression, mais l’actrice et ses avocats n’ont jamais réussi à faire supprimer certains contenus, dont une vidéo qui a déjà enregistré plus de 270 000 vues.

Quoiqu’il arrive, raconte Der Spiegel, l’ancienne présentatrice de télévision voulait savoir qui était derrière ces diffusions, ces faux comptes LinkedIn, ces manipulations répétées de son image et son nom. En 2024, elle avait déjà déposé plainte contre X.

Et lors des fêtes de Noël de la même année, son monde s’est effondré lorsque son époux de l’époque lui a avoué être l’auteur de cette manipulation de longue durée. Outre le fait d’illustrer brutalement un phénomène vécu par d’autres femmes, l’affaire choque d’autant plus l’opinion allemande que le couple Fernandes-Ulmen, très populaire dans le paysage médiatique local, s’est exprimé à plusieurs reprises sur les enjeux d’égalités des droits.

Christian Ulmen a notamment donné des interviews dans lesquelles il expliquait le rôle qu’il jouait au foyer, lorsque sa femme était en tournage, ou indiquait dédaigner les hommes qui se comportent comme de « prétendus petits mâles dominants ». Auprès du Westdeutschen Allegmeinen Zeitung, l’acteur s’est par ailleurs décrit comme « le genre d’homme que le féminisme a toujours souhaité ».

Loi allemande vouée à évoluer

En ligne, majeurs et mineurs sont régulièrement visés par diverses formes de violences. Ce 23 mars, l’ONG britannique Internet Watch Foundation alertait par exemple sur l’évolution rapide des contenus représentant des agressions sexuelles sur mineurs (CSAM, Child sexual abuse material), dans lesquels on trouve de plus en plus d’images et de vidéos hautement crédibles générées par IA.

De même, depuis l’explosion des robots conversationnels et des outils de génération d’image, nombreuses sont les spécialistes ou les victimes de deepfakes pornographiques qui alertent contre l’explosion du phénomène, qui frappe ultra-majoritairement les femmes.

Outre ces évolutions récentes, les occurrences de diffusions non consenties d’images à caractère sexuelles de personnalités ou de personnes moins exposées, les scandales d’upskirting (prises de photo sous les jupes), de sextorsion, ou encore ceux de captation d’images à l’insu de clientes de magasins ou d’hôtel se sont répétés, au fil des années écoulées.

Si la France s’est peu à peu dotée de différents outils légaux pour lutter contre les diverses formes de cyberviolences numériques, l’Allemagne reste, à l’heure actuelle, relativement démunie sur le sujet.

Alors que plusieurs milliers de personnes se réunissaient ce week-end près de la Brandenburger Tor, à Berlin, pour soutenir Collien Fernandes, le pays attend un débat réglementaire sur une proposition de loi relative à la protection contre les violences numériques. Le texte est « presque prêt », a déclaré un porte-parole du ministère fédéral de la Justice et de la protection des consommateurs au média Heise.

Il devrait couvrir deux volets : un pénal, dans lequel les deepfakes pornographiques et diverses autres formes d’agressions numériques deviendront condamnables, et un civil, pensé pour faciliter la réaction des victimes.

Concrètement, pour ces dernières, il s’agirait de renforcer le droit à être informé par les plateformes dans les cas de violations des droits de la personnalité (qui protègent un individu contre toute ingérence dans sa vie et sa liberté).

Du côté des agresseurs, le gouvernement compte menacer de bloquer les comptes des auteurs de ce type d’agression numérique des plateformes sur lesquelles ils agissent. Le but général est de « réduire le sentiment d’impunité », a indiqué la ministre fédérale de la Justice.

Si les plateformes numériques sont principalement régulées à l’échelle européenne, tout ce qui relève du droit pénal est laissé à l’appréciation des États membres. En l’espèce, l’Allemagne manque actuellement de certaines dispositions, que cette proposition de loi pourrait permettre d’accélérer.

À défaut, les victimes de diffusion non consenties d’images à caractère sexuel ne peuvent pour le moment s’appuyer que sur des actions au civil, en demandant des compensations aux auteurs et le retrait des contenus incriminés. Mais ces procédures sont longues, et peuvent constituer une charge supplémentaire pour les victimes de violences numériques.

En attendant les évolutions allemandes, Collien Fernandes a déposé plainte devant la justice espagnole, où elle a vécu, pour usurpation d’identité, injure publique, divulgation de secrets, coups et blessures répétés dans le cadre familial et menaces graves.

Au-delà du pan numérique des agressions dont elle témoigne, elle accuse en effet son ex-mari de lui avoir fait subir des violences psychologiques et émotionnelles, ainsi que des agressions physiques.

Comme Gisèle Pélicot et d’autres victimes de violences sexistes et sexuelles, qui prennent plus facilement la parole depuis la vague #MeToo, Collien Fernandes indique au Spiegel vouloir faire « changer la honte de camp » : que les internautes qui ressentent de la honte, face à la diffusion de ce type de contenu, ne soient plus celles et ceux représentés sur les images ou vidéos, mais bien ceux qui les créent.

C’est notamment pour cela qu’elle soutient, depuis 2023, les travaux d’une association comme HateAid, qui vise à faire évoluer l’opinion publique et à pousser les législateurs allemands à mieux protéger les internautes contre les deepfakes pornographiques.

Images et vidéos pédocriminelles crédibles générées par IA se multiplient, alerte l’IWF

25 mars 2026 à 10:06
Génération d'illégalité
Images et vidéos pédocriminelles crédibles générées par IA se multiplient, alerte l’IWF

Alors que les technologies d’IA se perfectionnent, leur usage à des fins de pédocriminalité devient plus fréquent, constate l’Internet Watch Foundation. Et d’alerter sur leur propension à créer de nouvelles victimisations des enfants représentés, de même que sur le caractère particulièrement violent des actes qui y sont illustrés.

Les contenus hautement réalistes, les vidéos complètes et crédibles générées par intelligence artificielle et décrivant des agressions sexuelles sur mineurs deviennent fréquentes, voire « routinières ». C’est le constat que formule l’Internet Watch Foundation (IWF), organisation britannique indépendante qui traite les signalements de photos et de vidéos d’agressions sexuelles sur enfants que remonte le public via sa hotline et son portail de signalement.

Créée en 1996, l’ONG fait partie intégrante du réseau INHOPE, auquel appartient aussi l’association française Point de Contact. Localement, l’IWF travaille notamment avec les forces de police et les fournisseurs d’accès à internet, auxquels elle fait par exemple remonter une liste noire de près de 150 000 URL (en 2024) de sites diffusant des contenus illégaux. Or, avec l’intelligence artificielle, les contenus qu’elle traite évoluent aussi.

Explosion des contenus illégaux réalistes générés par IA

En juillet 2024, ses analystes ont repéré les premières vidéos classables comme contenu CSAM (Child sexual abuse material, contenu d’agression sexuelle sur mineur) entièrement généré par IA. « À ce moment-là, les technologies restaient rudimentaires. Les vidéos présentaient de nombreux bugs et des tremblements, ainsi que des mouvements saccadés et peu naturels qui permettaient de distinguer facilement le contenu généré par IA des images réelles », indique-t-elle dans son rapport « Violence sans limites : les contenus d’agression sexuelle sur mineur générés par IA vus par nos analystes ».

Depuis, le réalisme de ces contenus a fait un bond, et l’ONG a recensé en 2025 plus de 8 000 images et près de 3 500 vidéos crédibles, générées par IA, représentant des agressions sexuelles sur mineurs. L’année précédente, elle n’avait collecté que 13 vidéos de ce type. Pour l’IWF, loin d’être « moins dangereux » que les contenus non générés par IA, ce type d’images et de vidéos « renforcent l’intérêt sexuel pour les enfants, contribuent à la normalisation d’agressions violentes, et peuvent accroître le risque d’agressions concrètes ».

En l’occurrence, dans l’échantillon collecté en 2025, l’IWF constate que 65 % des vidéos sont classifiables en « catégorie A », celle réservée aux contenus les plus extrêmes. Pour comparaison, sur l’année 2025, « 43 % des vidéos criminelles non générées par IA et traitées par l’IWF relevaient de la catégorie A ».

Nouvelle victimisation pour les enfants représentés

Les enjeux sont multiples : l’entraînement des modèles génératifs permettant de créer ce type de contenu est effectué sur des images d’agressions réelles sur mineurs, pour commencer. Le réusage de leur image à des fins de création de contenu violent démultiplie la victimisation des survivants de ce type de violence. Concrètement, des contenus représentant des agressions réelles sont modifiés, voire « augmentés » grâce aux technologies récentes, quelques fois pour améliorer la qualité des images, d’autres fois pour renforcer le type d’agressions représentées.

Ces enjeux sont, par ailleurs, très genrés : 97 % des enfants représentés dans ces contenus CSAM générés par IA sont des filles, une proportion plus large que dans les affaires de pédocriminalité (en 2023, les travaux de la Commission indépendante sur l’inceste et les violences sexuelles faites aux enfants relevaient par exemple que 3,9 millions de femmes et 1,5 millions d’hommes étaient confrontés en France à des violences sexuelles avant 18 ans, ce qui revient à 72 % de filles et 28 % de garçons).

Plusieurs cas ont illustré cette tendance dans les dernières années, par exemple en Espagne, dans la ville d’Almendralejo, où 15 garçons ont été condamnés pour avoir recouru à des applications de nudification pour créer des images de 20 filles de 11 à 17 ans. Ou encore dans un collège de Normandie, où une douzaine de jeunes filles ont vu leur image détournée début 2025 pour créer des deepfakes à caractère sexuel.

Des technologies qui « abaissent le seuil » de création de CSAM

L’association pointe aussi le rôle des technologies dans l’évolution de ces risques. Pour créer ces contenus, les internautes recourent à des outils appuyés sur de grands modèles de langage, comme des applications de « nudification » ou des robots conversationnels plus génériques, ou à des outils de génération d’image à partir de requêtes textuelles (text-to-image). « Il n’existe pas de cas d’usage positif » pour les applications de nudification, pointe l’IWF : ces dernières « ne servent qu’à humilier, harceler et exploiter et peuvent servir à infliger de nouvelles formes d’agressions ».

Du côté des robots conversationnels, l’ONG relève deux cas d’usages problématiques : le recours à des machines comme ChatGPT ou Gemini pour obtenir de l’aide technique à la génération de contenu illégale, et la prévalence de discours à caractère sexuel dans plusieurs types de robots conversationnels.

Des outils comme Candy AI (de EverAI) ou certains bots de Character.AI sont ainsi connus pour renforcer la communication à caractère sexuel avec l’utilisateur, ce qui peut mener à des comportements proches du grooming (anglicisme normalement utilisé pour désigner l’instauration par un adulte d’une relation de confiance avec un enfant afin d’en obtenir des actes sexuels) lorsque ces robots sont utilisés par des mineurs. 



Les évolutions de ces différents outils « abaissent le seuil » qui permet la création de ces contenus CSAM, alerte l’IWF. « Des projets qui demandaient autrefois de multiples outils et des compétences techniques sont désormais intégrés dans une seule application facile à prendre en main. » Des robots conversationnels disponibles pour le grand public ont par ailleurs démontré « une tendance à encourager les conversations à caractère sexuel avec les enfants, ce qui pousse les délinquants à concrétiser leurs pensées sexuelles impliquant des enfants ».

Après s’être lancé dans le suivi de ce type spécifique de production en 2023, l’IWF souligne que le CSAM généré par IA constitue toujours une « proportion relativement faible de la totalité des contenus illégaux repérés », mais que la « rapidité de son expansion présente une menace sérieuse et évolutive ».

Images et vidéos pédocriminelles crédibles générées par IA se multiplient, alerte l’IWF

25 mars 2026 à 10:06
Génération d'illégalité
Images et vidéos pédocriminelles crédibles générées par IA se multiplient, alerte l’IWF

Alors que les technologies d’IA se perfectionnent, leur usage à des fins de pédocriminalité devient plus fréquent, constate l’Internet Watch Foundation. Et d’alerter sur leur propension à créer de nouvelles victimisations des enfants représentés, de même que sur le caractère particulièrement violent des actes qui y sont illustrés.

Les contenus hautement réalistes, les vidéos complètes et crédibles générées par intelligence artificielle et décrivant des agressions sexuelles sur mineurs deviennent fréquentes, voire « routinières ». C’est le constat que formule l’Internet Watch Foundation (IWF), organisation britannique indépendante qui traite les signalements de photos et de vidéos d’agressions sexuelles sur enfants que remonte le public via sa hotline et son portail de signalement.

Créée en 1996, l’ONG fait partie intégrante du réseau INHOPE, auquel appartient aussi l’association française Point de Contact. Localement, l’IWF travaille notamment avec les forces de police et les fournisseurs d’accès à internet, auxquels elle fait par exemple remonter une liste noire de près de 150 000 URL (en 2024) de sites diffusant des contenus illégaux. Or, avec l’intelligence artificielle, les contenus qu’elle traite évoluent aussi.

Explosion des contenus illégaux réalistes générés par IA

En juillet 2024, ses analystes ont repéré les premières vidéos classables comme contenu CSAM (Child sexual abuse material, contenu d’agression sexuelle sur mineur) entièrement généré par IA. « À ce moment-là, les technologies restaient rudimentaires. Les vidéos présentaient de nombreux bugs et des tremblements, ainsi que des mouvements saccadés et peu naturels qui permettaient de distinguer facilement le contenu généré par IA des images réelles », indique-t-elle dans son rapport « Violence sans limites : les contenus d’agression sexuelle sur mineur générés par IA vus par nos analystes ».

Depuis, le réalisme de ces contenus a fait un bond, et l’ONG a recensé en 2025 plus de 8 000 images et près de 3 500 vidéos crédibles, générées par IA, représentant des agressions sexuelles sur mineurs. L’année précédente, elle n’avait collecté que 13 vidéos de ce type. Pour l’IWF, loin d’être « moins dangereux » que les contenus non générés par IA, ce type d’images et de vidéos « renforcent l’intérêt sexuel pour les enfants, contribuent à la normalisation d’agressions violentes, et peuvent accroître le risque d’agressions concrètes ».

En l’occurrence, dans l’échantillon collecté en 2025, l’IWF constate que 65 % des vidéos sont classifiables en « catégorie A », celle réservée aux contenus les plus extrêmes. Pour comparaison, sur l’année 2025, « 43 % des vidéos criminelles non générées par IA et traitées par l’IWF relevaient de la catégorie A ».

Nouvelle victimisation pour les enfants représentés

Les enjeux sont multiples : l’entraînement des modèles génératifs permettant de créer ce type de contenu est effectué sur des images d’agressions réelles sur mineurs, pour commencer. Le réusage de leur image à des fins de création de contenu violent démultiplie la victimisation des survivants de ce type de violence. Concrètement, des contenus représentant des agressions réelles sont modifiés, voire « augmentés » grâce aux technologies récentes, quelques fois pour améliorer la qualité des images, d’autres fois pour renforcer le type d’agressions représentées.

Ces enjeux sont, par ailleurs, très genrés : 97 % des enfants représentés dans ces contenus CSAM générés par IA sont des filles, une proportion plus large que dans les affaires de pédocriminalité (en 2023, les travaux de la Commission indépendante sur l’inceste et les violences sexuelles faites aux enfants relevaient par exemple que 3,9 millions de femmes et 1,5 millions d’hommes étaient confrontés en France à des violences sexuelles avant 18 ans, ce qui revient à 72 % de filles et 28 % de garçons).

Plusieurs cas ont illustré cette tendance dans les dernières années, par exemple en Espagne, dans la ville d’Almendralejo, où 15 garçons ont été condamnés pour avoir recouru à des applications de nudification pour créer des images de 20 filles de 11 à 17 ans. Ou encore dans un collège de Normandie, où une douzaine de jeunes filles ont vu leur image détournée début 2025 pour créer des deepfakes à caractère sexuel.

Des technologies qui « abaissent le seuil » de création de CSAM

L’association pointe aussi le rôle des technologies dans l’évolution de ces risques. Pour créer ces contenus, les internautes recourent à des outils appuyés sur de grands modèles de langage, comme des applications de « nudification » ou des robots conversationnels plus génériques, ou à des outils de génération d’image à partir de requêtes textuelles (text-to-image). « Il n’existe pas de cas d’usage positif » pour les applications de nudification, pointe l’IWF : ces dernières « ne servent qu’à humilier, harceler et exploiter et peuvent servir à infliger de nouvelles formes d’agressions ».

Du côté des robots conversationnels, l’ONG relève deux cas d’usages problématiques : le recours à des machines comme ChatGPT ou Gemini pour obtenir de l’aide technique à la génération de contenu illégale, et la prévalence de discours à caractère sexuel dans plusieurs types de robots conversationnels.

Des outils comme Candy AI (de EverAI) ou certains bots de Character.AI sont ainsi connus pour renforcer la communication à caractère sexuel avec l’utilisateur, ce qui peut mener à des comportements proches du grooming (anglicisme normalement utilisé pour désigner l’instauration par un adulte d’une relation de confiance avec un enfant afin d’en obtenir des actes sexuels) lorsque ces robots sont utilisés par des mineurs. 



Les évolutions de ces différents outils « abaissent le seuil » qui permet la création de ces contenus CSAM, alerte l’IWF. « Des projets qui demandaient autrefois de multiples outils et des compétences techniques sont désormais intégrés dans une seule application facile à prendre en main. » Des robots conversationnels disponibles pour le grand public ont par ailleurs démontré « une tendance à encourager les conversations à caractère sexuel avec les enfants, ce qui pousse les délinquants à concrétiser leurs pensées sexuelles impliquant des enfants ».

Après s’être lancé dans le suivi de ce type spécifique de production en 2023, l’IWF souligne que le CSAM généré par IA constitue toujours une « proportion relativement faible de la totalité des contenus illégaux repérés », mais que la « rapidité de son expansion présente une menace sérieuse et évolutive ».

Reçu — 24 mars 2026 Actualités numériques

Guerre en Iran : nouvelles perturbations pour les infrastructures d’Amazon au Bahreïn

24 mars 2026 à 16:02
Collateral damages
Guerre en Iran : nouvelles perturbations pour les infrastructures d’Amazon au Bahreïn

De nouvelles perturbations sur le centre de données d’AWS localisé au Bahreïn soulignent les enjeux que le conflit en Iran pose pour les projets d’infrastructure numérique lancés au Moyen-Orient.

Début mars, AWS faisait déjà partie des victimes collatérales des combats entre États-Unis, Israël et Iran. Ce 23 mars, d’après les informations de Reuters, ses services installés à Bahreïn sont de nouveau perturbés par des activités de drones.

Si ces interruptions de service ont été confirmées par un porte-parole de l’entreprise, ce dernier n’a pas indiqué si le centre de données concerné avait été directement touché par un tir, ou s’il subissait des aléas dus à des frappes à proximité. L’épisode illustre la situation délicate dans laquelle l’attaque de l’Iran par les États-Unis place les plus grands acteurs du numérique, qui ont multiplié ces dernières années les investissements au Moyen-Orient.

Migration encouragée vers d’autres régions

Depuis les premières perturbations liées au conflit, tout début mars, Amazon semble avoir cessé de mettre à jour sa communication sur la situation de ses équipements. Les informations relatives à « me-south-1 », comme le centre de données du Bahreïn est nommé dans la nomenclature d’AWS, restent en effet inchangées depuis le 3 mars.


Services qui restent « touchés » par des perturbations (et non « réparés ») à la suite de perturbation du centre de données me-south-1, en date du 24.03.26
 / Capture d’écran Amazon

Auprès de Reuters, l’entreprise indique aider sa clientèle à migrer ses charges vers d’autres régions où les services d’AWS sont disponibles, le temps que les capacités de ce bâtiment puissent être rétablies. Début mars, l’entreprise avait indiqué plusieurs perturbations, notamment en termes d’approvisionnement électrique, aux Émirats arabes unis et au Bahreïn. L’entreprise affirmait que les frappes du moment avaient causé des « dommages structurels », et qu’à ce titre, la remise en état des équipements serait « longue ».

Multiplication de projets au Moyen-Orient

Mis en service en 2019, le centre de données du Bahreïn est le premier qu’Amazon ait construit dans le Golfe persique. Depuis, elle a développé des infrastructures aux Émirats arabes unis et travaille désormais à un projet à 10 milliards de dollars en Arabie saoudite. Mais les tensions actuelles risquent de mettre en péril certains projets, que ceux-ci visent à fournir de l’infrastructure classique, ou des projets plus spécifiquement dédiés à l’intelligence artificielle. 


En quelques années, les Émirats, le Qatar et l’Arabie Saoudite ont en effet dépensé des milliers de milliards de dollars dans l’industrie du numérique, tandis que géants historiques de l’industrie technologique et projets plus directement liés à l’essor de l’IA venaient y réaliser leurs propres larges investissements. Oracle, Nvidia et Cisco soutiennent ainsi financièrement le projet de campus dédié à l’IA d’Open AI, appelé UAE Stargate (en écho au Stargate états-unien) et financé en collaboration avec la société émiratie G42.



Au total, en 2025, les dépenses liées au numérique orienté business et consommateur auraient dépassé les 65 milliards de dollars en 2025, soit près du double des 36 milliards relevés en 2020, selon la société IDC. Les seuls secteurs du cloud et des centres de données ont enregistré une augmentation de 75 % des dépenses, pour un total de 895 millions de dollars en 2025, relève le New-York Times.

Déjà au moins de septembre, alors que Doha, la capitale qatarie, était touchée par des frappes israéliennes, des investisseurs questionnaient auprès de CNBC la stabilité géopolitique de la région. Et si Donald Trump lui-même a salué, voire aidé à la conclusion de certains projets, sa décision de se lancer dans l’attaque récente contre l’Iran vient largement rebattre les cartes.

Rien n’empêche de considérer, souligne en effet le directeur du Center for Strategic and International Studies, que des centres de données puissent devenir des « cibles d’attaques légitimes dans les conflits armés modernes ». Mi-mars, l’Iran durcissait justement le ton, qualifiant d’« infrastructures technologiques ennemies » les équipements d’Amazon, Microsoft, Google, Palantir, Nvidia, IBM et Oracle.

Si les projets initiés dans la région ne devraient pas disparaître du jour au lendemain, des analystes préviennent qu’à défaut de détente, les prochaines vagues d’investissements pourraient se tourner vers d’autres régions du monde pour s’épargner des risques géopolitiques. Un tel cas de figure pourrait notamment profiter à l’Europe du Nord, l’Inde ou l’Asie du Sud-Est.

Guerre en Iran : nouvelles perturbations pour les infrastructures d’Amazon au Bahreïn

24 mars 2026 à 16:02
Collateral damages
Guerre en Iran : nouvelles perturbations pour les infrastructures d’Amazon au Bahreïn

De nouvelles perturbations sur le centre de données d’AWS localisé au Bahreïn soulignent les enjeux que le conflit en Iran pose pour les projets d’infrastructure numérique lancés au Moyen-Orient.

Début mars, AWS faisait déjà partie des victimes collatérales des combats entre États-Unis, Israël et Iran. Ce 23 mars, d’après les informations de Reuters, ses services installés à Bahreïn sont de nouveau perturbés par des activités de drones.

Si ces interruptions de service ont été confirmées par un porte-parole de l’entreprise, ce dernier n’a pas indiqué si le centre de données concerné avait été directement touché par un tir, ou s’il subissait des aléas dus à des frappes à proximité. L’épisode illustre la situation délicate dans laquelle l’attaque de l’Iran par les États-Unis place les plus grands acteurs du numérique, qui ont multiplié ces dernières années les investissements au Moyen-Orient.

Migration encouragée vers d’autres régions

Depuis les premières perturbations liées au conflit, tout début mars, Amazon semble avoir cessé de mettre à jour sa communication sur la situation de ses équipements. Les informations relatives à « me-south-1 », comme le centre de données du Bahreïn est nommé dans la nomenclature d’AWS, restent en effet inchangées depuis le 3 mars.


Services qui restent « touchés » par des perturbations (et non « réparés ») à la suite de perturbation du centre de données me-south-1, en date du 24.03.26
 / Capture d’écran Amazon

Auprès de Reuters, l’entreprise indique aider sa clientèle à migrer ses charges vers d’autres régions où les services d’AWS sont disponibles, le temps que les capacités de ce bâtiment puissent être rétablies. Début mars, l’entreprise avait indiqué plusieurs perturbations, notamment en termes d’approvisionnement électrique, aux Émirats arabes unis et au Bahreïn. L’entreprise affirmait que les frappes du moment avaient causé des « dommages structurels », et qu’à ce titre, la remise en état des équipements serait « longue ».

Multiplication de projets au Moyen-Orient

Mis en service en 2019, le centre de données du Bahreïn est le premier qu’Amazon ait construit dans le Golfe persique. Depuis, elle a développé des infrastructures aux Émirats arabes unis et travaille désormais à un projet à 10 milliards de dollars en Arabie saoudite. Mais les tensions actuelles risquent de mettre en péril certains projets, que ceux-ci visent à fournir de l’infrastructure classique, ou des projets plus spécifiquement dédiés à l’intelligence artificielle. 


En quelques années, les Émirats, le Qatar et l’Arabie Saoudite ont en effet dépensé des milliers de milliards de dollars dans l’industrie du numérique, tandis que géants historiques de l’industrie technologique et projets plus directement liés à l’essor de l’IA venaient y réaliser leurs propres larges investissements. Oracle, Nvidia et Cisco soutiennent ainsi financièrement le projet de campus dédié à l’IA d’Open AI, appelé UAE Stargate (en écho au Stargate états-unien) et financé en collaboration avec la société émiratie G42.



Au total, en 2025, les dépenses liées au numérique orienté business et consommateur auraient dépassé les 65 milliards de dollars en 2025, soit près du double des 36 milliards relevés en 2020, selon la société IDC. Les seuls secteurs du cloud et des centres de données ont enregistré une augmentation de 75 % des dépenses, pour un total de 895 millions de dollars en 2025, relève le New-York Times.

Déjà au moins de septembre, alors que Doha, la capitale qatarie, était touchée par des frappes israéliennes, des investisseurs questionnaient auprès de CNBC la stabilité géopolitique de la région. Et si Donald Trump lui-même a salué, voire aidé à la conclusion de certains projets, sa décision de se lancer dans l’attaque récente contre l’Iran vient largement rebattre les cartes.

Rien n’empêche de considérer, souligne en effet le directeur du Center for Strategic and International Studies, que des centres de données puissent devenir des « cibles d’attaques légitimes dans les conflits armés modernes ». Mi-mars, l’Iran durcissait justement le ton, qualifiant d’« infrastructures technologiques ennemies » les équipements d’Amazon, Microsoft, Google, Palantir, Nvidia, IBM et Oracle.

Si les projets initiés dans la région ne devraient pas disparaître du jour au lendemain, des analystes préviennent qu’à défaut de détente, les prochaines vagues d’investissements pourraient se tourner vers d’autres régions du monde pour s’épargner des risques géopolitiques. Un tel cas de figure pourrait notamment profiter à l’Europe du Nord, l’Inde ou l’Asie du Sud-Est.

☕️ Pour le patron de Grammarly, tout expert pourrait tirer profit d’agents d’IA à son nom

24 mars 2026 à 13:56


Patron de Superhuman, la société éditrice de Grammarly, Shishir Mehrotra est revenu sur les débats relatifs à sa fonctionnalité « Expert Review », qui permettait de réviser un texte avec l’aide de rendus automatisés présentés comme inspirés des travaux d’autrices et auteurs, scientifiques ou journalistes réels.

Après avoir créé un large débat dans la sphère anglophone, cette dernière a été suspendue le 12 mars, quelques heures après que nous retrouvions les noms de plusieurs scientifiques, écrivaines et journalistes francophones dans l’outil.

Sur les 1 500 personnes travaillant chez Superhuman, nom adopté par la société quelques mois après une levée de fonds d’un milliard de dollars, Shishir Mehrotra explique à The Verge que la décision de lancer un tel outil est revenue à une poignée de personnes, « probablement un gestionnaire de produit et quelques ingénieurs ». Il explique sa décision de la supprimer au fait qu’il s’agissait d’une « mauvaise fonctionnalité », utile « ni pour les utilisateurs, ni pour les experts ».

Illustration : Flock

Interrogé sur la rémunération qui aurait dû être proposée aux universitaires, journalistes, ou autrices et auteurs cités par la machine, l’entrepreneur répond sur la thématique de la visibilité : « Comme experts, vous avez besoin de vous rendre visibles sur internet. »

N’importe quelle personne qui publierait en ligne, estime-t-il, veut voir son contenu utilisé par d’autres, que d’autres utilisateurs y fassent référence, et que les auteurs des contenus en question soient cités. « Et pour citer, il faut utiliser votre nom ». C’est, en substance, ce que Grammarly souhaitait mettre en avant avec son outil « expert review », avance l’entrepreneur, qui considère les accusations d’usurpation d’identité « un peu exagérées ».

La journaliste Julia Angwin et d’autres poursuivent néanmoins l’entreprise en justice aux États-Unis pour usage non consenti du nom et de l’identité de personnes, sans leur consentement.

Relancé sur la question de la rémunération qui aurait pu être proposée aux personnalités citées par la machine, Shishir Mehrotra évacue à nouveau : « Nous ne devrions pas usurper votre identité, point. Nous ne l’avons pas fait. Si nous utilisons votre travail, si n’importe quel LLM ou n’importe quel produit utilise votre travail, il devrait citer la source de ces éléments et fournir les liens qui y renvoient. »

Interrogé une troisième fois sur le sujet, l’entrepreneur évoque finalement un modèle d’affaire en cours de construction – notamment la possibilité de créer des agents d’IA supposés représenter un ou une experte, qui pourrait ensuite partager les revenus tirés de l’usage de cet outil avec Grammarly, sur une répartition de l’ordre de 70 % pour l’auteur, 30 % pour la plateforme. Concrètement, Shishir Mehrotra propose un mode de financement très similaire à ce qui existe déjà dans l’écosystème des créateurs et créatrices de contenu, sans considération particulière sur la volonté des universitaires, journalistes ou autrices et auteurs cités pour ce type de nouvelle activité.

Quant aux noms cités par la fonctionnalité Expert Review – côté français, nous avions noté la présence de Valérie Masson-Delmotte, Annie Ernaux ou encore Florence Aubenas – ces derniers « viennent directement des LLM populaires ». Autrement dit, Grammarly n’aurait rien construit d’autre qu’une forme d’itération sur la pratique consistant à interroger Claude ou Gemini en lui demandant d’améliorer un texte en « s’appuyant sur les personnes les plus utiles pour donner des retours constructifs, prenant leurs travaux les plus intéressants, et utilisant cela pour fournir une révision ».

☕️ Pour le patron de Grammarly, tout expert pourrait tirer profit d’agents d’IA à son nom

24 mars 2026 à 13:56


Patron de Superhuman, la société éditrice de Grammarly, Shishir Mehrotra est revenu sur les débats relatifs à sa fonctionnalité « Expert Review », qui permettait de réviser un texte avec l’aide de rendus automatisés présentés comme inspirés des travaux d’autrices et auteurs, scientifiques ou journalistes réels.

Après avoir créé un large débat dans la sphère anglophone, cette dernière a été suspendue le 12 mars, quelques heures après que nous retrouvions les noms de plusieurs scientifiques, écrivaines et journalistes francophones dans l’outil.

Sur les 1 500 personnes travaillant chez Superhuman, nom adopté par la société quelques mois après une levée de fonds d’un milliard de dollars, Shishir Mehrotra explique à The Verge que la décision de lancer un tel outil est revenue à une poignée de personnes, « probablement un gestionnaire de produit et quelques ingénieurs ». Il explique sa décision de la supprimer au fait qu’il s’agissait d’une « mauvaise fonctionnalité », utile « ni pour les utilisateurs, ni pour les experts ».

Illustration : Flock

Interrogé sur la rémunération qui aurait dû être proposée aux universitaires, journalistes, ou autrices et auteurs cités par la machine, l’entrepreneur répond sur la thématique de la visibilité : « Comme experts, vous avez besoin de vous rendre visibles sur internet. »

N’importe quelle personne qui publierait en ligne, estime-t-il, veut voir son contenu utilisé par d’autres, que d’autres utilisateurs y fassent référence, et que les auteurs des contenus en question soient cités. « Et pour citer, il faut utiliser votre nom ». C’est, en substance, ce que Grammarly souhaitait mettre en avant avec son outil « expert review », avance l’entrepreneur, qui considère les accusations d’usurpation d’identité « un peu exagérées ».

La journaliste Julia Angwin et d’autres poursuivent néanmoins l’entreprise en justice aux États-Unis pour usage non consenti du nom et de l’identité de personnes, sans leur consentement.

Relancé sur la question de la rémunération qui aurait pu être proposée aux personnalités citées par la machine, Shishir Mehrotra évacue à nouveau : « Nous ne devrions pas usurper votre identité, point. Nous ne l’avons pas fait. Si nous utilisons votre travail, si n’importe quel LLM ou n’importe quel produit utilise votre travail, il devrait citer la source de ces éléments et fournir les liens qui y renvoient. »

Interrogé une troisième fois sur le sujet, l’entrepreneur évoque finalement un modèle d’affaire en cours de construction – notamment la possibilité de créer des agents d’IA supposés représenter un ou une experte, qui pourrait ensuite partager les revenus tirés de l’usage de cet outil avec Grammarly, sur une répartition de l’ordre de 70 % pour l’auteur, 30 % pour la plateforme. Concrètement, Shishir Mehrotra propose un mode de financement très similaire à ce qui existe déjà dans l’écosystème des créateurs et créatrices de contenu, sans considération particulière sur la volonté des universitaires, journalistes ou autrices et auteurs cités pour ce type de nouvelle activité.

Quant aux noms cités par la fonctionnalité Expert Review – côté français, nous avions noté la présence de Valérie Masson-Delmotte, Annie Ernaux ou encore Florence Aubenas – ces derniers « viennent directement des LLM populaires ». Autrement dit, Grammarly n’aurait rien construit d’autre qu’une forme d’itération sur la pratique consistant à interroger Claude ou Gemini en lui demandant d’améliorer un texte en « s’appuyant sur les personnes les plus utiles pour donner des retours constructifs, prenant leurs travaux les plus intéressants, et utilisant cela pour fournir une révision ».

☕️ Sur Tiktok, une campagne d’influence en amont des élections législatives hongroises

24 mars 2026 à 10:19


À chaque échéance électorale ou presque, désormais, son lot d’opérations d’influence : alors que la population hongroise doit se rendre aux urnes le 12 avril pour des élections législatives, des centaines de vidéos générées par IA circulent sur TikTok dans un but affiché d’améliorer l’image du Premier ministre Viktor Orbán et de discréditer son concurrent Péter Magyar.

En l’espèce, Newsguard indique avoir identifié un réseau de 34 comptes anonymes dédiés à moquer Péter Magyar – par exemple en faisant prononcer des textes critiques par des animaux – ou à tromper très directement les internautes en singeant des reportages vidéos dénigrant le candidat. Ces derniers éléments reprennent de vraies images de Péter Magyar, mais y ajoutent divers commentaires négatifs, ou de faux présentateurs le qualifiant d’agressif.

L’Ukraine est régulièrement visée dans ces contenus, et les images de stars internationales comme Leonardo DiCaprio ou Johnny Depp utilisées pour diffuser des messages politiques.

Les images de Leonardo DiCaprio et Johnny Depp utilisées pour interférer dans les débats en amont des élections législatives hongroises / Capture d’écran Newsguard

À l’heure actuelle, les vidéos en question ont accumulé de l’ordre de 10 millions de vues. En parallèle, Newsguard constate que des émanations de la campagne russe Matriochka – qui s’était attaquée à l’Ukraine et à l’organisation des Jeux olympiques de 2024 dans l’espace informationnel français – visent aussi le public hongrois. Ces dernières recourent plutôt à X et Telegram pour diffuser de fausses informations, là encore mentionnant régulièrement l’Ukraine pour en critiquer la population.

Alors que Viktor Orbán est décrit comme le « canal d’influence le plus direct de Vladimir Poutine au sein de l’UE », plusieurs spécialistes alertent contre les risques d’ingérence dans le scrutin de la part de la Russie.

☕️ Sur Tiktok, une campagne d’influence en amont des élections législatives hongroises

24 mars 2026 à 10:19


À chaque échéance électorale ou presque, désormais, son lot d’opérations d’influence : alors que la population hongroise doit se rendre aux urnes le 12 avril pour des élections législatives, des centaines de vidéos générées par IA circulent sur TikTok dans un but affiché d’améliorer l’image du Premier ministre Viktor Orbán et de discréditer son concurrent Péter Magyar.

En l’espèce, Newsguard indique avoir identifié un réseau de 34 comptes anonymes dédiés à moquer Péter Magyar – par exemple en faisant prononcer des textes critiques par des animaux – ou à tromper très directement les internautes en singeant des reportages vidéos dénigrant le candidat. Ces derniers éléments reprennent de vraies images de Péter Magyar, mais y ajoutent divers commentaires négatifs, ou de faux présentateurs le qualifiant d’agressif.

L’Ukraine est régulièrement visée dans ces contenus, et les images de stars internationales comme Leonardo DiCaprio ou Johnny Depp utilisées pour diffuser des messages politiques.

Les images de Leonardo DiCaprio et Johnny Depp utilisées pour interférer dans les débats en amont des élections législatives hongroises / Capture d’écran Newsguard

À l’heure actuelle, les vidéos en question ont accumulé de l’ordre de 10 millions de vues. En parallèle, Newsguard constate que des émanations de la campagne russe Matriochka – qui s’était attaquée à l’Ukraine et à l’organisation des Jeux olympiques de 2024 dans l’espace informationnel français – visent aussi le public hongrois. Ces dernières recourent plutôt à X et Telegram pour diffuser de fausses informations, là encore mentionnant régulièrement l’Ukraine pour en critiquer la population.

Alors que Viktor Orbán est décrit comme le « canal d’influence le plus direct de Vladimir Poutine au sein de l’UE », plusieurs spécialistes alertent contre les risques d’ingérence dans le scrutin de la part de la Russie.

☕️ Chez Arte, les revenus des traducteurs chutent à mesure que l’IA est adoptée

24 mars 2026 à 08:49


Début février, chez Arte, des représentants du collectif de traducteurs et traductrices qui travaillent aux sous-titres de la chaîne franco-allemande étaient venus sonner l’alerte : depuis le début de l’année 2025, leurs revenus étaient en forte baisse.

Depuis plus d’une décennie, la chaîne recourt à leurs services pour adapter les magazines et documentaires vers l’anglais, l’espagnol, le polonais, l’italien et le roumain.

Sur place, les responsables du programme multilingue de la chaîne ne s’en sont pas cachés, rapporte Mediapart : ils sont très satisfaits des résultats de leurs expérimentations de traduction automatisée, menées à partir de mai 2023 et généralisées un an plus tard. À terme, le recours à l’intelligence artificielle devrait devenir « inéluctable ».

Illustration : Flock

Concrètement, cela leur permet de réduire de moitié la facture actuelle versée au prestataire d’Arte Transperfect. Pour un traducteur humain, cette facture s’élève à 10 euros la minute, dont 4 à 5 euros sont finalement reçus par le ou la traductrice. Pour ces derniers, en revanche, cela réduit la qualité du travail tout en réduisant les revenus.

Comme nous l’expliquait Margot Nguyen Béraud, membre du collectif En chair et en os, dans le dernier épisode d’Entre la chaise et le clavier, à l’ère de l’IA, le travail demandé aux professionnels de la traduction n’est plus de partir du texte initial pour l’adapter, mais d’une version « pré-mâchée » par le robot, qu’il s’agit ensuite de « post-éditer ».

L’effet sur les revenus est direct : quand bien même les principaux concernés estiment que ces post-éditions ne leur font pas tellement gagner de temps, Transperfect ne paye plus la minute que 2 ou 2,5 euros lorsqu’un système d’IA (ici, Claude d’Anthropic) est mobilisé.

Côté Arte, en revanche, l’économie permettrait de multiplier les traductions vers vingt-quatre langues à terme, et de mettre ces traductions à disposition en moins de 24 h pour les programmes d’actualité.
Pour les représentants de plusieurs syndicats et collectifs de traducteurs et traductrices, l’affaire est malheureusement « banale », le symptôme d’une tendance qui conduit de plus en plus de professionnels à quitter le métier.

Le public n’y gagne pas forcément, pointe la présidente de l’Association des traducteurs adaptateurs de l’audiovisuel (Ataa), avec des traductions médiocres dans lesquelles des marqueurs comme le tutoiement ou le vouvoiement sont mélangés, des mots intervertis, ou encore l’intégralité du texte retranscrite, alors que les experts du sous-titre tendent à proposer des élisions pour permettre au public de suivre.

❌