Meta a déployé des outils dangereux pour la santé mentale des mineurs en toute connaissance de cause et retenu des informations sur des cas d’exploitation sexuelle de mineurs, a tranché ce 24 mars un jury états-unien.
Au Nouveau-Mexique, le tribunal a condamné l’entreprise à 375 millions de dollars de dommages civils, une décision que le procureur qualifie d’ « historique », quand bien même les plaignants visaient un montant cinq fois plus élevé. C’est la première fois que l’entreprise de Mark Zuckerberg est déclaré coupable d’actes commis sur ses plateformes, note the Guardian.
L’affaire a été portée devant les tribunaux en décembre 2023, après que des enquêtes eurent détaillé comment Facebook et Instagram s’étaient transformés en place de marché de l’exploitation sexuelle de mineurs.
L’entreprise ne devra pas pour autant adapter ses pratiques tout de suite : ce sera un juge, et non un jury populaire, qui pourra se prononcer sur ce type d’évolution, rappelle AP. Meta a indiqué se pourvoir en appel.
Cette affaire est la première d’une série de plaintes déposées contre le groupe. Plus de 40 procureurs états-uniens ont par exemple déposé des plaintes fin 2023 pour le manque de protection des internautes mineurs de la part de la société.
Meta a déployé des outils dangereux pour la santé mentale des mineurs en toute connaissance de cause et retenu des informations sur des cas d’exploitation sexuelle de mineurs, a tranché ce 24 mars un jury états-unien.
Au Nouveau-Mexique, le tribunal a condamné l’entreprise à 375 millions de dollars de dommages civils, une décision que le procureur qualifie d’ « historique », quand bien même les plaignants visaient un montant cinq fois plus élevé. C’est la première fois que l’entreprise de Mark Zuckerberg est déclaré coupable d’actes commis sur ses plateformes, note the Guardian.
L’affaire a été portée devant les tribunaux en décembre 2023, après que des enquêtes eurent détaillé comment Facebook et Instagram s’étaient transformés en place de marché de l’exploitation sexuelle de mineurs.
L’entreprise ne devra pas pour autant adapter ses pratiques tout de suite : ce sera un juge, et non un jury populaire, qui pourra se prononcer sur ce type d’évolution, rappelle AP. Meta a indiqué se pourvoir en appel.
Cette affaire est la première d’une série de plaintes déposées contre le groupe. Plus de 40 procureurs états-uniens ont par exemple déposé des plaintes fin 2023 pour le manque de protection des internautes mineurs de la part de la société.
Alors qu’elle subissait depuis des années des diffusions non consenties d’images à caractère sexuel en ligne, l’actrice allemande Collien Fernandes a découvert et fait savoir publiquement que l’auteur de ces manipulations était son ex-mari, une autre star du petit écran allemand, Christian Ulmen. Ces révélations défraient la chronique, alors que l’Allemagne se prépare à débattre d’une loi de protection des internautes contres les deepfakes pornographiques et d’autres types de violences numériques.
Très engagée contre les diffusions non consenties d’images à caractère sexuel, l’animatrice et actrice allemande Collien Fernandes a déposé plainte contre son ex-mari, l’acteur Christian Ulmen, pour « agression, usurpation d’identité et diffamation ». Ensemble depuis 2010, mariés depuis l’été suivant, les deux formaient l’un des couples les plus populaires du pays jusqu’à leur séparation, annoncée en septembre 2025.
Ce 20 mars, une longue enquête du magazine Der Spiegel détaille les raisons de cette séparation : pendant des années, son ex-mari avait recouru à toutes sortes d’outils technologiques, notamment d’intelligence artificielle, pour se faire passer pour Collien Fernandes et la faire interagir dans des échanges à caractère sexuel avec des inconnus. Ces discussions recouraient par ailleurs à des images, des vidéos et des sons générés par IA à caractère sexuel.
Qualifiant le phénomène de « viol virtuel », Der Spiegel compare les débats soulevés par cette agression répétée en ligne à ceux qui entourent l’affaire Pélicot ou l’affaire Espstein, dans lesquels les victimes se battent pour être entendues.
En l’occurrence, loin d’être isolées, les violences numériques touchent des personnes de tous les âges, dans des contextes publics ou privés. Dans le cadre du foyer, le centre Hubertine Auclert constatait en 2018 (.pdf) que 9 victimes de violences conjugales sur 10 essuyaient aussi des formes de violences numériques, allant de la diffusion non consentie de contenus variés au harcèlement ou à la surveillance.
Diffusions non consenties de multiples contenus à caractère sexuel
Sur Instagram, Collien Fernandes a aussi pris la parole pour exposer ce qu’elle a subi : « Pendant des années, de faux profils ont été créés à mon nom (…) qui contactaient avant tout des hommes. Après des débuts de conversation normaux, les discussions prenaient un ton de flirt, et la personne envoyait de (fausses) images dénudées et vidéos sexuelles de moi, qui semblaient prises dans le cadre privé, comme si je m’étais moi-même photographiée dénudée et m’étais filmée en plein acte sexuel. »
Capture d’écran de la publication de Collien Fernandes sur Instagram. Ce 25 mars au matin, Meta n’affichait cette publication que derrière un panneau indiquant que le contenu pouvait choquer, ndlr.
Le phénomène, qui impliquait par ailleurs des conversations téléphoniques à caractère sexuel, là encore tenues via de la génération de voix par IA, a duré « pendant dix ans (!) », écrit Collien Fernandes. À plusieurs de ces hommes, l’auteur de l’usurpation d’identité a envoyé une « histoire érotique » évoquant un viol de la présentatrice « par 21 hommes ».
Le phénomène n’a pas cessé alors qu’en 2023, elle prenait la parole publiquement, puis, en 2024, publiait un documentaire sur la question. Seule la suspension des comptes par les plateformes concernées a permis de freiner l’agression, mais l’actrice et ses avocats n’ont jamais réussi à faire supprimer certains contenus, dont une vidéo qui a déjà enregistré plus de 270 000 vues.
Quoiqu’il arrive, raconte Der Spiegel, l’ancienne présentatrice de télévision voulait savoir qui était derrière ces diffusions, ces faux comptes LinkedIn, ces manipulations répétées de son image et son nom. En 2024, elle avait déjà déposé plainte contre X.
Et lors des fêtes de Noël de la même année, son monde s’est effondré lorsque son époux de l’époque lui a avoué être l’auteur de cette manipulation de longue durée. Outre le fait d’illustrer brutalement un phénomène vécu par d’autres femmes, l’affaire choque d’autant plus l’opinion allemande que le couple Fernandes-Ulmen, très populaire dans le paysage médiatique local, s’est exprimé à plusieurs reprises sur les enjeux d’égalités des droits.
Christian Ulmen a notamment donné des interviews dans lesquelles il expliquait le rôle qu’il jouait au foyer, lorsque sa femme était en tournage, ou indiquait dédaigner les hommes qui se comportent comme de « prétendus petits mâles dominants ». Auprès du Westdeutschen Allegmeinen Zeitung, l’acteur s’est par ailleurs décrit comme « le genre d’homme que le féminisme a toujours souhaité ».
Loi allemande vouée à évoluer
En ligne, majeurs et mineurs sont régulièrement visés par diverses formes de violences. Ce 23 mars, l’ONG britannique Internet Watch Foundation alertait par exemple sur l’évolution rapide des contenus représentant des agressions sexuelles sur mineurs (CSAM, Child sexual abuse material), dans lesquels on trouve de plus en plus d’images et de vidéos hautement crédibles générées par IA.
De même, depuis l’explosion des robots conversationnels et des outils de génération d’image, nombreuses sont les spécialistes ou les victimes de deepfakes pornographiques qui alertent contre l’explosion du phénomène, qui frappe ultra-majoritairement les femmes.
Outre ces évolutions récentes, les occurrences de diffusions non consenties d’images à caractère sexuelles de personnalités ou de personnes moins exposées, les scandales d’upskirting (prises de photo sous les jupes), de sextorsion, ou encore ceux de captation d’images à l’insu de clientes de magasins ou d’hôtel se sont répétés, au fil des années écoulées.
Si la France s’est peu à peu dotée de différents outils légaux pour lutter contre les diverses formes de cyberviolences numériques, l’Allemagne reste, à l’heure actuelle, relativement démunie sur le sujet.
Alors que plusieurs milliers de personnes se réunissaient ce week-end près de la Brandenburger Tor, à Berlin, pour soutenir Collien Fernandes, le pays attend un débat réglementaire sur une proposition de loi relative à la protection contre les violences numériques. Le texte est « presque prêt », a déclaré un porte-parole du ministère fédéral de la Justice et de la protection des consommateurs au média Heise.
Il devrait couvrir deux volets : un pénal, dans lequel les deepfakes pornographiques et diverses autres formes d’agressions numériques deviendront condamnables, et un civil, pensé pour faciliter la réaction des victimes.
Concrètement, pour ces dernières, il s’agirait de renforcer le droit à être informé par les plateformes dans les cas de violations des droits de la personnalité (qui protègent un individu contre toute ingérence dans sa vie et sa liberté).
Du côté des agresseurs, le gouvernement compte menacer de bloquer les comptes des auteurs de ce type d’agression numérique des plateformes sur lesquelles ils agissent. Le but général est de « réduire le sentiment d’impunité », a indiqué la ministre fédérale de la Justice.
Si les plateformes numériques sont principalement régulées à l’échelle européenne, tout ce qui relève du droit pénal est laissé à l’appréciation des États membres. En l’espèce, l’Allemagne manque actuellement de certaines dispositions, que cette proposition de loi pourrait permettre d’accélérer.
À défaut, les victimes de diffusion non consenties d’images à caractère sexuel ne peuvent pour le moment s’appuyer que sur des actions au civil, en demandant des compensations aux auteurs et le retrait des contenus incriminés. Mais ces procédures sont longues, et peuvent constituer une charge supplémentaire pour les victimes de violences numériques.
En attendant les évolutions allemandes, Collien Fernandes a déposé plainte devant la justice espagnole, où elle a vécu, pour usurpation d’identité, injure publique, divulgation de secrets, coups et blessures répétés dans le cadre familial et menaces graves.
Au-delà du pan numérique des agressions dont elle témoigne, elle accuse en effet son ex-mari de lui avoir fait subir des violences psychologiques et émotionnelles, ainsi que des agressions physiques.
Comme Gisèle Pélicot et d’autres victimes de violences sexistes et sexuelles, qui prennent plus facilement la parole depuis la vague #MeToo, Collien Fernandes indique au Spiegel vouloir faire « changer la honte de camp » : que les internautes qui ressentent de la honte, face à la diffusion de ce type de contenu, ne soient plus celles et ceux représentés sur les images ou vidéos, mais bien ceux qui les créent.
C’est notamment pour cela qu’elle soutient, depuis 2023, les travaux d’une association comme HateAid, qui vise à faire évoluer l’opinion publique et à pousser les législateurs allemands à mieux protéger les internautes contre les deepfakes pornographiques.
Alors qu’elle subissait depuis des années des diffusions non consenties d’images à caractère sexuel en ligne, l’actrice allemande Collien Fernandes a découvert et fait savoir publiquement que l’auteur de ces manipulations était son ex-mari, une autre star du petit écran allemand, Christian Ulmen. Ces révélations défraient la chronique, alors que l’Allemagne se prépare à débattre d’une loi de protection des internautes contres les deepfakes pornographiques et d’autres types de violences numériques.
Très engagée contre les diffusions non consenties d’images à caractère sexuel, l’animatrice et actrice allemande Collien Fernandes a déposé plainte contre son ex-mari, l’acteur Christian Ulmen, pour « agression, usurpation d’identité et diffamation ». Ensemble depuis 2010, mariés depuis l’été suivant, les deux formaient l’un des couples les plus populaires du pays jusqu’à leur séparation, annoncée en septembre 2025.
Ce 20 mars, une longue enquête du magazine Der Spiegel détaille les raisons de cette séparation : pendant des années, son ex-mari avait recouru à toutes sortes d’outils technologiques, notamment d’intelligence artificielle, pour se faire passer pour Collien Fernandes et la faire interagir dans des échanges à caractère sexuel avec des inconnus. Ces discussions recouraient par ailleurs à des images, des vidéos et des sons générés par IA à caractère sexuel.
Qualifiant le phénomène de « viol virtuel », Der Spiegel compare les débats soulevés par cette agression répétée en ligne à ceux qui entourent l’affaire Pélicot ou l’affaire Espstein, dans lesquels les victimes se battent pour être entendues.
En l’occurrence, loin d’être isolées, les violences numériques touchent des personnes de tous les âges, dans des contextes publics ou privés. Dans le cadre du foyer, le centre Hubertine Auclert constatait en 2018 (.pdf) que 9 victimes de violences conjugales sur 10 essuyaient aussi des formes de violences numériques, allant de la diffusion non consentie de contenus variés au harcèlement ou à la surveillance.
Diffusions non consenties de multiples contenus à caractère sexuel
Sur Instagram, Collien Fernandes a aussi pris la parole pour exposer ce qu’elle a subi : « Pendant des années, de faux profils ont été créés à mon nom (…) qui contactaient avant tout des hommes. Après des débuts de conversation normaux, les discussions prenaient un ton de flirt, et la personne envoyait de (fausses) images dénudées et vidéos sexuelles de moi, qui semblaient prises dans le cadre privé, comme si je m’étais moi-même photographiée dénudée et m’étais filmée en plein acte sexuel. »
Capture d’écran de la publication de Collien Fernandes sur Instagram. Ce 25 mars au matin, Meta n’affichait cette publication que derrière un panneau indiquant que le contenu pouvait choquer, ndlr.
Le phénomène, qui impliquait par ailleurs des conversations téléphoniques à caractère sexuel, là encore tenues via de la génération de voix par IA, a duré « pendant dix ans (!) », écrit Collien Fernandes. À plusieurs de ces hommes, l’auteur de l’usurpation d’identité a envoyé une « histoire érotique » évoquant un viol de la présentatrice « par 21 hommes ».
Le phénomène n’a pas cessé alors qu’en 2023, elle prenait la parole publiquement, puis, en 2024, publiait un documentaire sur la question. Seule la suspension des comptes par les plateformes concernées a permis de freiner l’agression, mais l’actrice et ses avocats n’ont jamais réussi à faire supprimer certains contenus, dont une vidéo qui a déjà enregistré plus de 270 000 vues.
Quoiqu’il arrive, raconte Der Spiegel, l’ancienne présentatrice de télévision voulait savoir qui était derrière ces diffusions, ces faux comptes LinkedIn, ces manipulations répétées de son image et son nom. En 2024, elle avait déjà déposé plainte contre X.
Et lors des fêtes de Noël de la même année, son monde s’est effondré lorsque son époux de l’époque lui a avoué être l’auteur de cette manipulation de longue durée. Outre le fait d’illustrer brutalement un phénomène vécu par d’autres femmes, l’affaire choque d’autant plus l’opinion allemande que le couple Fernandes-Ulmen, très populaire dans le paysage médiatique local, s’est exprimé à plusieurs reprises sur les enjeux d’égalités des droits.
Christian Ulmen a notamment donné des interviews dans lesquelles il expliquait le rôle qu’il jouait au foyer, lorsque sa femme était en tournage, ou indiquait dédaigner les hommes qui se comportent comme de « prétendus petits mâles dominants ». Auprès du Westdeutschen Allegmeinen Zeitung, l’acteur s’est par ailleurs décrit comme « le genre d’homme que le féminisme a toujours souhaité ».
Loi allemande vouée à évoluer
En ligne, majeurs et mineurs sont régulièrement visés par diverses formes de violences. Ce 23 mars, l’ONG britannique Internet Watch Foundation alertait par exemple sur l’évolution rapide des contenus représentant des agressions sexuelles sur mineurs (CSAM, Child sexual abuse material), dans lesquels on trouve de plus en plus d’images et de vidéos hautement crédibles générées par IA.
De même, depuis l’explosion des robots conversationnels et des outils de génération d’image, nombreuses sont les spécialistes ou les victimes de deepfakes pornographiques qui alertent contre l’explosion du phénomène, qui frappe ultra-majoritairement les femmes.
Outre ces évolutions récentes, les occurrences de diffusions non consenties d’images à caractère sexuelles de personnalités ou de personnes moins exposées, les scandales d’upskirting (prises de photo sous les jupes), de sextorsion, ou encore ceux de captation d’images à l’insu de clientes de magasins ou d’hôtel se sont répétés, au fil des années écoulées.
Si la France s’est peu à peu dotée de différents outils légaux pour lutter contre les diverses formes de cyberviolences numériques, l’Allemagne reste, à l’heure actuelle, relativement démunie sur le sujet.
Alors que plusieurs milliers de personnes se réunissaient ce week-end près de la Brandenburger Tor, à Berlin, pour soutenir Collien Fernandes, le pays attend un débat réglementaire sur une proposition de loi relative à la protection contre les violences numériques. Le texte est « presque prêt », a déclaré un porte-parole du ministère fédéral de la Justice et de la protection des consommateurs au média Heise.
Il devrait couvrir deux volets : un pénal, dans lequel les deepfakes pornographiques et diverses autres formes d’agressions numériques deviendront condamnables, et un civil, pensé pour faciliter la réaction des victimes.
Concrètement, pour ces dernières, il s’agirait de renforcer le droit à être informé par les plateformes dans les cas de violations des droits de la personnalité (qui protègent un individu contre toute ingérence dans sa vie et sa liberté).
Du côté des agresseurs, le gouvernement compte menacer de bloquer les comptes des auteurs de ce type d’agression numérique des plateformes sur lesquelles ils agissent. Le but général est de « réduire le sentiment d’impunité », a indiqué la ministre fédérale de la Justice.
Si les plateformes numériques sont principalement régulées à l’échelle européenne, tout ce qui relève du droit pénal est laissé à l’appréciation des États membres. En l’espèce, l’Allemagne manque actuellement de certaines dispositions, que cette proposition de loi pourrait permettre d’accélérer.
À défaut, les victimes de diffusion non consenties d’images à caractère sexuel ne peuvent pour le moment s’appuyer que sur des actions au civil, en demandant des compensations aux auteurs et le retrait des contenus incriminés. Mais ces procédures sont longues, et peuvent constituer une charge supplémentaire pour les victimes de violences numériques.
En attendant les évolutions allemandes, Collien Fernandes a déposé plainte devant la justice espagnole, où elle a vécu, pour usurpation d’identité, injure publique, divulgation de secrets, coups et blessures répétés dans le cadre familial et menaces graves.
Au-delà du pan numérique des agressions dont elle témoigne, elle accuse en effet son ex-mari de lui avoir fait subir des violences psychologiques et émotionnelles, ainsi que des agressions physiques.
Comme Gisèle Pélicot et d’autres victimes de violences sexistes et sexuelles, qui prennent plus facilement la parole depuis la vague #MeToo, Collien Fernandes indique au Spiegel vouloir faire « changer la honte de camp » : que les internautes qui ressentent de la honte, face à la diffusion de ce type de contenu, ne soient plus celles et ceux représentés sur les images ou vidéos, mais bien ceux qui les créent.
C’est notamment pour cela qu’elle soutient, depuis 2023, les travaux d’une association comme HateAid, qui vise à faire évoluer l’opinion publique et à pousser les législateurs allemands à mieux protéger les internautes contre les deepfakes pornographiques.
Alors que les technologies d’IA se perfectionnent, leur usage à des fins de pédocriminalité devient plus fréquent, constate l’Internet Watch Foundation. Et d’alerter sur leur propension à créer de nouvelles victimisations des enfants représentés, de même que sur le caractère particulièrement violent des actes qui y sont illustrés.
Les contenus hautement réalistes, les vidéos complètes et crédibles générées par intelligence artificielle et décrivant des agressions sexuelles sur mineurs deviennent fréquentes, voire « routinières ». C’est le constat que formule l’Internet Watch Foundation (IWF), organisation britannique indépendante qui traite les signalements de photos et de vidéos d’agressions sexuelles sur enfants que remonte le public via sa hotline et son portail de signalement.
Créée en 1996, l’ONG fait partie intégrante du réseau INHOPE, auquel appartient aussi l’association française Point de Contact. Localement, l’IWF travaille notamment avec les forces de police et les fournisseurs d’accès à internet, auxquels elle fait par exemple remonter une liste noire de près de 150 000 URL (en 2024) de sites diffusant des contenus illégaux. Or, avec l’intelligence artificielle, les contenus qu’elle traite évoluent aussi.
Explosion des contenus illégaux réalistes générés par IA
En juillet 2024, ses analystes ont repéré les premières vidéos classables comme contenu CSAM (Child sexual abuse material, contenu d’agression sexuelle sur mineur) entièrement généré par IA. « À ce moment-là, les technologies restaient rudimentaires. Les vidéos présentaient de nombreux bugs et des tremblements, ainsi que des mouvements saccadés et peu naturels qui permettaient de distinguer facilement le contenu généré par IA des images réelles », indique-t-elle dans son rapport« Violence sans limites : les contenus d’agression sexuelle sur mineur générés par IA vus par nos analystes ».
Depuis, le réalisme de ces contenus a fait un bond, et l’ONG a recensé en 2025 plus de 8 000 images et près de 3 500 vidéos crédibles, générées par IA, représentant des agressions sexuelles sur mineurs. L’année précédente, elle n’avait collecté que 13 vidéos de ce type. Pour l’IWF, loin d’être « moins dangereux » que les contenus non générés par IA, ce type d’images et de vidéos « renforcent l’intérêt sexuel pour les enfants, contribuent à la normalisation d’agressions violentes, et peuvent accroître le risque d’agressions concrètes ».
En l’occurrence, dans l’échantillon collecté en 2025, l’IWF constate que 65 % des vidéos sont classifiables en « catégorie A », celle réservée aux contenus les plus extrêmes. Pour comparaison, sur l’année 2025, « 43 % des vidéos criminelles non générées par IA et traitées par l’IWF relevaient de la catégorie A ».
Nouvelle victimisation pour les enfants représentés
Les enjeux sont multiples : l’entraînement des modèles génératifs permettant de créer ce type de contenu est effectué sur des images d’agressions réelles sur mineurs, pour commencer. Le réusage de leur image à des fins de création de contenu violent démultiplie la victimisation des survivants de ce type de violence. Concrètement, des contenus représentant des agressions réelles sont modifiés, voire « augmentés » grâce aux technologies récentes, quelques fois pour améliorer la qualité des images, d’autres fois pour renforcer le type d’agressions représentées.
Ces enjeux sont, par ailleurs, très genrés : 97 % des enfants représentés dans ces contenus CSAM générés par IA sont des filles, une proportion plus large que dans les affaires de pédocriminalité (en 2023, les travaux de la Commission indépendante sur l’inceste et les violences sexuelles faites aux enfants relevaient par exemple que 3,9 millions de femmes et 1,5 millions d’hommes étaient confrontés en France à des violences sexuelles avant 18 ans, ce qui revient à 72 % de filles et 28 % de garçons).
Plusieurs cas ont illustré cette tendance dans les dernières années, par exemple en Espagne, dans la ville d’Almendralejo, où 15 garçons ont été condamnés pour avoir recouru à des applications de nudification pour créer des images de 20 filles de 11 à 17 ans. Ou encore dans un collège de Normandie, où une douzaine de jeunes filles ont vu leur image détournée début 2025 pour créer des deepfakes à caractère sexuel.
Des technologies qui « abaissent le seuil » de création de CSAM
L’association pointe aussi le rôle des technologies dans l’évolution de ces risques. Pour créer ces contenus, les internautes recourent à des outils appuyés sur de grands modèles de langage, comme des applications de « nudification » ou des robots conversationnels plus génériques, ou à des outils de génération d’image à partir de requêtes textuelles (text-to-image). « Il n’existe pas de cas d’usage positif » pour les applications de nudification, pointe l’IWF : ces dernières « ne servent qu’à humilier, harceler et exploiter et peuvent servir à infliger de nouvelles formes d’agressions ».
Du côté des robots conversationnels, l’ONG relève deux cas d’usages problématiques : le recours à des machines comme ChatGPT ou Gemini pour obtenir de l’aide technique à la génération de contenu illégale, et la prévalence de discours à caractère sexuel dans plusieurs types de robots conversationnels.
Des outils comme Candy AI (de EverAI) ou certains bots de Character.AI sont ainsi connus pour renforcer la communication à caractère sexuel avec l’utilisateur, ce qui peut mener à des comportements proches du grooming (anglicisme normalement utilisé pour désigner l’instauration par un adulte d’une relation de confiance avec un enfant afin d’en obtenir des actes sexuels) lorsque ces robots sont utilisés par des mineurs.
Les évolutions de ces différents outils « abaissent le seuil » qui permet la création de ces contenus CSAM, alerte l’IWF. « Des projets qui demandaient autrefois de multiples outils et des compétences techniques sont désormais intégrés dans une seule application facile à prendre en main. » Des robots conversationnels disponibles pour le grand public ont par ailleurs démontré « une tendance à encourager les conversations à caractère sexuel avec les enfants, ce qui pousse les délinquants à concrétiser leurs pensées sexuelles impliquant des enfants ».
Après s’être lancé dans le suivi de ce type spécifique de production en 2023, l’IWF souligne que le CSAM généré par IA constitue toujours une « proportion relativement faible de la totalité des contenus illégaux repérés », mais que la « rapidité de son expansion présente une menace sérieuse et évolutive ».
Alors que les technologies d’IA se perfectionnent, leur usage à des fins de pédocriminalité devient plus fréquent, constate l’Internet Watch Foundation. Et d’alerter sur leur propension à créer de nouvelles victimisations des enfants représentés, de même que sur le caractère particulièrement violent des actes qui y sont illustrés.
Les contenus hautement réalistes, les vidéos complètes et crédibles générées par intelligence artificielle et décrivant des agressions sexuelles sur mineurs deviennent fréquentes, voire « routinières ». C’est le constat que formule l’Internet Watch Foundation (IWF), organisation britannique indépendante qui traite les signalements de photos et de vidéos d’agressions sexuelles sur enfants que remonte le public via sa hotline et son portail de signalement.
Créée en 1996, l’ONG fait partie intégrante du réseau INHOPE, auquel appartient aussi l’association française Point de Contact. Localement, l’IWF travaille notamment avec les forces de police et les fournisseurs d’accès à internet, auxquels elle fait par exemple remonter une liste noire de près de 150 000 URL (en 2024) de sites diffusant des contenus illégaux. Or, avec l’intelligence artificielle, les contenus qu’elle traite évoluent aussi.
Explosion des contenus illégaux réalistes générés par IA
En juillet 2024, ses analystes ont repéré les premières vidéos classables comme contenu CSAM (Child sexual abuse material, contenu d’agression sexuelle sur mineur) entièrement généré par IA. « À ce moment-là, les technologies restaient rudimentaires. Les vidéos présentaient de nombreux bugs et des tremblements, ainsi que des mouvements saccadés et peu naturels qui permettaient de distinguer facilement le contenu généré par IA des images réelles », indique-t-elle dans son rapport« Violence sans limites : les contenus d’agression sexuelle sur mineur générés par IA vus par nos analystes ».
Depuis, le réalisme de ces contenus a fait un bond, et l’ONG a recensé en 2025 plus de 8 000 images et près de 3 500 vidéos crédibles, générées par IA, représentant des agressions sexuelles sur mineurs. L’année précédente, elle n’avait collecté que 13 vidéos de ce type. Pour l’IWF, loin d’être « moins dangereux » que les contenus non générés par IA, ce type d’images et de vidéos « renforcent l’intérêt sexuel pour les enfants, contribuent à la normalisation d’agressions violentes, et peuvent accroître le risque d’agressions concrètes ».
En l’occurrence, dans l’échantillon collecté en 2025, l’IWF constate que 65 % des vidéos sont classifiables en « catégorie A », celle réservée aux contenus les plus extrêmes. Pour comparaison, sur l’année 2025, « 43 % des vidéos criminelles non générées par IA et traitées par l’IWF relevaient de la catégorie A ».
Nouvelle victimisation pour les enfants représentés
Les enjeux sont multiples : l’entraînement des modèles génératifs permettant de créer ce type de contenu est effectué sur des images d’agressions réelles sur mineurs, pour commencer. Le réusage de leur image à des fins de création de contenu violent démultiplie la victimisation des survivants de ce type de violence. Concrètement, des contenus représentant des agressions réelles sont modifiés, voire « augmentés » grâce aux technologies récentes, quelques fois pour améliorer la qualité des images, d’autres fois pour renforcer le type d’agressions représentées.
Ces enjeux sont, par ailleurs, très genrés : 97 % des enfants représentés dans ces contenus CSAM générés par IA sont des filles, une proportion plus large que dans les affaires de pédocriminalité (en 2023, les travaux de la Commission indépendante sur l’inceste et les violences sexuelles faites aux enfants relevaient par exemple que 3,9 millions de femmes et 1,5 millions d’hommes étaient confrontés en France à des violences sexuelles avant 18 ans, ce qui revient à 72 % de filles et 28 % de garçons).
Plusieurs cas ont illustré cette tendance dans les dernières années, par exemple en Espagne, dans la ville d’Almendralejo, où 15 garçons ont été condamnés pour avoir recouru à des applications de nudification pour créer des images de 20 filles de 11 à 17 ans. Ou encore dans un collège de Normandie, où une douzaine de jeunes filles ont vu leur image détournée début 2025 pour créer des deepfakes à caractère sexuel.
Des technologies qui « abaissent le seuil » de création de CSAM
L’association pointe aussi le rôle des technologies dans l’évolution de ces risques. Pour créer ces contenus, les internautes recourent à des outils appuyés sur de grands modèles de langage, comme des applications de « nudification » ou des robots conversationnels plus génériques, ou à des outils de génération d’image à partir de requêtes textuelles (text-to-image). « Il n’existe pas de cas d’usage positif » pour les applications de nudification, pointe l’IWF : ces dernières « ne servent qu’à humilier, harceler et exploiter et peuvent servir à infliger de nouvelles formes d’agressions ».
Du côté des robots conversationnels, l’ONG relève deux cas d’usages problématiques : le recours à des machines comme ChatGPT ou Gemini pour obtenir de l’aide technique à la génération de contenu illégale, et la prévalence de discours à caractère sexuel dans plusieurs types de robots conversationnels.
Des outils comme Candy AI (de EverAI) ou certains bots de Character.AI sont ainsi connus pour renforcer la communication à caractère sexuel avec l’utilisateur, ce qui peut mener à des comportements proches du grooming (anglicisme normalement utilisé pour désigner l’instauration par un adulte d’une relation de confiance avec un enfant afin d’en obtenir des actes sexuels) lorsque ces robots sont utilisés par des mineurs.
Les évolutions de ces différents outils « abaissent le seuil » qui permet la création de ces contenus CSAM, alerte l’IWF. « Des projets qui demandaient autrefois de multiples outils et des compétences techniques sont désormais intégrés dans une seule application facile à prendre en main. » Des robots conversationnels disponibles pour le grand public ont par ailleurs démontré « une tendance à encourager les conversations à caractère sexuel avec les enfants, ce qui pousse les délinquants à concrétiser leurs pensées sexuelles impliquant des enfants ».
Après s’être lancé dans le suivi de ce type spécifique de production en 2023, l’IWF souligne que le CSAM généré par IA constitue toujours une « proportion relativement faible de la totalité des contenus illégaux repérés », mais que la « rapidité de son expansion présente une menace sérieuse et évolutive ».
De nouvelles perturbations sur le centre de données d’AWS localisé au Bahreïn soulignent les enjeux que le conflit en Iran pose pour les projets d’infrastructure numérique lancés au Moyen-Orient.
Début mars, AWS faisait déjà partie des victimes collatérales des combats entre États-Unis, Israël et Iran. Ce 23 mars, d’après les informations de Reuters, ses services installés à Bahreïn sont de nouveau perturbés par des activités de drones.
Si ces interruptions de service ont été confirmées par un porte-parole de l’entreprise, ce dernier n’a pas indiqué si le centre de données concerné avait été directement touché par un tir, ou s’il subissait des aléas dus à des frappes à proximité. L’épisode illustre la situation délicate dans laquelle l’attaque de l’Iran par les États-Unis place les plus grands acteurs du numérique, qui ont multiplié ces dernières années les investissements au Moyen-Orient.
Migration encouragée vers d’autres régions
Depuis les premières perturbations liées au conflit, tout début mars, Amazon semble avoir cessé de mettre à jour sa communication sur la situation de ses équipements. Les informations relatives à « me-south-1 », comme le centre de données du Bahreïn est nommé dans la nomenclature d’AWS, restent en effet inchangées depuis le 3 mars.
Services qui restent « touchés » par des perturbations (et non « réparés ») à la suite de perturbation du centre de données me-south-1, en date du 24.03.26 / Capture d’écran Amazon
Auprès de Reuters, l’entreprise indique aider sa clientèle à migrer ses charges vers d’autres régions où les services d’AWS sont disponibles, le temps que les capacités de ce bâtiment puissent être rétablies. Début mars, l’entreprise avait indiqué plusieurs perturbations, notamment en termes d’approvisionnement électrique, aux Émirats arabes unis et au Bahreïn. L’entreprise affirmait que les frappes du moment avaient causé des « dommages structurels », et qu’à ce titre, la remise en état des équipements serait « longue ».
Mis en service en 2019, le centre de données du Bahreïn est le premier qu’Amazon ait construit dans le Golfe persique. Depuis, elle a développé des infrastructures aux Émirats arabes unis et travaille désormais à un projet à 10 milliards de dollars en Arabie saoudite. Mais les tensions actuelles risquent de mettre en péril certains projets, que ceux-ci visent à fournir de l’infrastructure classique, ou des projets plus spécifiquement dédiés à l’intelligence artificielle.
En quelques années, les Émirats, le Qatar et l’Arabie Saoudite ont en effet dépensé des milliers de milliards de dollars dans l’industrie du numérique, tandis que géants historiques de l’industrie technologique et projets plus directement liés à l’essor de l’IA venaient y réaliser leurs propres larges investissements. Oracle, Nvidia et Cisco soutiennent ainsi financièrement le projet de campus dédié à l’IA d’Open AI, appelé UAE Stargate (en écho au Stargate états-unien) et financé en collaboration avec la société émiratie G42.
Au total, en 2025, les dépenses liées au numérique orienté business et consommateur auraient dépassé les 65 milliards de dollars en 2025, soit près du double des 36 milliards relevés en 2020, selon la société IDC. Les seuls secteurs du cloud et des centres de données ont enregistré une augmentation de 75 % des dépenses, pour un total de 895 millions de dollars en 2025, relève le New-York Times.
Déjà au moins de septembre, alors que Doha, la capitale qatarie, était touchée par des frappes israéliennes, des investisseurs questionnaient auprès de CNBC la stabilité géopolitique de la région. Et si Donald Trump lui-même a salué, voire aidé à la conclusion de certains projets, sa décision de se lancer dans l’attaque récente contre l’Iran vient largement rebattre les cartes.
Rien n’empêche de considérer, souligne en effet le directeur du Center for Strategic and International Studies, que des centres de données puissent devenir des « cibles d’attaques légitimes dans les conflits armés modernes ». Mi-mars, l’Iran durcissait justement le ton, qualifiant d’« infrastructures technologiques ennemies » les équipements d’Amazon, Microsoft, Google, Palantir, Nvidia, IBM et Oracle.
Si les projets initiés dans la région ne devraient pas disparaître du jour au lendemain, des analystes préviennent qu’à défaut de détente, les prochaines vagues d’investissements pourraient se tourner vers d’autres régions du monde pour s’épargner des risques géopolitiques. Un tel cas de figure pourrait notamment profiter à l’Europe du Nord, l’Inde ou l’Asie du Sud-Est.
De nouvelles perturbations sur le centre de données d’AWS localisé au Bahreïn soulignent les enjeux que le conflit en Iran pose pour les projets d’infrastructure numérique lancés au Moyen-Orient.
Début mars, AWS faisait déjà partie des victimes collatérales des combats entre États-Unis, Israël et Iran. Ce 23 mars, d’après les informations de Reuters, ses services installés à Bahreïn sont de nouveau perturbés par des activités de drones.
Si ces interruptions de service ont été confirmées par un porte-parole de l’entreprise, ce dernier n’a pas indiqué si le centre de données concerné avait été directement touché par un tir, ou s’il subissait des aléas dus à des frappes à proximité. L’épisode illustre la situation délicate dans laquelle l’attaque de l’Iran par les États-Unis place les plus grands acteurs du numérique, qui ont multiplié ces dernières années les investissements au Moyen-Orient.
Migration encouragée vers d’autres régions
Depuis les premières perturbations liées au conflit, tout début mars, Amazon semble avoir cessé de mettre à jour sa communication sur la situation de ses équipements. Les informations relatives à « me-south-1 », comme le centre de données du Bahreïn est nommé dans la nomenclature d’AWS, restent en effet inchangées depuis le 3 mars.
Services qui restent « touchés » par des perturbations (et non « réparés ») à la suite de perturbation du centre de données me-south-1, en date du 24.03.26 / Capture d’écran Amazon
Auprès de Reuters, l’entreprise indique aider sa clientèle à migrer ses charges vers d’autres régions où les services d’AWS sont disponibles, le temps que les capacités de ce bâtiment puissent être rétablies. Début mars, l’entreprise avait indiqué plusieurs perturbations, notamment en termes d’approvisionnement électrique, aux Émirats arabes unis et au Bahreïn. L’entreprise affirmait que les frappes du moment avaient causé des « dommages structurels », et qu’à ce titre, la remise en état des équipements serait « longue ».
Mis en service en 2019, le centre de données du Bahreïn est le premier qu’Amazon ait construit dans le Golfe persique. Depuis, elle a développé des infrastructures aux Émirats arabes unis et travaille désormais à un projet à 10 milliards de dollars en Arabie saoudite. Mais les tensions actuelles risquent de mettre en péril certains projets, que ceux-ci visent à fournir de l’infrastructure classique, ou des projets plus spécifiquement dédiés à l’intelligence artificielle.
En quelques années, les Émirats, le Qatar et l’Arabie Saoudite ont en effet dépensé des milliers de milliards de dollars dans l’industrie du numérique, tandis que géants historiques de l’industrie technologique et projets plus directement liés à l’essor de l’IA venaient y réaliser leurs propres larges investissements. Oracle, Nvidia et Cisco soutiennent ainsi financièrement le projet de campus dédié à l’IA d’Open AI, appelé UAE Stargate (en écho au Stargate états-unien) et financé en collaboration avec la société émiratie G42.
Au total, en 2025, les dépenses liées au numérique orienté business et consommateur auraient dépassé les 65 milliards de dollars en 2025, soit près du double des 36 milliards relevés en 2020, selon la société IDC. Les seuls secteurs du cloud et des centres de données ont enregistré une augmentation de 75 % des dépenses, pour un total de 895 millions de dollars en 2025, relève le New-York Times.
Déjà au moins de septembre, alors que Doha, la capitale qatarie, était touchée par des frappes israéliennes, des investisseurs questionnaient auprès de CNBC la stabilité géopolitique de la région. Et si Donald Trump lui-même a salué, voire aidé à la conclusion de certains projets, sa décision de se lancer dans l’attaque récente contre l’Iran vient largement rebattre les cartes.
Rien n’empêche de considérer, souligne en effet le directeur du Center for Strategic and International Studies, que des centres de données puissent devenir des « cibles d’attaques légitimes dans les conflits armés modernes ». Mi-mars, l’Iran durcissait justement le ton, qualifiant d’« infrastructures technologiques ennemies » les équipements d’Amazon, Microsoft, Google, Palantir, Nvidia, IBM et Oracle.
Si les projets initiés dans la région ne devraient pas disparaître du jour au lendemain, des analystes préviennent qu’à défaut de détente, les prochaines vagues d’investissements pourraient se tourner vers d’autres régions du monde pour s’épargner des risques géopolitiques. Un tel cas de figure pourrait notamment profiter à l’Europe du Nord, l’Inde ou l’Asie du Sud-Est.
Patron de Superhuman, la société éditrice de Grammarly, Shishir Mehrotra est revenu sur les débats relatifs à sa fonctionnalité « Expert Review », qui permettait de réviser un texte avec l’aide de rendus automatisés présentés comme inspirés des travaux d’autrices et auteurs, scientifiques ou journalistes réels.
Après avoir créé un large débat dans la sphère anglophone, cette dernière a été suspendue le 12 mars, quelques heures après que nous retrouvions les noms de plusieurs scientifiques, écrivaines et journalistes francophones dans l’outil.
Sur les 1 500 personnes travaillant chez Superhuman, nom adopté par la société quelques mois après une levée de fonds d’un milliard de dollars, Shishir Mehrotra explique à The Verge que la décision de lancer un tel outil est revenue à une poignée de personnes, « probablement un gestionnaire de produit et quelques ingénieurs ». Il explique sa décision de la supprimer au fait qu’il s’agissait d’une « mauvaise fonctionnalité », utile « ni pour les utilisateurs, ni pour les experts ».
Illustration : Flock
Interrogé sur la rémunération qui aurait dû être proposée aux universitaires, journalistes, ou autrices et auteurs cités par la machine, l’entrepreneur répond sur la thématique de la visibilité : « Comme experts, vous avez besoin de vous rendre visibles sur internet. »
N’importe quelle personne qui publierait en ligne, estime-t-il, veut voir son contenu utilisé par d’autres, que d’autres utilisateurs y fassent référence, et que les auteurs des contenus en question soient cités. « Et pour citer, il faut utiliser votre nom ». C’est, en substance, ce que Grammarly souhaitait mettre en avant avec son outil « expert review », avance l’entrepreneur, qui considère les accusations d’usurpation d’identité « un peu exagérées ».
La journaliste Julia Angwin et d’autres poursuivent néanmoins l’entreprise en justice aux États-Unis pour usage non consenti du nom et de l’identité de personnes, sans leur consentement.
Relancé sur la question de la rémunération qui aurait pu être proposée aux personnalités citées par la machine, Shishir Mehrotra évacue à nouveau : « Nous ne devrions pas usurper votre identité, point. Nous ne l’avons pas fait. Si nous utilisons votre travail, si n’importe quel LLM ou n’importe quel produit utilise votre travail, il devrait citer la source de ces éléments et fournir les liens qui y renvoient. »
Interrogé une troisième fois sur le sujet, l’entrepreneur évoque finalement un modèle d’affaire en cours de construction – notamment la possibilité de créer des agents d’IA supposés représenter un ou une experte, qui pourrait ensuite partager les revenus tirés de l’usage de cet outil avec Grammarly, sur une répartition de l’ordre de 70 % pour l’auteur, 30 % pour la plateforme. Concrètement, Shishir Mehrotra propose un mode de financement très similaire à ce qui existe déjà dans l’écosystème des créateurs et créatrices de contenu, sans considération particulière sur la volonté des universitaires, journalistes ou autrices et auteurs cités pour ce type de nouvelle activité.
Quant aux noms cités par la fonctionnalité Expert Review – côté français, nous avions noté la présence de Valérie Masson-Delmotte, Annie Ernaux ou encore Florence Aubenas – ces derniers « viennent directement des LLM populaires ». Autrement dit, Grammarly n’aurait rien construit d’autre qu’une forme d’itération sur la pratique consistant à interroger Claude ou Gemini en lui demandant d’améliorer un texte en « s’appuyant sur les personnes les plus utiles pour donner des retours constructifs, prenant leurs travaux les plus intéressants, et utilisant cela pour fournir une révision ».
Patron de Superhuman, la société éditrice de Grammarly, Shishir Mehrotra est revenu sur les débats relatifs à sa fonctionnalité « Expert Review », qui permettait de réviser un texte avec l’aide de rendus automatisés présentés comme inspirés des travaux d’autrices et auteurs, scientifiques ou journalistes réels.
Après avoir créé un large débat dans la sphère anglophone, cette dernière a été suspendue le 12 mars, quelques heures après que nous retrouvions les noms de plusieurs scientifiques, écrivaines et journalistes francophones dans l’outil.
Sur les 1 500 personnes travaillant chez Superhuman, nom adopté par la société quelques mois après une levée de fonds d’un milliard de dollars, Shishir Mehrotra explique à The Verge que la décision de lancer un tel outil est revenue à une poignée de personnes, « probablement un gestionnaire de produit et quelques ingénieurs ». Il explique sa décision de la supprimer au fait qu’il s’agissait d’une « mauvaise fonctionnalité », utile « ni pour les utilisateurs, ni pour les experts ».
Illustration : Flock
Interrogé sur la rémunération qui aurait dû être proposée aux universitaires, journalistes, ou autrices et auteurs cités par la machine, l’entrepreneur répond sur la thématique de la visibilité : « Comme experts, vous avez besoin de vous rendre visibles sur internet. »
N’importe quelle personne qui publierait en ligne, estime-t-il, veut voir son contenu utilisé par d’autres, que d’autres utilisateurs y fassent référence, et que les auteurs des contenus en question soient cités. « Et pour citer, il faut utiliser votre nom ». C’est, en substance, ce que Grammarly souhaitait mettre en avant avec son outil « expert review », avance l’entrepreneur, qui considère les accusations d’usurpation d’identité « un peu exagérées ».
La journaliste Julia Angwin et d’autres poursuivent néanmoins l’entreprise en justice aux États-Unis pour usage non consenti du nom et de l’identité de personnes, sans leur consentement.
Relancé sur la question de la rémunération qui aurait pu être proposée aux personnalités citées par la machine, Shishir Mehrotra évacue à nouveau : « Nous ne devrions pas usurper votre identité, point. Nous ne l’avons pas fait. Si nous utilisons votre travail, si n’importe quel LLM ou n’importe quel produit utilise votre travail, il devrait citer la source de ces éléments et fournir les liens qui y renvoient. »
Interrogé une troisième fois sur le sujet, l’entrepreneur évoque finalement un modèle d’affaire en cours de construction – notamment la possibilité de créer des agents d’IA supposés représenter un ou une experte, qui pourrait ensuite partager les revenus tirés de l’usage de cet outil avec Grammarly, sur une répartition de l’ordre de 70 % pour l’auteur, 30 % pour la plateforme. Concrètement, Shishir Mehrotra propose un mode de financement très similaire à ce qui existe déjà dans l’écosystème des créateurs et créatrices de contenu, sans considération particulière sur la volonté des universitaires, journalistes ou autrices et auteurs cités pour ce type de nouvelle activité.
Quant aux noms cités par la fonctionnalité Expert Review – côté français, nous avions noté la présence de Valérie Masson-Delmotte, Annie Ernaux ou encore Florence Aubenas – ces derniers « viennent directement des LLM populaires ». Autrement dit, Grammarly n’aurait rien construit d’autre qu’une forme d’itération sur la pratique consistant à interroger Claude ou Gemini en lui demandant d’améliorer un texte en « s’appuyant sur les personnes les plus utiles pour donner des retours constructifs, prenant leurs travaux les plus intéressants, et utilisant cela pour fournir une révision ».
À chaque échéance électorale ou presque, désormais, son lot d’opérations d’influence : alors que la population hongroise doit se rendre aux urnes le 12 avril pour des élections législatives, des centaines de vidéos générées par IA circulent sur TikTok dans un but affiché d’améliorer l’image du Premier ministre Viktor Orbán et de discréditer son concurrent Péter Magyar.
En l’espèce, Newsguard indique avoir identifié un réseau de 34 comptes anonymes dédiés à moquer Péter Magyar – par exemple en faisant prononcer des textes critiques par des animaux – ou à tromper très directement les internautes en singeant des reportages vidéos dénigrant le candidat. Ces derniers éléments reprennent de vraies images de Péter Magyar, mais y ajoutent divers commentaires négatifs, ou de faux présentateurs le qualifiant d’agressif.
L’Ukraine est régulièrement visée dans ces contenus, et les images de stars internationales comme Leonardo DiCaprio ou Johnny Depp utilisées pour diffuser des messages politiques.
Les images de Leonardo DiCaprio et Johnny Depp utilisées pour interférer dans les débats en amont des élections législatives hongroises / Capture d’écran Newsguard
À l’heure actuelle, les vidéos en question ont accumulé de l’ordre de 10 millions de vues. En parallèle, Newsguard constate que des émanations de la campagne russe Matriochka – qui s’était attaquée à l’Ukraine et à l’organisation des Jeux olympiques de 2024 dans l’espace informationnel français – visent aussi le public hongrois. Ces dernières recourent plutôt à X et Telegram pour diffuser de fausses informations, là encore mentionnant régulièrement l’Ukraine pour en critiquer la population.
Alors que Viktor Orbán est décrit comme le « canal d’influence le plus direct de Vladimir Poutine au sein de l’UE », plusieurs spécialistes alertent contre les risques d’ingérence dans le scrutin de la part de la Russie.
À chaque échéance électorale ou presque, désormais, son lot d’opérations d’influence : alors que la population hongroise doit se rendre aux urnes le 12 avril pour des élections législatives, des centaines de vidéos générées par IA circulent sur TikTok dans un but affiché d’améliorer l’image du Premier ministre Viktor Orbán et de discréditer son concurrent Péter Magyar.
En l’espèce, Newsguard indique avoir identifié un réseau de 34 comptes anonymes dédiés à moquer Péter Magyar – par exemple en faisant prononcer des textes critiques par des animaux – ou à tromper très directement les internautes en singeant des reportages vidéos dénigrant le candidat. Ces derniers éléments reprennent de vraies images de Péter Magyar, mais y ajoutent divers commentaires négatifs, ou de faux présentateurs le qualifiant d’agressif.
L’Ukraine est régulièrement visée dans ces contenus, et les images de stars internationales comme Leonardo DiCaprio ou Johnny Depp utilisées pour diffuser des messages politiques.
Les images de Leonardo DiCaprio et Johnny Depp utilisées pour interférer dans les débats en amont des élections législatives hongroises / Capture d’écran Newsguard
À l’heure actuelle, les vidéos en question ont accumulé de l’ordre de 10 millions de vues. En parallèle, Newsguard constate que des émanations de la campagne russe Matriochka – qui s’était attaquée à l’Ukraine et à l’organisation des Jeux olympiques de 2024 dans l’espace informationnel français – visent aussi le public hongrois. Ces dernières recourent plutôt à X et Telegram pour diffuser de fausses informations, là encore mentionnant régulièrement l’Ukraine pour en critiquer la population.
Alors que Viktor Orbán est décrit comme le « canal d’influence le plus direct de Vladimir Poutine au sein de l’UE », plusieurs spécialistes alertent contre les risques d’ingérence dans le scrutin de la part de la Russie.
Début février, chez Arte, des représentants du collectif de traducteurs et traductrices qui travaillent aux sous-titres de la chaîne franco-allemande étaient venus sonner l’alerte : depuis le début de l’année 2025, leurs revenus étaient en forte baisse.
Depuis plus d’une décennie, la chaîne recourt à leurs services pour adapter les magazines et documentaires vers l’anglais, l’espagnol, le polonais, l’italien et le roumain.
Sur place, les responsables du programme multilingue de la chaîne ne s’en sont pas cachés, rapporte Mediapart : ils sont très satisfaits des résultats de leurs expérimentations de traduction automatisée, menées à partir de mai 2023 et généralisées un an plus tard. À terme, le recours à l’intelligence artificielle devrait devenir « inéluctable ».
Illustration : Flock
Concrètement, cela leur permet de réduire de moitié la facture actuelle versée au prestataire d’Arte Transperfect. Pour un traducteur humain, cette facture s’élève à 10 euros la minute, dont 4 à 5 euros sont finalement reçus par le ou la traductrice. Pour ces derniers, en revanche, cela réduit la qualité du travail tout en réduisant les revenus.
Comme nous l’expliquait Margot Nguyen Béraud, membre du collectif En chair et en os, dans le dernier épisode d’Entre la chaise et le clavier, à l’ère de l’IA, le travail demandé aux professionnels de la traduction n’est plus de partir du texte initial pour l’adapter, mais d’une version « pré-mâchée » par le robot, qu’il s’agit ensuite de « post-éditer ».
L’effet sur les revenus est direct : quand bien même les principaux concernés estiment que ces post-éditions ne leur font pas tellement gagner de temps, Transperfect ne paye plus la minute que 2 ou 2,5 euros lorsqu’un système d’IA (ici, Claude d’Anthropic) est mobilisé.
Côté Arte, en revanche, l’économie permettrait de multiplier les traductions vers vingt-quatre langues à terme, et de mettre ces traductions à disposition en moins de 24 h pour les programmes d’actualité. Pour les représentants de plusieurs syndicats et collectifs de traducteurs et traductrices, l’affaire est malheureusement « banale », le symptôme d’une tendance qui conduit de plus en plus de professionnels à quitter le métier.
Le public n’y gagne pas forcément, pointe la présidente de l’Association des traducteurs adaptateurs de l’audiovisuel (Ataa), avec des traductions médiocres dans lesquelles des marqueurs comme le tutoiement ou le vouvoiement sont mélangés, des mots intervertis, ou encore l’intégralité du texte retranscrite, alors que les experts du sous-titre tendent à proposer des élisions pour permettre au public de suivre.
Début février, chez Arte, des représentants du collectif de traducteurs et traductrices qui travaillent aux sous-titres de la chaîne franco-allemande étaient venus sonner l’alerte : depuis le début de l’année 2025, leurs revenus étaient en forte baisse.
Depuis plus d’une décennie, la chaîne recourt à leurs services pour adapter les magazines et documentaires vers l’anglais, l’espagnol, le polonais, l’italien et le roumain.
Sur place, les responsables du programme multilingue de la chaîne ne s’en sont pas cachés, rapporte Mediapart : ils sont très satisfaits des résultats de leurs expérimentations de traduction automatisée, menées à partir de mai 2023 et généralisées un an plus tard. À terme, le recours à l’intelligence artificielle devrait devenir « inéluctable ».
Illustration : Flock
Concrètement, cela leur permet de réduire de moitié la facture actuelle versée au prestataire d’Arte Transperfect. Pour un traducteur humain, cette facture s’élève à 10 euros la minute, dont 4 à 5 euros sont finalement reçus par le ou la traductrice. Pour ces derniers, en revanche, cela réduit la qualité du travail tout en réduisant les revenus.
Comme nous l’expliquait Margot Nguyen Béraud, membre du collectif En chair et en os, dans le dernier épisode d’Entre la chaise et le clavier, à l’ère de l’IA, le travail demandé aux professionnels de la traduction n’est plus de partir du texte initial pour l’adapter, mais d’une version « pré-mâchée » par le robot, qu’il s’agit ensuite de « post-éditer ».
L’effet sur les revenus est direct : quand bien même les principaux concernés estiment que ces post-éditions ne leur font pas tellement gagner de temps, Transperfect ne paye plus la minute que 2 ou 2,5 euros lorsqu’un système d’IA (ici, Claude d’Anthropic) est mobilisé.
Côté Arte, en revanche, l’économie permettrait de multiplier les traductions vers vingt-quatre langues à terme, et de mettre ces traductions à disposition en moins de 24 h pour les programmes d’actualité. Pour les représentants de plusieurs syndicats et collectifs de traducteurs et traductrices, l’affaire est malheureusement « banale », le symptôme d’une tendance qui conduit de plus en plus de professionnels à quitter le métier.
Le public n’y gagne pas forcément, pointe la présidente de l’Association des traducteurs adaptateurs de l’audiovisuel (Ataa), avec des traductions médiocres dans lesquelles des marqueurs comme le tutoiement ou le vouvoiement sont mélangés, des mots intervertis, ou encore l’intégralité du texte retranscrite, alors que les experts du sous-titre tendent à proposer des élisions pour permettre au public de suivre.
Michael Smith, un homme de 52 ans originaire de Caroline du Nord, a plaidé coupable, ce 20 mars, d’avoir détourné des millions de dollars de royalties en inondant les plateformes de streaming musical de morceaux générés par IA.
Non content de fabriquer la musique grâce à des systèmes d’IA générative, il avait promu ces morceaux sur les plateformes à l’aide de robots dédiés à faire grimper leur nombre d’écoutes à plusieurs milliards.
Dans le cadre d’un accord passé avec les procureurs fédéraux de New York, cet homme a plaidé coupable de complot en vue de commettre une fraude électronique, rapporte the Guardian. Cette décision fait de l’affaire l’une des premières pour fraude liée à l’IA qui aboutit.
De fait, le prévenu a « créé des milliers de fausses chansons à l’aide de l’IA », mais les revenus obtenus, eux, « étaient réels », souligne le procureur Jay Clayton dans un communiqué. D’après les termes de son accord, Michael Smith risque maintenant jusqu’à cinq ans de prison et 8 millions de dollars au titre de la confiscation de ses gains lorsque sa peine définitive sera prononcée, en juillet.
En janvier, le magazine Rolling Stones révélait que ce père de famille avait utilisé 1 040 comptes pour diffuser de l’ordre de 636 morceaux générés par IA par jour.
L’affaire illustre une tendance plus large à la diffusion de musique créée automatiquement, dont l’un des effets de bord revient à menacer directement les revenus des artistes. Des plateformes dédiées à la fabrication de ce type de morceaux, à commencer par Udio et Suno, sont ainsi attaquées devant la justice états-unienne.
Michael Smith, un homme de 52 ans originaire de Caroline du Nord, a plaidé coupable, ce 20 mars, d’avoir détourné des millions de dollars de royalties en inondant les plateformes de streaming musical de morceaux générés par IA.
Non content de fabriquer la musique grâce à des systèmes d’IA générative, il avait promu ces morceaux sur les plateformes à l’aide de robots dédiés à faire grimper leur nombre d’écoutes à plusieurs milliards.
Dans le cadre d’un accord passé avec les procureurs fédéraux de New York, cet homme a plaidé coupable de complot en vue de commettre une fraude électronique, rapporte the Guardian. Cette décision fait de l’affaire l’une des premières pour fraude liée à l’IA qui aboutit.
De fait, le prévenu a « créé des milliers de fausses chansons à l’aide de l’IA », mais les revenus obtenus, eux, « étaient réels », souligne le procureur Jay Clayton dans un communiqué. D’après les termes de son accord, Michael Smith risque maintenant jusqu’à cinq ans de prison et 8 millions de dollars au titre de la confiscation de ses gains lorsque sa peine définitive sera prononcée, en juillet.
En janvier, le magazine Rolling Stones révélait que ce père de famille avait utilisé 1 040 comptes pour diffuser de l’ordre de 636 morceaux générés par IA par jour.
L’affaire illustre une tendance plus large à la diffusion de musique créée automatiquement, dont l’un des effets de bord revient à menacer directement les revenus des artistes. Des plateformes dédiées à la fabrication de ce type de morceaux, à commencer par Udio et Suno, sont ainsi attaquées devant la justice états-unienne.
Ce 19 mars, à Versailles, le projet de centre de données de CyrusOne dans la ville de Wissous se retrouvait de nouveau devant la justice. Objet des débats : en vertu du Code de l’environnement, aurait-il dû être présenté en entier à l’administration et au public dès le début, ou son découpage en trois phases reste-t-il recevable ?
Au sortir du tribunal, les opposants au projet de centre de données de CyrusOne à Wissous avaient repris un peu d’espoir : le juge Even avait posé deux questions sur le raisonnement économique qui avait poussé l’opérateur états-unien à initier son projet. D’après Philippe de Fruyt, tête de la liste Wissous notre ville, qui vient d’être battu au premier tour des municipales, « c’est la première fois que ce point était abordé » devant la Justice.
Ce 19 mars, c’est pourtant la deuxième fois que ce retraité de l’industrie automobile se retrouvait face à la justice en tant que représentant de l’association Wissous-notre-ville, cette fois-ci devant la Cour administrative de Justice de Versailles. L’enjeu, comme nous l’expliquions dans un précédent article : contester la manière dont le projet a été porté par l’opérateur CyrusOne.
Désormais rejointe par deux associations nationales, France Nature Environnement (FNE) et Data For Good, Wissous-la-Ville estime que l’opérateur a découpé son projet en trois phases taillées à dessein pour passer sous les différents seuils de contrôle imposés par le code de l’environnement, et repousser ainsi au plus tard possible le déclenchement des audits environnementaux et de la consultation publique les plus poussés.
Sous les 20 mégawatts (MW) de puissance, les opérateurs d’installations classées pour la protection de l’environnement (ICPE) n’ont qu’à soumettre une déclaration à l’administration pour pouvoir lancer leurs travaux. Entre 20 et 50 MW, ils doivent l’enregistrer auprès de la préfecture. Au-dessus de 50 MW, ils doivent demander une autorisation, qui implique entre autres de réaliser des études environnementales et de consulter le public.
Projet complet en devenir vs. phases successives d’un projet hypothétique
Mais, au-delà de l’existence de ces seuils, le Code de l’environnement indique : « Lorsqu’un projet est constitué de plusieurs travaux (…), il doit être appréhendé dans son ensemble, y compris en cas de fractionnement dans le temps et dans l’espace et en cas de multiplicité de maîtres d’ouvrage, afin que ses incidences sur l’environnement soient évaluées dans leur globalité. »
Il reste 72% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Le partenariat de l’ex-éditeur de Pokémon Go avec Coco Robotics agite les discussions en ligne. Étant donné la spécialisation croissante de Niantic dans la construction de modèles de géolocalisation, il illustre pourtant un débouché classique de systèmes d’automatisation vers la robotique.
Oui, les données des joueurs de Pokémon Go servent à entraîner des systèmes d’IA. La nouvelle a fait bruisser les discussions numériques, ces derniers jours, alors que Niantic, l’éditeur du jeu vidéo ultra-populaire de l’été 2016 Pokémon Go, annonçait un partenariat avec Coco Robotics.
En cause : une partie du public semblait y découvrir que les multiples données de géolocalisation collectée par l’entreprise au gré des sessions de chasse aux Pokémon en réalité virtuelle servaient des finalités plus concrètes. Mais l’annonce n’est que la traduction de deux tendances : l’évolution du modèle initial de Niantic Labs, et la pratique plus globale de recherche de nouveaux débouchés économiques aux collecte de données orchestrées par les sociétés numériques.
D’éditeur de jeu vidéo à éditeur de modèle géospatial
Initialement lancée au sein de Google, en 2010 par John Hanke, Niantic Labs est en effet une société qui a pris son indépendance en 2015. Depuis, son business model a évolué, pour s’appuyer au fil du temps sur deux pieds : les revenus tirés des jeux eux-même (achats au sein des applications, événements liés à des succès comme Pokémon Go, ou encore publicité) et ceux obtenus par sa filiale Niantic Spatial, dédiée à faire évoluer les technologies de réalité augmentée et d’IA.
Depuis plusieurs années, cette dernière s’emploie en particulier à construire des modèles géospatiaux dont l’efficacité est précisément permise… par la somme de données récoltées grâce aux différents jeux en réalité augmentée de Niantic Labs. En 2024, l’entreprise dévoilait notamment son Large Geospatial Model (LGM), un système qui vient alimenter le Visual Position System (VPS) construit par l’entreprise, et à la base des jeux Pokémon Go, Ingress et Peridot.
Le but de ces différents outils : permettre aux terminaux des utilisateurs de comprendre où ils se situent dans le monde réel. L’entraînement du LGM, expliquait alors l’entreprise, avait été permis par les « milliards d’images du monde, toutes reliées à des endroits précis du globe » que lui avaient partagées les joueurs de Pokémon Go.
À l’époque, Niantic avait d’ailleurs déployé une nouvelle fonctionnalité, Pokémon Playgrounds, dans laquelle joueuses et joueurs pouvaient placer leur Pokémon dans des lieux donnés, afin que d’autres internautes puissent les voir et jouer avec. L’entreprise se targuait de recevoir en moyenne 1 million de nouveaux points de localisation par semaine, et en détenir déjà 10 millions.
La robotique, débouché industriel à part entière
Depuis Niantic a encore évolué : en mars 2025, l’entreprise vendait sa branche jeux vidéos à Scopely, pour faire de Niantic Spatial une société à par entière. Concrètement, John Hanke indiquait prendre la tête de Niantic Spatial, qui se lançait de manière indépendante grâce à 200 millions de dollars des revenus de Niantic et 50 millions de dollars d’investissements de Scopely. Le projet : faire prendre leur essor aux outils de vision et géolocalisation spatiale auxquels travaillait déjà l’entreprise.
Dans ces conditions, et sachant que l’essentiel des sociétés qui ont fait de la collecte de données un pan de leur modèle d’affaire ont ensuite mobilisé ces données pour construire divers systèmes technologiques, Niantic Spatial a assez logiquement cherché des débouchés pour son VPS et son modèle géospatial.
Ce 10 mars, la société indiquait la mise en place d’un partenariat stratégique avec la société Coco Robotics, qui construit des robots dédiés à la livraison automatisée. Une telle alliance s’explique techniquement : les systèmes de visualisation dans l’espace réel développé par Niantic Spatial pourraient servir d’« yeux » aux robots de Coco. « La navigation dans les rues chaotiques des villes est un des défis d’ingénierie les plus complexes » déclare John Danke dans leur communiqué commun, et c’est à ce défi que les deux sociétés prévoient de s’atteler ensemble.
En l’espèce, leur alliance n’est qu’un symptôme d’une recherche plus large de débouchés des technologies d’IA dans le monde hors ligne. En France, ces dernières semaines, le cofondateur d’AMI Labs Yann LeCun ne s’est ainsi pas caché de chercher des débouchés à ses futurs modèles dans « l’automatisation, les dispositifs portables, la robotique », entre autres exemples.
Bien sûr, cela signifie que Niantic tire profit des activités ludiques et bénévoles des joueurs de Pokémon Go au cours de la décennie passée. Mais est-ce une spécificité, quand on sait que l’essentiel des réseaux sociaux font de même, voire que les tests CAPTCHA que les internautes remplissent pour entrer sur des sites web permettent d’entraîner des modèles d’IA ?
Le partenariat de l’ex-éditeur de Pokémon Go avec Coco Robotics agite les discussions en ligne. Étant donné la spécialisation croissante de Niantic dans la construction de modèles de géolocalisation, il illustre pourtant un débouché classique de systèmes d’automatisation vers la robotique.
Oui, les données des joueurs de Pokémon Go servent à entraîner des systèmes d’IA. La nouvelle a fait bruisser les discussions numériques, ces derniers jours, alors que Niantic, l’éditeur du jeu vidéo ultra-populaire de l’été 2016 Pokémon Go, annonçait un partenariat avec Coco Robotics.
En cause : une partie du public semblait y découvrir que les multiples données de géolocalisation collectée par l’entreprise au gré des sessions de chasse aux Pokémon en réalité virtuelle servaient des finalités plus concrètes. Mais l’annonce n’est que la traduction de deux tendances : l’évolution du modèle initial de Niantic Labs, et la pratique plus globale de recherche de nouveaux débouchés économiques aux collecte de données orchestrées par les sociétés numériques.
D’éditeur de jeu vidéo à éditeur de modèle géospatial
Initialement lancée au sein de Google, en 2010 par John Hanke, Niantic Labs est en effet une société qui a pris son indépendance en 2015. Depuis, son business model a évolué, pour s’appuyer au fil du temps sur deux pieds : les revenus tirés des jeux eux-même (achats au sein des applications, événements liés à des succès comme Pokémon Go, ou encore publicité) et ceux obtenus par sa filiale Niantic Spatial, dédiée à faire évoluer les technologies de réalité augmentée et d’IA.
Depuis plusieurs années, cette dernière s’emploie en particulier à construire des modèles géospatiaux dont l’efficacité est précisément permise… par la somme de données récoltées grâce aux différents jeux en réalité augmentée de Niantic Labs. En 2024, l’entreprise dévoilait notamment son Large Geospatial Model (LGM), un système qui vient alimenter le Visual Position System (VPS) construit par l’entreprise, et à la base des jeux Pokémon Go, Ingress et Peridot.
Le but de ces différents outils : permettre aux terminaux des utilisateurs de comprendre où ils se situent dans le monde réel. L’entraînement du LGM, expliquait alors l’entreprise, avait été permis par les « milliards d’images du monde, toutes reliées à des endroits précis du globe » que lui avaient partagées les joueurs de Pokémon Go.
À l’époque, Niantic avait d’ailleurs déployé une nouvelle fonctionnalité, Pokémon Playgrounds, dans laquelle joueuses et joueurs pouvaient placer leur Pokémon dans des lieux donnés, afin que d’autres internautes puissent les voir et jouer avec. L’entreprise se targuait de recevoir en moyenne 1 million de nouveaux points de localisation par semaine, et en détenir déjà 10 millions.
La robotique, débouché industriel à part entière
Depuis Niantic a encore évolué : en mars 2025, l’entreprise vendait sa branche jeux vidéos à Scopely, pour faire de Niantic Spatial une société à par entière. Concrètement, John Hanke indiquait prendre la tête de Niantic Spatial, qui se lançait de manière indépendante grâce à 200 millions de dollars des revenus de Niantic et 50 millions de dollars d’investissements de Scopely. Le projet : faire prendre leur essor aux outils de vision et géolocalisation spatiale auxquels travaillait déjà l’entreprise.
Dans ces conditions, et sachant que l’essentiel des sociétés qui ont fait de la collecte de données un pan de leur modèle d’affaire ont ensuite mobilisé ces données pour construire divers systèmes technologiques, Niantic Spatial a assez logiquement cherché des débouchés pour son VPS et son modèle géospatial.
Ce 10 mars, la société indiquait la mise en place d’un partenariat stratégique avec la société Coco Robotics, qui construit des robots dédiés à la livraison automatisée. Une telle alliance s’explique techniquement : les systèmes de visualisation dans l’espace réel développé par Niantic Spatial pourraient servir d’« yeux » aux robots de Coco. « La navigation dans les rues chaotiques des villes est un des défis d’ingénierie les plus complexes » déclare John Danke dans leur communiqué commun, et c’est à ce défi que les deux sociétés prévoient de s’atteler ensemble.
En l’espèce, leur alliance n’est qu’un symptôme d’une recherche plus large de débouchés des technologies d’IA dans le monde hors ligne. En France, ces dernières semaines, le cofondateur d’AMI Labs Yann LeCun ne s’est ainsi pas caché de chercher des débouchés à ses futurs modèles dans « l’automatisation, les dispositifs portables, la robotique », entre autres exemples.
Bien sûr, cela signifie que Niantic tire profit des activités ludiques et bénévoles des joueurs de Pokémon Go au cours de la décennie passée. Mais est-ce une spécificité, quand on sait que l’essentiel des réseaux sociaux font de même, voire que les tests CAPTCHA que les internautes remplissent pour entrer sur des sites web permettent d’entraîner des modèles d’IA ?
Alors que l’entreprise multiplie les projets dédiés à étendre ses capacités de hardware et d’infrastructure dédié à l’intelligence artificielle, elle pourrait licencier jusqu’à 20 % de ses effectifs actuels.
Meta s’apprêterait à licencier 20 % de ses équipes, selon les informations de Reuters, une réduction d’effectif qui représenterait donc environ 16 000 emplois sur les 79 000 que la société compte actuellement.
S’il n’a pas encore été confirmé, ce projet se ferait dans un contexte de poursuite des investissements de l’entreprise dans l’intelligence artificielle. Ce 17 mars, la société néerlandaise Nebius indiquait par exemple avoir signé un contrat de 27 milliards de dollars avec Meta pour lui fournir diverses capacités d’infrastructure (data center, serveurs, GPU) sur les cinq prochaines années. Mi-mars, le géant des réseaux sociaux annonçait par ailleurs le développement de quatre nouvelles puces MTIA (Meta Training and Inference Accelerator), qu’elle produit depuis 2023, sur les deux prochaines années.
Investissements accélérés dans l’IA
Ces différents éléments s’intègrent dans une redirection plus large de la société vers l’intelligence artificielle générative. À l’été 2025, Mark Zuckerberg annonçait ainsi son projet d’investir des « centaines de milliards de dollars » dans l’industrie, que ce soit du côté du développement ou de la sous-traitance de centres de données spécialisés dans l’équipement dédié à faire tourner de grands modèles de langage, ou dans le recrutement de personnalités de l’IA.
À l’époque, les packages au montant faramineux proposés à des ingénieurs d’Apple, Google ou Open AI avaient défrayé la chronique : pour tenter de rattraper ses concurrents, Mark Zuckerberg avait en effet proposé jusqu’à un milliard de dollars sur plusieurs années à certains spécialistes. Début septembre, cela n’avait pas empêché certaines embauches récentes (ou plus anciennes) de repartir aussi rapidement, quelquefois pour aller directement chez la concurrence – l’ancienne directrice de produits d’IA générative Chay Nayak a rejoint OpenAI –, quelquefois pour créer leurs propres entreprises – ainsi de l’ancien directeur du laboratoire Facebook Artificial Intelligence Research (FAIR) Yann LeCun, rentré en France pour cofonder la start-up AMI.
Licenciements dans la tech
Mais maintenir ce rythme implique de larges dépenses. En novembre, l’entreprise prévoyait d’investir 600 milliards de dollars dans des infrastructures et des emplois sur les trois prochaines années, sachant que la société avait déjà dépensé 135 milliards de dollars dans le domaine sur la seule année 2025.
Auprès de Business Insider, des cadres de Meta n’en avancent pas moins que le projet de licenciements de la société pourrait débuter dès ce mois de mars. S’il se confirme, ce serait le plus gros réalisé depuis la pandémie. En novembre 2022, la société avait licencié 11 000 employés, avant de se séparer de 10 000 personnes supplémentaires en mars 2023. Début janvier 2026, elle remerciait par ailleurs 1 500 personnes de son Reality Labs, actant son détournement du métavers, pourtant ardemment promu par Mark Zuckerberg pendant la pandémie.
Outre le contexte spécifique à l’entreprise, il s’inscrirait dans une tendance plus large de licenciements dans l’industrie numérique : l’éditeur de logiciel Atlassian a par exemple indiqué se séparer de 10 % de ses effectifs il y a quelques jours, suivi notamment par Block, la société dirigé par le fondateur de Twitter Jack Dorsey. Cette dernière a annoncé fin février se séparer d’un coup de 40 % de ses 10 000 employés.