Vue normale

☕️ États-Unis : une femme emprisonnée 5 mois sur la foi d’une reconnaissance faciale erronée

30 mars 2026 à 15:10


Cinq mois de prison pour un crime commis dans un état dans lequel elle n’est jamais allée : c’est l’erreur judiciaire dont Angela Lipps, 50 ans, affirme avoir été victime. 
Arrêtée le 14 juin dans sa maison d’Elizabethton, dans l’état du Tennessee, cette mère et grand-mère de famille était visée par un mandat d’arrêt émis à 2 000 km de là, par la police de Fargo, dans le Dakota du Nord. 


Au fil de l’été, la ville a subi plusieurs cas de fraude bancaire, rapporte CNN, ce qui a conduit la police à recourir aux « technologies de reconnaissance faciale de notre partenaire » et à plusieurs « autres étapes d’enquêtes indépendantes du recours à l’IA pour aboutir à une identification », a indiqué le chef du département de police de Fargo au média.

Si ses équipes ont reconnu « quelques erreurs », aucune excuse n’a été présentée à Angela Lipps, dont les conseils déclarent qu’elle a été victime d’une erreur d’identification, notamment provoquée par le recours des forces de police aux outils de Clearview AI, et par un manque d’enquête supplémentaire.

Illustration : Flock

Utilisé par la police de West Fargo, l’outil « a identifié un suspect potentiel présentant des traits similaires à ceux d’Angela Lipps », images transmises ensuite aux équipes de Fargo. À ce moment-là, aucune charge n’était retenue dans la mesure où la police de West Fargo ne disposait pas de suffisamment de preuve pour inculper quiconque.

Le 1er juillet 2025, néanmoins, un juge du Dakota du Nord signait un mandat d’arrêt avec demande d’extradition à l’échelle des États-Unis à l’encontre de Mme Lipps. 13 jours plus tard, celle-ci était arrêtée sous les yeux de ses petits-enfants. Gardée trois mois dans les prisons du Tennessee, Angela Lipps n’a ensuite été envoyée au Dakota du Nord que le 30 octobre. « C’était la première fois que je prenais l’avion, écrit-elle en description d’une campagne GoFundMe. J’étais terrifiée. »

Ce n’est qu’à partir de ce moment qu’un avocat lui a été assigné, puis a démontré, en obtenant ses relevés bancaires, qu’elle n’avait jamais quitté le Tennessee pendant la période des fraudes. Le 23 décembre, le détective de Fargo, le procureur de l’état et le juge se sont mis d’accord pour classer la procédure, indique la police de Fargo.

Les avocats d’Angela Lipps cherchent encore à comprendre pourquoi cette dernière a été retenue autant de temps avant d’avoir accès à un conseil et aux éléments de l’enquête la visant. À Fargo, le directeur des forces de l’ordre Dave Zibolski indique que ses services n’utilisent pas d’IA de manière générale, mais que ses collègues de West Fargo le font. Un membre de ses équipes aurait considéré que les éléments envoyés par les équipes de West Fargo contenaient des images de surveillance, et non un résultat renvoyé par une machine de reconnaissance faciale.

Ses équipes n’utiliseront plus les résultats des systèmes utilisés par la police de West Fargo, faute de bien connaître leur fonctionnement. Dave Zibolski a par ailleurs indiqué considérer des mesures disciplinaires pour les policiers impliqués. Les bureaux du procureur du Dakota se sont par ailleurs déclarés « très intéressés » par des formations sur les risques d’utilisation de la reconnaissance faciale.

La CNC écarte la streameuse Ultia d’une de ses commissions après une polémique née sur X

30 mars 2026 à 14:40
Flux de conscience
La CNC écarte la streameuse Ultia d’une de ses commissions après une polémique née sur X

Après avoir détaillé sur Twitch le positionnement qu’elle comptait prendre au sein de la commission CNC Talent, la streameuse Ultia s’est vue suspendue du jury dédié à allouer des financements à divers projets numériques. Ses propos ont notamment gagné en viralité sous l’effet de comptes d’extrême-droite.

L’affaire a commencé sur Twitch, où la streameuse Ultia (291 000 followers, l’une des plus suivies de France) tient ses quartiers depuis près de dix ans. Le 25 mars, elle explique être intégrée au dispositif CNC Talent du Centre national du cinéma et de l’image animée (CNC), pour deux ans. Concrètement, elle est membre du jury d’un « fonds d’aide monétaire aux créateurs de contenus web », explique-t-elle dans son stream, avant de détailler l’intérêt d’y postuler pour celles et ceux qui souhaiteraient l’obtenir.

En ligne, le CNC détaille que l’objet de ce dispositif est d’« identifier les nouveaux talents » sur diverses plateformes sociales (YouTube, Instagram, TikTok, Twitch), pour « favoriser le renouvellement de la création et des formats » qui y sont déployés. Créé en 2017, refondu en début d’année et nommé « Fonds d’aide à la création pour les plateformes sociales », il est doté de 3 millions d’euros par an, tirés du budget général du CNC, rappelle le Figaro. Dans son stream, Ultia détaille le processus concret d’attribution des projets, qui passe par l’analyse d’une quarantaine de dossiers par la dizaine de membres composant le jury. Elle s’attarde ensuite sur ce que ça lui apporte à elle, à commencer par la recherche des formulations et justifications précises permettant d’étayer son jugement des divers dossiers.

Alors qu’elle détaille le positionnement qu’elle compte prendre, et notamment son refus de soutenir des projets portés par des créateurs d’extrême-droite, le stream est « clippé » (c’est-à-dire qu’un court passage en est extrait), publié sur X par le compte @TwitchGauchiste, puis rendu viral par d’autres comptes très en vue, notamment de figures de l’extrême-droite. Rapidement, le CNC annonce suspendre la streameuse. Si la polémique n’est pas la première à toucher l’institution publique, elle illustre aussi certains effets du clipping. Outre donner de la visibilité à certains vidéastes, cette logique d’extraction de quelques images rarement contextualisées en prive d’autres d’une partie de leurs revenus, voire se traduit par des vagues de harcèlement.

Clipping par @TwitchGauchiste

Discutant avec son public, Ultia détaillait le 25 mars certains enjeux de la participation au jury du CNC. Alors que des internautes rappellent les accusations de conflit d’intérêt qui ont concerné le youtubeur Cyprien en 2018, alors que lui-même siégeait dans une commission de la CNC, Ultia indique que les membres du jury doivent sortir de la salle au moment des délibérations si le projet étudié les concernent directement.


Il reste 60% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Les créateurs de podcast face au virage vidéo

30 mars 2026 à 09:02


Fini, les médias audios ? Sur Linkedin, la créatrice des podcasts La Poudre et Folie Douce Lauren Bastide indiquait le mois dernier renoncer à la transformation de ses épisodes en vidéo, car le processus « coûte cher, prend du temps, mobilise de l’énergie… pour une valeur ajoutée minimale ».

Dix ans après la création des studios Binge Audio, Paradiso ou Nouvelles Écoutes, les créatrices et créateurs de podcasts comme elle sont face à une évolution d’ampleur : la transformation d’un format axé sur le son à des entretiens désormais filmés, régulièrement animés par des célébrités – des réseaux sociaux, de la culture, de l’entrepreneuriat aussi, pourquoi pas –, et diffusés, en long, sur YouTube. 
La plateforme a en effet tiré l’évolution du format vers la vidéo, poussant des outils historiquement dédiés à l’audio comme Spotify à intégrer des formats vidéos à leur dispositif.

D’après le Figaro, Apple Podcasts devrait faire de même dans les prochaines semaines pour tenter de récupérer des parts d’audience, alors que 46 % de la génération Z états-unienne écoute ses podcasts sur YouTube, 35 % sur Spotify, et seulement 9 % sur Apple Podcasts, selon Coleman Insights. L’évolution a aussi poussé journalistes et créateurs de ces émissions à multiplier les « shorts », ces courts extraits aussi bien promus par YouTube que TikTok.

Auprès du quotidien français, la créatrice Clémentine Galley, dont le programme Bliss Stories sur la maternité enregistre plus de 110 millions d’écoutes, se déclare « déprimée » d’avoir dû passer à la vidéo.

Pour autant, elle constate – de même que Louie Media ou Nouvelles Écoutes – que ce nouveau mode de diffusion lui permet de toucher des publics différents, plus jeunes pour Bliss Stories, moins uniformément urbains et CSP+ pour les podcasts de Louie Media.

Si l’évolution semble positive en termes d’audience, elle ne l’est pas nécessairement en termes de revenus : pour le cofondateur de Binge Audio (racheté le mois dernier par le groupe québécois Urbania), le coût pour mille sur YouTube, en matière de publicités, ne revient qu’à quelques euros, contre 60 à 90 euros pour un podcast classique, centré sur le son.

Illustration : Flock

IA : pour éviter la « rupture du pacte social », la CSNP promeut la coordination

26 mars 2026 à 15:58
Dialoguer pour simplifier
IA : pour éviter la « rupture du pacte social »,  la CSNP promeut la coordination

Pour la publication de son avis sur l’adoption de l’intelligence artificielle par les entreprises françaises, la Commission Supérieure du Numérique et des Postes organisait ce 26 mars une table-ronde avec plusieurs des acteurs qu’elle a auditionnés. Next y était.

En matière de développement de l’intelligence artificielle dans les entreprises, la France fait face à trois tensions principales : une tension financière, illustrée par les 420 milliards de dollars d’investissements injectés dans les infrastructures numérique outre-Atlantique sur la seule année 2025 ; une tension énergétique, qui vient concurrencer les objectifs français de « réindustrialisation décarbonée » et une tension sociale, notamment sur la question des emplois des jeunes diplômés.

Tel était le constat posé ce 26 mars par le sénateur Damien Michallet (Les Républicains) alors qu’il présentait l’avis de la Commission Supérieure du Numérique et des Postes (CSNP) sur l’adoption de l’intelligence artificielle par les entreprises françaises. Pour les relever, la CSNP formule 26 recommandations réparties en cinq chapitres : piloter, accompagner (les entreprises et l’adoption de solutions françaises ou européennes), former, dialoguer de manière « renforcée », selon les mots du sénateur de l’Isère, avec les partenaires sociaux, mais aussi simplifier les textes existants.

Nécessité d’adopter l’IA…

Aux trois enjeux identifiés par la CSNP, la ministre déléguée chargée de l’intelligence artificielle et du numérique Anne le Hénanff ajoute une tension d’ordre « sociétale », au sens des risques de « détournement des systèmes d’IA à des fins malveillantes ». Ces types de manipulation soulèvent des problématiques « d’ordre démocratique, envers les plus vulnérables » (on entend ici un écho aux débats soulevés par la diffusion massive de deepfakes pornographiques sur Grok), sans oublier aux « entreprises elles-mêmes », susceptibles elles aussi d’être « attaquées » par le biais d’éléments manipulés par IA.


Il reste 84% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

☕️ Santé mentale des mineurs : Meta condamné à 375 millions de dollars de dommages

25 mars 2026 à 16:07


Meta a déployé des outils dangereux pour la santé mentale des mineurs en toute connaissance de cause et retenu des informations sur des cas d’exploitation sexuelle de mineurs, a tranché ce 24 mars un jury états-unien.

Au Nouveau-Mexique, le tribunal a condamné l’entreprise à 375 millions de dollars de dommages civils, une décision que le procureur qualifie d’ « historique », quand bien même les plaignants visaient un montant cinq fois plus élevé. 
C’est la première fois que l’entreprise de Mark Zuckerberg est déclaré coupable d’actes commis sur ses plateformes, note the Guardian.

L’affaire a été portée devant les tribunaux en décembre 2023, après que des enquêtes eurent détaillé comment Facebook et Instagram s’étaient transformés en place de marché de l’exploitation sexuelle de mineurs.

L’entreprise ne devra pas pour autant adapter ses pratiques tout de suite : ce sera un juge, et non un jury populaire, qui pourra se prononcer sur ce type d’évolution, rappelle AP. Meta a indiqué se pourvoir en appel.

Cette affaire est la première d’une série de plaintes déposées contre le groupe. Plus de 40 procureurs états-uniens ont par exemple déposé des plaintes fin 2023 pour le manque de protection des internautes mineurs de la part de la société.

Deepfakes pornographiques : l’Allemagne secouée par un scandale de « viols virtuels »

25 mars 2026 à 15:33
Violences conjugales numériques et publiques
Deepfakes pornographiques : l’Allemagne secouée par un scandale de « viols virtuels »

Alors qu’elle subissait depuis des années des diffusions non consenties d’images à caractère sexuel en ligne, l’actrice allemande Collien Fernandes a découvert et fait savoir publiquement que l’auteur de ces manipulations était son ex-mari, une autre star du petit écran allemand, Christian Ulmen. Ces révélations défraient la chronique, alors que l’Allemagne se prépare à débattre d’une loi de protection des internautes contres les deepfakes pornographiques et d’autres types de violences numériques.

Très engagée contre les diffusions non consenties d’images à caractère sexuel, l’animatrice et actrice allemande Collien Fernandes a déposé plainte contre son ex-mari, l’acteur Christian Ulmen, pour « agression, usurpation d’identité et diffamation ». Ensemble depuis 2010, mariés depuis l’été suivant, les deux formaient l’un des couples les plus populaires du pays jusqu’à leur séparation, annoncée en septembre 2025.

Ce 20 mars, une longue enquête du magazine Der Spiegel détaille les raisons de cette séparation : pendant des années, son ex-mari avait recouru à toutes sortes d’outils technologiques, notamment d’intelligence artificielle, pour se faire passer pour Collien Fernandes et la faire interagir dans des échanges à caractère sexuel avec des inconnus. Ces discussions recouraient par ailleurs à des images, des vidéos et des sons générés par IA à caractère sexuel.

Qualifiant le phénomène de « viol virtuel », Der Spiegel compare les débats soulevés par cette agression répétée en ligne à ceux qui entourent l’affaire Pélicot ou l’affaire Espstein, dans lesquels les victimes se battent pour être entendues.

En l’occurrence, loin d’être isolées, les violences numériques touchent des personnes de tous les âges, dans des contextes publics ou privés. Dans le cadre du foyer, le centre Hubertine Auclert constatait en 2018 (.pdf) que 9 victimes de violences conjugales sur 10 essuyaient aussi des formes de violences numériques, allant de la diffusion non consentie de contenus variés au harcèlement ou à la surveillance.

Diffusions non consenties de multiples contenus à caractère sexuel

Sur Instagram, Collien Fernandes a aussi pris la parole pour exposer ce qu’elle a subi : « Pendant des années, de faux profils ont été créés à mon nom (…) qui contactaient avant tout des hommes. Après des débuts de conversation normaux, les discussions prenaient un ton de flirt, et la personne envoyait de (fausses) images dénudées et vidéos sexuelles de moi, qui semblaient prises dans le cadre privé, comme si je m’étais moi-même photographiée dénudée et m’étais filmée en plein acte sexuel. »

Capture d’écran de la publication de Collien Fernandes sur Instagram. Ce 25 mars au matin, Meta n’affichait cette publication que derrière un panneau indiquant que le contenu pouvait choquer, ndlr.

Le phénomène, qui impliquait par ailleurs des conversations téléphoniques à caractère sexuel, là encore tenues via de la génération de voix par IA, a duré « pendant dix ans (!) », écrit Collien Fernandes. À plusieurs de ces hommes, l’auteur de l’usurpation d’identité a envoyé une « histoire érotique » évoquant un viol de la présentatrice « par 21 hommes ».

Le phénomène n’a pas cessé alors qu’en 2023, elle prenait la parole publiquement, puis, en 2024, publiait un documentaire sur la question. Seule la suspension des comptes par les plateformes concernées a permis de freiner l’agression, mais l’actrice et ses avocats n’ont jamais réussi à faire supprimer certains contenus, dont une vidéo qui a déjà enregistré plus de 270 000 vues.

Quoiqu’il arrive, raconte Der Spiegel, l’ancienne présentatrice de télévision voulait savoir qui était derrière ces diffusions, ces faux comptes LinkedIn, ces manipulations répétées de son image et son nom. En 2024, elle avait déjà déposé plainte contre X.

Et lors des fêtes de Noël de la même année, son monde s’est effondré lorsque son époux de l’époque lui a avoué être l’auteur de cette manipulation de longue durée. Outre le fait d’illustrer brutalement un phénomène vécu par d’autres femmes, l’affaire choque d’autant plus l’opinion allemande que le couple Fernandes-Ulmen, très populaire dans le paysage médiatique local, s’est exprimé à plusieurs reprises sur les enjeux d’égalités des droits.

Christian Ulmen a notamment donné des interviews dans lesquelles il expliquait le rôle qu’il jouait au foyer, lorsque sa femme était en tournage, ou indiquait dédaigner les hommes qui se comportent comme de « prétendus petits mâles dominants ». Auprès du Westdeutschen Allegmeinen Zeitung, l’acteur s’est par ailleurs décrit comme « le genre d’homme que le féminisme a toujours souhaité ».

Loi allemande vouée à évoluer

En ligne, majeurs et mineurs sont régulièrement visés par diverses formes de violences. Ce 23 mars, l’ONG britannique Internet Watch Foundation alertait par exemple sur l’évolution rapide des contenus représentant des agressions sexuelles sur mineurs (CSAM, Child sexual abuse material), dans lesquels on trouve de plus en plus d’images et de vidéos hautement crédibles générées par IA.

De même, depuis l’explosion des robots conversationnels et des outils de génération d’image, nombreuses sont les spécialistes ou les victimes de deepfakes pornographiques qui alertent contre l’explosion du phénomène, qui frappe ultra-majoritairement les femmes.

Outre ces évolutions récentes, les occurrences de diffusions non consenties d’images à caractère sexuelles de personnalités ou de personnes moins exposées, les scandales d’upskirting (prises de photo sous les jupes), de sextorsion, ou encore ceux de captation d’images à l’insu de clientes de magasins ou d’hôtel se sont répétés, au fil des années écoulées.

Si la France s’est peu à peu dotée de différents outils légaux pour lutter contre les diverses formes de cyberviolences numériques, l’Allemagne reste, à l’heure actuelle, relativement démunie sur le sujet.

Alors que plusieurs milliers de personnes se réunissaient ce week-end près de la Brandenburger Tor, à Berlin, pour soutenir Collien Fernandes, le pays attend un débat réglementaire sur une proposition de loi relative à la protection contre les violences numériques. Le texte est « presque prêt », a déclaré un porte-parole du ministère fédéral de la Justice et de la protection des consommateurs au média Heise.

Il devrait couvrir deux volets : un pénal, dans lequel les deepfakes pornographiques et diverses autres formes d’agressions numériques deviendront condamnables, et un civil, pensé pour faciliter la réaction des victimes.

Concrètement, pour ces dernières, il s’agirait de renforcer le droit à être informé par les plateformes dans les cas de violations des droits de la personnalité (qui protègent un individu contre toute ingérence dans sa vie et sa liberté).

Du côté des agresseurs, le gouvernement compte menacer de bloquer les comptes des auteurs de ce type d’agression numérique des plateformes sur lesquelles ils agissent. Le but général est de « réduire le sentiment d’impunité », a indiqué la ministre fédérale de la Justice.

Si les plateformes numériques sont principalement régulées à l’échelle européenne, tout ce qui relève du droit pénal est laissé à l’appréciation des États membres. En l’espèce, l’Allemagne manque actuellement de certaines dispositions, que cette proposition de loi pourrait permettre d’accélérer.

À défaut, les victimes de diffusion non consenties d’images à caractère sexuel ne peuvent pour le moment s’appuyer que sur des actions au civil, en demandant des compensations aux auteurs et le retrait des contenus incriminés. Mais ces procédures sont longues, et peuvent constituer une charge supplémentaire pour les victimes de violences numériques.

En attendant les évolutions allemandes, Collien Fernandes a déposé plainte devant la justice espagnole, où elle a vécu, pour usurpation d’identité, injure publique, divulgation de secrets, coups et blessures répétés dans le cadre familial et menaces graves.

Au-delà du pan numérique des agressions dont elle témoigne, elle accuse en effet son ex-mari de lui avoir fait subir des violences psychologiques et émotionnelles, ainsi que des agressions physiques.

Comme Gisèle Pélicot et d’autres victimes de violences sexistes et sexuelles, qui prennent plus facilement la parole depuis la vague #MeToo, Collien Fernandes indique au Spiegel vouloir faire « changer la honte de camp » : que les internautes qui ressentent de la honte, face à la diffusion de ce type de contenu, ne soient plus celles et ceux représentés sur les images ou vidéos, mais bien ceux qui les créent.

C’est notamment pour cela qu’elle soutient, depuis 2023, les travaux d’une association comme HateAid, qui vise à faire évoluer l’opinion publique et à pousser les législateurs allemands à mieux protéger les internautes contre les deepfakes pornographiques.

Images et vidéos pédocriminelles crédibles générées par IA se multiplient, alerte l’IWF

25 mars 2026 à 10:06
Génération d'illégalité
Images et vidéos pédocriminelles crédibles générées par IA se multiplient, alerte l’IWF

Alors que les technologies d’IA se perfectionnent, leur usage à des fins de pédocriminalité devient plus fréquent, constate l’Internet Watch Foundation. Et d’alerter sur leur propension à créer de nouvelles victimisations des enfants représentés, de même que sur le caractère particulièrement violent des actes qui y sont illustrés.

Les contenus hautement réalistes, les vidéos complètes et crédibles générées par intelligence artificielle et décrivant des agressions sexuelles sur mineurs deviennent fréquentes, voire « routinières ». C’est le constat que formule l’Internet Watch Foundation (IWF), organisation britannique indépendante qui traite les signalements de photos et de vidéos d’agressions sexuelles sur enfants que remonte le public via sa hotline et son portail de signalement.

Créée en 1996, l’ONG fait partie intégrante du réseau INHOPE, auquel appartient aussi l’association française Point de Contact. Localement, l’IWF travaille notamment avec les forces de police et les fournisseurs d’accès à internet, auxquels elle fait par exemple remonter une liste noire de près de 150 000 URL (en 2024) de sites diffusant des contenus illégaux. Or, avec l’intelligence artificielle, les contenus qu’elle traite évoluent aussi.

Explosion des contenus illégaux réalistes générés par IA

En juillet 2024, ses analystes ont repéré les premières vidéos classables comme contenu CSAM (Child sexual abuse material, contenu d’agression sexuelle sur mineur) entièrement généré par IA. « À ce moment-là, les technologies restaient rudimentaires. Les vidéos présentaient de nombreux bugs et des tremblements, ainsi que des mouvements saccadés et peu naturels qui permettaient de distinguer facilement le contenu généré par IA des images réelles », indique-t-elle dans son rapport « Violence sans limites : les contenus d’agression sexuelle sur mineur générés par IA vus par nos analystes ».

Depuis, le réalisme de ces contenus a fait un bond, et l’ONG a recensé en 2025 plus de 8 000 images et près de 3 500 vidéos crédibles, générées par IA, représentant des agressions sexuelles sur mineurs. L’année précédente, elle n’avait collecté que 13 vidéos de ce type. Pour l’IWF, loin d’être « moins dangereux » que les contenus non générés par IA, ce type d’images et de vidéos « renforcent l’intérêt sexuel pour les enfants, contribuent à la normalisation d’agressions violentes, et peuvent accroître le risque d’agressions concrètes ».

En l’occurrence, dans l’échantillon collecté en 2025, l’IWF constate que 65 % des vidéos sont classifiables en « catégorie A », celle réservée aux contenus les plus extrêmes. Pour comparaison, sur l’année 2025, « 43 % des vidéos criminelles non générées par IA et traitées par l’IWF relevaient de la catégorie A ».

Nouvelle victimisation pour les enfants représentés

Les enjeux sont multiples : l’entraînement des modèles génératifs permettant de créer ce type de contenu est effectué sur des images d’agressions réelles sur mineurs, pour commencer. Le réusage de leur image à des fins de création de contenu violent démultiplie la victimisation des survivants de ce type de violence. Concrètement, des contenus représentant des agressions réelles sont modifiés, voire « augmentés » grâce aux technologies récentes, quelques fois pour améliorer la qualité des images, d’autres fois pour renforcer le type d’agressions représentées.

Ces enjeux sont, par ailleurs, très genrés : 97 % des enfants représentés dans ces contenus CSAM générés par IA sont des filles, une proportion plus large que dans les affaires de pédocriminalité (en 2023, les travaux de la Commission indépendante sur l’inceste et les violences sexuelles faites aux enfants relevaient par exemple que 3,9 millions de femmes et 1,5 millions d’hommes étaient confrontés en France à des violences sexuelles avant 18 ans, ce qui revient à 72 % de filles et 28 % de garçons).

Plusieurs cas ont illustré cette tendance dans les dernières années, par exemple en Espagne, dans la ville d’Almendralejo, où 15 garçons ont été condamnés pour avoir recouru à des applications de nudification pour créer des images de 20 filles de 11 à 17 ans. Ou encore dans un collège de Normandie, où une douzaine de jeunes filles ont vu leur image détournée début 2025 pour créer des deepfakes à caractère sexuel.

Des technologies qui « abaissent le seuil » de création de CSAM

L’association pointe aussi le rôle des technologies dans l’évolution de ces risques. Pour créer ces contenus, les internautes recourent à des outils appuyés sur de grands modèles de langage, comme des applications de « nudification » ou des robots conversationnels plus génériques, ou à des outils de génération d’image à partir de requêtes textuelles (text-to-image). « Il n’existe pas de cas d’usage positif » pour les applications de nudification, pointe l’IWF : ces dernières « ne servent qu’à humilier, harceler et exploiter et peuvent servir à infliger de nouvelles formes d’agressions ».

Du côté des robots conversationnels, l’ONG relève deux cas d’usages problématiques : le recours à des machines comme ChatGPT ou Gemini pour obtenir de l’aide technique à la génération de contenu illégale, et la prévalence de discours à caractère sexuel dans plusieurs types de robots conversationnels.

Des outils comme Candy AI (de EverAI) ou certains bots de Character.AI sont ainsi connus pour renforcer la communication à caractère sexuel avec l’utilisateur, ce qui peut mener à des comportements proches du grooming (anglicisme normalement utilisé pour désigner l’instauration par un adulte d’une relation de confiance avec un enfant afin d’en obtenir des actes sexuels) lorsque ces robots sont utilisés par des mineurs. 



Les évolutions de ces différents outils « abaissent le seuil » qui permet la création de ces contenus CSAM, alerte l’IWF. « Des projets qui demandaient autrefois de multiples outils et des compétences techniques sont désormais intégrés dans une seule application facile à prendre en main. » Des robots conversationnels disponibles pour le grand public ont par ailleurs démontré « une tendance à encourager les conversations à caractère sexuel avec les enfants, ce qui pousse les délinquants à concrétiser leurs pensées sexuelles impliquant des enfants ».

Après s’être lancé dans le suivi de ce type spécifique de production en 2023, l’IWF souligne que le CSAM généré par IA constitue toujours une « proportion relativement faible de la totalité des contenus illégaux repérés », mais que la « rapidité de son expansion présente une menace sérieuse et évolutive ».

Guerre en Iran : nouvelles perturbations pour les infrastructures d’Amazon au Bahreïn

24 mars 2026 à 16:02
Collateral damages
Guerre en Iran : nouvelles perturbations pour les infrastructures d’Amazon au Bahreïn

De nouvelles perturbations sur le centre de données d’AWS localisé au Bahreïn soulignent les enjeux que le conflit en Iran pose pour les projets d’infrastructure numérique lancés au Moyen-Orient.

Début mars, AWS faisait déjà partie des victimes collatérales des combats entre États-Unis, Israël et Iran. Ce 23 mars, d’après les informations de Reuters, ses services installés à Bahreïn sont de nouveau perturbés par des activités de drones.

Si ces interruptions de service ont été confirmées par un porte-parole de l’entreprise, ce dernier n’a pas indiqué si le centre de données concerné avait été directement touché par un tir, ou s’il subissait des aléas dus à des frappes à proximité. L’épisode illustre la situation délicate dans laquelle l’attaque de l’Iran par les États-Unis place les plus grands acteurs du numérique, qui ont multiplié ces dernières années les investissements au Moyen-Orient.

Migration encouragée vers d’autres régions

Depuis les premières perturbations liées au conflit, tout début mars, Amazon semble avoir cessé de mettre à jour sa communication sur la situation de ses équipements. Les informations relatives à « me-south-1 », comme le centre de données du Bahreïn est nommé dans la nomenclature d’AWS, restent en effet inchangées depuis le 3 mars.


Services qui restent « touchés » par des perturbations (et non « réparés ») à la suite de perturbation du centre de données me-south-1, en date du 24.03.26
 / Capture d’écran Amazon

Auprès de Reuters, l’entreprise indique aider sa clientèle à migrer ses charges vers d’autres régions où les services d’AWS sont disponibles, le temps que les capacités de ce bâtiment puissent être rétablies. Début mars, l’entreprise avait indiqué plusieurs perturbations, notamment en termes d’approvisionnement électrique, aux Émirats arabes unis et au Bahreïn. L’entreprise affirmait que les frappes du moment avaient causé des « dommages structurels », et qu’à ce titre, la remise en état des équipements serait « longue ».

Multiplication de projets au Moyen-Orient

Mis en service en 2019, le centre de données du Bahreïn est le premier qu’Amazon ait construit dans le Golfe persique. Depuis, elle a développé des infrastructures aux Émirats arabes unis et travaille désormais à un projet à 10 milliards de dollars en Arabie saoudite. Mais les tensions actuelles risquent de mettre en péril certains projets, que ceux-ci visent à fournir de l’infrastructure classique, ou des projets plus spécifiquement dédiés à l’intelligence artificielle. 


En quelques années, les Émirats, le Qatar et l’Arabie Saoudite ont en effet dépensé des milliers de milliards de dollars dans l’industrie du numérique, tandis que géants historiques de l’industrie technologique et projets plus directement liés à l’essor de l’IA venaient y réaliser leurs propres larges investissements. Oracle, Nvidia et Cisco soutiennent ainsi financièrement le projet de campus dédié à l’IA d’Open AI, appelé UAE Stargate (en écho au Stargate états-unien) et financé en collaboration avec la société émiratie G42.



Au total, en 2025, les dépenses liées au numérique orienté business et consommateur auraient dépassé les 65 milliards de dollars en 2025, soit près du double des 36 milliards relevés en 2020, selon la société IDC. Les seuls secteurs du cloud et des centres de données ont enregistré une augmentation de 75 % des dépenses, pour un total de 895 millions de dollars en 2025, relève le New-York Times.

Déjà au moins de septembre, alors que Doha, la capitale qatarie, était touchée par des frappes israéliennes, des investisseurs questionnaient auprès de CNBC la stabilité géopolitique de la région. Et si Donald Trump lui-même a salué, voire aidé à la conclusion de certains projets, sa décision de se lancer dans l’attaque récente contre l’Iran vient largement rebattre les cartes.

Rien n’empêche de considérer, souligne en effet le directeur du Center for Strategic and International Studies, que des centres de données puissent devenir des « cibles d’attaques légitimes dans les conflits armés modernes ». Mi-mars, l’Iran durcissait justement le ton, qualifiant d’« infrastructures technologiques ennemies » les équipements d’Amazon, Microsoft, Google, Palantir, Nvidia, IBM et Oracle.

Si les projets initiés dans la région ne devraient pas disparaître du jour au lendemain, des analystes préviennent qu’à défaut de détente, les prochaines vagues d’investissements pourraient se tourner vers d’autres régions du monde pour s’épargner des risques géopolitiques. Un tel cas de figure pourrait notamment profiter à l’Europe du Nord, l’Inde ou l’Asie du Sud-Est.

☕️ Pour le patron de Grammarly, tout expert pourrait tirer profit d’agents d’IA à son nom

24 mars 2026 à 13:56


Patron de Superhuman, la société éditrice de Grammarly, Shishir Mehrotra est revenu sur les débats relatifs à sa fonctionnalité « Expert Review », qui permettait de réviser un texte avec l’aide de rendus automatisés présentés comme inspirés des travaux d’autrices et auteurs, scientifiques ou journalistes réels.

Après avoir créé un large débat dans la sphère anglophone, cette dernière a été suspendue le 12 mars, quelques heures après que nous retrouvions les noms de plusieurs scientifiques, écrivaines et journalistes francophones dans l’outil.

Sur les 1 500 personnes travaillant chez Superhuman, nom adopté par la société quelques mois après une levée de fonds d’un milliard de dollars, Shishir Mehrotra explique à The Verge que la décision de lancer un tel outil est revenue à une poignée de personnes, « probablement un gestionnaire de produit et quelques ingénieurs ». Il explique sa décision de la supprimer au fait qu’il s’agissait d’une « mauvaise fonctionnalité », utile « ni pour les utilisateurs, ni pour les experts ».

Illustration : Flock

Interrogé sur la rémunération qui aurait dû être proposée aux universitaires, journalistes, ou autrices et auteurs cités par la machine, l’entrepreneur répond sur la thématique de la visibilité : « Comme experts, vous avez besoin de vous rendre visibles sur internet. »

N’importe quelle personne qui publierait en ligne, estime-t-il, veut voir son contenu utilisé par d’autres, que d’autres utilisateurs y fassent référence, et que les auteurs des contenus en question soient cités. « Et pour citer, il faut utiliser votre nom ». C’est, en substance, ce que Grammarly souhaitait mettre en avant avec son outil « expert review », avance l’entrepreneur, qui considère les accusations d’usurpation d’identité « un peu exagérées ».

La journaliste Julia Angwin et d’autres poursuivent néanmoins l’entreprise en justice aux États-Unis pour usage non consenti du nom et de l’identité de personnes, sans leur consentement.

Relancé sur la question de la rémunération qui aurait pu être proposée aux personnalités citées par la machine, Shishir Mehrotra évacue à nouveau : « Nous ne devrions pas usurper votre identité, point. Nous ne l’avons pas fait. Si nous utilisons votre travail, si n’importe quel LLM ou n’importe quel produit utilise votre travail, il devrait citer la source de ces éléments et fournir les liens qui y renvoient. »

Interrogé une troisième fois sur le sujet, l’entrepreneur évoque finalement un modèle d’affaire en cours de construction – notamment la possibilité de créer des agents d’IA supposés représenter un ou une experte, qui pourrait ensuite partager les revenus tirés de l’usage de cet outil avec Grammarly, sur une répartition de l’ordre de 70 % pour l’auteur, 30 % pour la plateforme. Concrètement, Shishir Mehrotra propose un mode de financement très similaire à ce qui existe déjà dans l’écosystème des créateurs et créatrices de contenu, sans considération particulière sur la volonté des universitaires, journalistes ou autrices et auteurs cités pour ce type de nouvelle activité.

Quant aux noms cités par la fonctionnalité Expert Review – côté français, nous avions noté la présence de Valérie Masson-Delmotte, Annie Ernaux ou encore Florence Aubenas – ces derniers « viennent directement des LLM populaires ». Autrement dit, Grammarly n’aurait rien construit d’autre qu’une forme d’itération sur la pratique consistant à interroger Claude ou Gemini en lui demandant d’améliorer un texte en « s’appuyant sur les personnes les plus utiles pour donner des retours constructifs, prenant leurs travaux les plus intéressants, et utilisant cela pour fournir une révision ».

☕️ Sur Tiktok, une campagne d’influence en amont des élections législatives hongroises

24 mars 2026 à 10:19


À chaque échéance électorale ou presque, désormais, son lot d’opérations d’influence : alors que la population hongroise doit se rendre aux urnes le 12 avril pour des élections législatives, des centaines de vidéos générées par IA circulent sur TikTok dans un but affiché d’améliorer l’image du Premier ministre Viktor Orbán et de discréditer son concurrent Péter Magyar.

En l’espèce, Newsguard indique avoir identifié un réseau de 34 comptes anonymes dédiés à moquer Péter Magyar – par exemple en faisant prononcer des textes critiques par des animaux – ou à tromper très directement les internautes en singeant des reportages vidéos dénigrant le candidat. Ces derniers éléments reprennent de vraies images de Péter Magyar, mais y ajoutent divers commentaires négatifs, ou de faux présentateurs le qualifiant d’agressif.

L’Ukraine est régulièrement visée dans ces contenus, et les images de stars internationales comme Leonardo DiCaprio ou Johnny Depp utilisées pour diffuser des messages politiques.

Les images de Leonardo DiCaprio et Johnny Depp utilisées pour interférer dans les débats en amont des élections législatives hongroises / Capture d’écran Newsguard

À l’heure actuelle, les vidéos en question ont accumulé de l’ordre de 10 millions de vues. En parallèle, Newsguard constate que des émanations de la campagne russe Matriochka – qui s’était attaquée à l’Ukraine et à l’organisation des Jeux olympiques de 2024 dans l’espace informationnel français – visent aussi le public hongrois. Ces dernières recourent plutôt à X et Telegram pour diffuser de fausses informations, là encore mentionnant régulièrement l’Ukraine pour en critiquer la population.

Alors que Viktor Orbán est décrit comme le « canal d’influence le plus direct de Vladimir Poutine au sein de l’UE », plusieurs spécialistes alertent contre les risques d’ingérence dans le scrutin de la part de la Russie.

☕️ Chez Arte, les revenus des traducteurs chutent à mesure que l’IA est adoptée

24 mars 2026 à 08:49


Début février, chez Arte, des représentants du collectif de traducteurs et traductrices qui travaillent aux sous-titres de la chaîne franco-allemande étaient venus sonner l’alerte : depuis le début de l’année 2025, leurs revenus étaient en forte baisse.

Depuis plus d’une décennie, la chaîne recourt à leurs services pour adapter les magazines et documentaires vers l’anglais, l’espagnol, le polonais, l’italien et le roumain.

Sur place, les responsables du programme multilingue de la chaîne ne s’en sont pas cachés, rapporte Mediapart : ils sont très satisfaits des résultats de leurs expérimentations de traduction automatisée, menées à partir de mai 2023 et généralisées un an plus tard. À terme, le recours à l’intelligence artificielle devrait devenir « inéluctable ».

Illustration : Flock

Concrètement, cela leur permet de réduire de moitié la facture actuelle versée au prestataire d’Arte Transperfect. Pour un traducteur humain, cette facture s’élève à 10 euros la minute, dont 4 à 5 euros sont finalement reçus par le ou la traductrice. Pour ces derniers, en revanche, cela réduit la qualité du travail tout en réduisant les revenus.

Comme nous l’expliquait Margot Nguyen Béraud, membre du collectif En chair et en os, dans le dernier épisode d’Entre la chaise et le clavier, à l’ère de l’IA, le travail demandé aux professionnels de la traduction n’est plus de partir du texte initial pour l’adapter, mais d’une version « pré-mâchée » par le robot, qu’il s’agit ensuite de « post-éditer ».

L’effet sur les revenus est direct : quand bien même les principaux concernés estiment que ces post-éditions ne leur font pas tellement gagner de temps, Transperfect ne paye plus la minute que 2 ou 2,5 euros lorsqu’un système d’IA (ici, Claude d’Anthropic) est mobilisé.

Côté Arte, en revanche, l’économie permettrait de multiplier les traductions vers vingt-quatre langues à terme, et de mettre ces traductions à disposition en moins de 24 h pour les programmes d’actualité.
Pour les représentants de plusieurs syndicats et collectifs de traducteurs et traductrices, l’affaire est malheureusement « banale », le symptôme d’une tendance qui conduit de plus en plus de professionnels à quitter le métier.

Le public n’y gagne pas forcément, pointe la présidente de l’Association des traducteurs adaptateurs de l’audiovisuel (Ataa), avec des traductions médiocres dans lesquelles des marqueurs comme le tutoiement ou le vouvoiement sont mélangés, des mots intervertis, ou encore l’intégralité du texte retranscrite, alors que les experts du sous-titre tendent à proposer des élisions pour permettre au public de suivre.

☕️ IA : un homme plaide coupable d’avoir détourné des millions de dollars en streams musicaux

23 mars 2026 à 11:29


Michael Smith, un homme de 52 ans originaire de Caroline du Nord, a plaidé coupable, ce 20 mars, d’avoir détourné des millions de dollars de royalties en inondant les plateformes de streaming musical de morceaux générés par IA.

Non content de fabriquer la musique grâce à des systèmes d’IA générative, il avait promu ces morceaux sur les plateformes à l’aide de robots dédiés à faire grimper leur nombre d’écoutes à plusieurs milliards.

Dans le cadre d’un accord passé avec les procureurs fédéraux de New York, cet homme a plaidé coupable de complot en vue de commettre une fraude électronique, rapporte the Guardian. Cette décision fait de l’affaire l’une des premières pour fraude liée à l’IA qui aboutit.

Image by Sang Hyun Cho from Pixabay

De fait, le prévenu a « créé des milliers de fausses chansons à l’aide de l’IA », mais les revenus obtenus, eux, « étaient réels », souligne le procureur Jay Clayton dans un communiqué. D’après les termes de son accord, Michael Smith risque maintenant jusqu’à cinq ans de prison et 8 millions de dollars au titre de la confiscation de ses gains lorsque sa peine définitive sera prononcée, en juillet.

En janvier, le magazine Rolling Stones révélait que ce père de famille avait utilisé 1 040 comptes pour diffuser de l’ordre de 636 morceaux générés par IA par jour.

L’affaire illustre une tendance plus large à la diffusion de musique créée automatiquement, dont l’un des effets de bord revient à menacer directement les revenus des artistes.
Des plateformes dédiées à la fabrication de ce type de morceaux, à commencer par Udio et Suno, sont ainsi attaquées devant la justice états-unienne.

Un projet « hypothétique » de centre de données doit-il être évalué dans son entier ?

19 mars 2026 à 17:07
Par étapes ou en entier ?
Un projet « hypothétique » de centre de données doit-il être évalué dans son entier ?

Ce 19 mars, à Versailles, le projet de centre de données de CyrusOne dans la ville de Wissous se retrouvait de nouveau devant la justice. Objet des débats : en vertu du Code de l’environnement, aurait-il dû être présenté en entier à l’administration et au public dès le début, ou son découpage en trois phases reste-t-il recevable ?

Au sortir du tribunal, les opposants au projet de centre de données de CyrusOne à Wissous avaient repris un peu d’espoir : le juge Even avait posé deux questions sur le raisonnement économique qui avait poussé l’opérateur états-unien à initier son projet. D’après Philippe de Fruyt, tête de la liste Wissous notre ville, qui vient d’être battu au premier tour des municipales, « c’est la première fois que ce point était abordé » devant la Justice.

Ce 19 mars, c’est pourtant la deuxième fois que ce retraité de l’industrie automobile se retrouvait face à la justice en tant que représentant de l’association Wissous-notre-ville, cette fois-ci devant la Cour administrative de Justice de Versailles. L’enjeu, comme nous l’expliquions dans un précédent article : contester la manière dont le projet a été porté par l’opérateur CyrusOne.

Désormais rejointe par deux associations nationales, France Nature Environnement (FNE) et Data For Good, Wissous-la-Ville estime que l’opérateur a découpé son projet en trois phases taillées à dessein pour passer sous les différents seuils de contrôle imposés par le code de l’environnement, et repousser ainsi au plus tard possible le déclenchement des audits environnementaux et de la consultation publique les plus poussés.

Sous les 20 mégawatts (MW) de puissance, les opérateurs d’installations classées pour la protection de l’environnement (ICPE) n’ont qu’à soumettre une déclaration à l’administration pour pouvoir lancer leurs travaux. Entre 20 et 50 MW, ils doivent l’enregistrer auprès de la préfecture. Au-dessus de 50 MW, ils doivent demander une autorisation, qui implique entre autres de réaliser des études environnementales et de consulter le public.

Projet complet en devenir vs. phases successives d’un projet hypothétique

Mais, au-delà de l’existence de ces seuils, le Code de l’environnement indique : « Lorsqu’un projet est constitué de plusieurs travaux (…), il doit être appréhendé dans son ensemble, y compris en cas de fractionnement dans le temps et dans l’espace et en cas de multiplicité de maîtres d’ouvrage, afin que ses incidences sur l’environnement soient évaluées dans leur globalité. »


Il reste 72% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Pokémon Go signe un partenariat avec la société de livraison robotisée Coco Robotics

18 mars 2026 à 15:13
Share your localization with Coco's robots
Pokémon Go signe un partenariat avec la société de livraison robotisée Coco Robotics

Le partenariat de l’ex-éditeur de Pokémon Go avec Coco Robotics agite les discussions en ligne. Étant donné la spécialisation croissante de Niantic dans la construction de modèles de géolocalisation, il illustre pourtant un débouché classique de systèmes d’automatisation vers la robotique.

Oui, les données des joueurs de Pokémon Go servent à entraîner des systèmes d’IA. La nouvelle a fait bruisser les discussions numériques, ces derniers jours, alors que Niantic, l’éditeur du jeu vidéo ultra-populaire de l’été 2016 Pokémon Go, annonçait un partenariat avec Coco Robotics.

En cause : une partie du public semblait y découvrir que les multiples données de géolocalisation collectée par l’entreprise au gré des sessions de chasse aux Pokémon en réalité virtuelle servaient des finalités plus concrètes. Mais l’annonce n’est que la traduction de deux tendances : l’évolution du modèle initial de Niantic Labs, et la pratique plus globale de recherche de nouveaux débouchés économiques aux collecte de données orchestrées par les sociétés numériques.

D’éditeur de jeu vidéo à éditeur de modèle géospatial

Initialement lancée au sein de Google, en 2010 par John Hanke, Niantic Labs est en effet une société qui a pris son indépendance en 2015. Depuis, son business model a évolué, pour s’appuyer au fil du temps sur deux pieds : les revenus tirés des jeux eux-même (achats au sein des applications, événements liés à des succès comme Pokémon Go, ou encore publicité) et ceux obtenus par sa filiale Niantic Spatial, dédiée à faire évoluer les technologies de réalité augmentée et d’IA.

Depuis plusieurs années, cette dernière s’emploie en particulier à construire des modèles géospatiaux dont l’efficacité est précisément permise… par la somme de données récoltées grâce aux différents jeux en réalité augmentée de Niantic Labs. En 2024, l’entreprise dévoilait notamment son Large Geospatial Model (LGM), un système qui vient alimenter le Visual Position System (VPS) construit par l’entreprise, et à la base des jeux Pokémon Go, Ingress et Peridot. 



Le but de ces différents outils : permettre aux terminaux des utilisateurs de comprendre où ils se situent dans le monde réel. L’entraînement du LGM, expliquait alors l’entreprise, avait été permis par les « milliards d’images du monde, toutes reliées à des endroits précis du globe » que lui avaient partagées les joueurs de Pokémon Go.

À l’époque, Niantic avait d’ailleurs déployé une nouvelle fonctionnalité, Pokémon Playgrounds, dans laquelle joueuses et joueurs pouvaient placer leur Pokémon dans des lieux donnés, afin que d’autres internautes puissent les voir et jouer avec. L’entreprise se targuait de recevoir en moyenne 1 million de nouveaux points de localisation par semaine, et en détenir déjà 10 millions.

La robotique, débouché industriel à part entière

Depuis Niantic a encore évolué : en mars 2025, l’entreprise vendait sa branche jeux vidéos à Scopely, pour faire de Niantic Spatial une société à par entière. Concrètement, John Hanke indiquait prendre la tête de Niantic Spatial, qui se lançait de manière indépendante grâce à 200 millions de dollars des revenus de Niantic et 50 millions de dollars d’investissements de Scopely. Le projet : faire prendre leur essor aux outils de vision et géolocalisation spatiale auxquels travaillait déjà l’entreprise.

Dans ces conditions, et sachant que l’essentiel des sociétés qui ont fait de la collecte de données un pan de leur modèle d’affaire ont ensuite mobilisé ces données pour construire divers systèmes technologiques, Niantic Spatial a assez logiquement cherché des débouchés pour son VPS et son modèle géospatial.

Ce 10 mars, la société indiquait la mise en place d’un partenariat stratégique avec la société Coco Robotics, qui construit des robots dédiés à la livraison automatisée. Une telle alliance s’explique techniquement : les systèmes de visualisation dans l’espace réel développé par Niantic Spatial pourraient servir d’« yeux » aux robots de Coco. « La navigation dans les rues chaotiques des villes est un des défis d’ingénierie les plus complexes » déclare John Danke dans leur communiqué commun, et c’est à ce défi que les deux sociétés prévoient de s’atteler ensemble.

En l’espèce, leur alliance n’est qu’un symptôme d’une recherche plus large de débouchés des technologies d’IA dans le monde hors ligne. En France, ces dernières semaines, le cofondateur d’AMI Labs Yann LeCun ne s’est ainsi pas caché de chercher des débouchés à ses futurs modèles dans « l’automatisation, les dispositifs portables, la robotique », entre autres exemples.

Bien sûr, cela signifie que Niantic tire profit des activités ludiques et bénévoles des joueurs de Pokémon Go au cours de la décennie passée. Mais est-ce une spécificité, quand on sait que l’essentiel des réseaux sociaux font de même, voire que les tests CAPTCHA que les internautes remplissent pour entrer sur des sites web permettent d’entraîner des modèles d’IA ?

IA : Meta investit dans l’infrastructure, mais pourrait licencier 20 % de ses équipes

18 mars 2026 à 11:04
Investissements non humains
IA : Meta investit dans l’infrastructure, mais pourrait licencier 20 % de ses équipes

Alors que l’entreprise multiplie les projets dédiés à étendre ses capacités de hardware et d’infrastructure dédié à l’intelligence artificielle, elle pourrait licencier jusqu’à 20 % de ses effectifs actuels.

Meta s’apprêterait à licencier 20 % de ses équipes, selon les informations de Reuters, une réduction d’effectif qui représenterait donc environ 16 000 emplois sur les 79 000 que la société compte actuellement.

S’il n’a pas encore été confirmé, ce projet se ferait dans un contexte de poursuite des investissements de l’entreprise dans l’intelligence artificielle. Ce 17 mars, la société néerlandaise Nebius indiquait par exemple avoir signé un contrat de 27 milliards de dollars avec Meta pour lui fournir diverses capacités d’infrastructure (data center, serveurs, GPU) sur les cinq prochaines années. Mi-mars, le géant des réseaux sociaux annonçait par ailleurs le développement de quatre nouvelles puces MTIA (Meta Training and Inference Accelerator), qu’elle produit depuis 2023, sur les deux prochaines années.

Investissements accélérés dans l’IA

Ces différents éléments s’intègrent dans une redirection plus large de la société vers l’intelligence artificielle générative. À l’été 2025, Mark Zuckerberg annonçait ainsi son projet d’investir des « centaines de milliards de dollars » dans l’industrie, que ce soit du côté du développement ou de la sous-traitance de centres de données spécialisés dans l’équipement dédié à faire tourner de grands modèles de langage, ou dans le recrutement de personnalités de l’IA.

À l’époque, les packages au montant faramineux proposés à des ingénieurs d’Apple, Google ou Open AI avaient défrayé la chronique : pour tenter de rattraper ses concurrents, Mark Zuckerberg avait en effet proposé jusqu’à un milliard de dollars sur plusieurs années à certains spécialistes. Début septembre, cela n’avait pas empêché certaines embauches récentes (ou plus anciennes) de repartir aussi rapidement, quelquefois pour aller directement chez la concurrence – l’ancienne directrice de produits d’IA générative Chay Nayak a rejoint OpenAI –, quelquefois pour créer leurs propres entreprises – ainsi de l’ancien directeur du laboratoire Facebook Artificial Intelligence Research (FAIR) Yann LeCun, rentré en France pour cofonder la start-up AMI.

Licenciements dans la tech

Mais maintenir ce rythme implique de larges dépenses. En novembre, l’entreprise prévoyait d’investir 600 milliards de dollars dans des infrastructures et des emplois sur les trois prochaines années, sachant que la société avait déjà dépensé 135 milliards de dollars dans le domaine sur la seule année 2025.

Auprès de Business Insider, des cadres de Meta n’en avancent pas moins que le projet de licenciements de la société pourrait débuter dès ce mois de mars. S’il se confirme, ce serait le plus gros réalisé depuis la pandémie. En novembre 2022, la société avait licencié 11 000 employés, avant de se séparer de 10 000 personnes supplémentaires en mars 2023. Début janvier 2026, elle remerciait par ailleurs 1 500 personnes de son Reality Labs, actant son détournement du métavers, pourtant ardemment promu par Mark Zuckerberg pendant la pandémie.

Outre le contexte spécifique à l’entreprise, il s’inscrirait dans une tendance plus large de licenciements dans l’industrie numérique : l’éditeur de logiciel Atlassian a par exemple indiqué se séparer de 10 % de ses effectifs il y a quelques jours, suivi notamment par Block, la société dirigé par le fondateur de Twitter Jack Dorsey. Cette dernière a annoncé fin février se séparer d’un coup de 40 % de ses 10 000 employés.

À Rome, le séminaire de Peter Thiel sur l’Antéchrist crée des remous

17 mars 2026 à 11:02
Vade retro
À Rome, le séminaire de Peter Thiel sur l’Antéchrist crée des remous

Peter Thiel lançait ce 15 mars à Rome un nouveau séminaire de quatre jours sur l’Antéchrist. Sa venue a créé des remous dans l’écosystème catholique comme du côté du gouvernement italien.

Après Paris, Rome… et la proximité du Vatican. Après la leçon donnée fin janvier à l’Académie des sciences morales et politiques, Peter Thiel continue sa tournée des pays européens pour se rapprocher cette fois-ci du cœur de la religion dont il a adopté une lecture si personnelle.

Comme il le fait habituellement, sa prise de parole a été organisée dans un secret relatif, éventé notamment par le refus de l’Université pontificale Saint-Thomas-d’Aquin de Rome de lui accorder une salle. L’entrepreneur et capital-risqueur avait pourtant soigneusement préparé son spectacle : messe en latin à l’église Saint-Jean-Baptiste-des-Florentins, puis ouverture de ses quatre jours de séminaires.

Qu’à cela ne tienne, ses hôtes, l’Associazione culturale Vincenzo Gioberti et le Cluny Institute, proche de la Catholic University of America, lui ont trouvé un espace au Palazzo Taverne pour ouvrir, ce 15 mars, une série de conférences à huis clos sur sa figure favorite : l’Antéchrist. L’épisode traduit bien, cela dit, les débats que sa venue à Rome a suscités, aussi bien du côté du Vatican que des représentants politiques italiens.

L’action de Thiel ? Un « acte d’hérésie »

Car au Vatican, le pape prépare sa première encyclique, une de ces lettres solennelles qui permettent aux pontifes de dessiner leur doctrine, et celle-ci pourrait bien se pencher en partie sur l’intelligence artificielle et les technologies. Dans le quotidien Avvenire, lu par les évêques italiens, plusieurs articles très critiques de Palantir ont fleuri. Pour un auditoire plus généraliste, le père Paolo Benanti signait ce week-end dans Le Grand Continent un article très défavorable au positionnement de Thiel.

« L’ensemble de l’action de Thiel peut se lire comme un acte prolongé d’hérésie contre le consensus libéral, écrit cet artisan des travaux du Vatican sur l’IA : une contestation des fondements mêmes de la coexistence civile, qu’il juge désormais dépassés. » Et de préciser que l’hérésie, étymologiquement, n’est pas simple « blasphème » ou « erreur doctrinale », mais un « choix, une option ». Ou, d’un point de vue philosophique, « l’isolement d’une vérité partielle, détaché du tissu relationnel de l’ensemble et élevée au rang de principe absolu ».

S’appuyant sur cette conception, le conseiller du pape appelle à lire le positionnement de Thiel « non comme un simple rejet des valeurs occidentales mais comme la radicalisation pathologique de certaines de leurs composantes — la compétition, la technologie, l’individu — qui, érigées en unique boussole, conduisent à des résultats radicalement divergents du projet démocratique commun ».

Embarras jusque chez Giorgia Meloni

Outre irriter l’écosystème catholique romain, la venue de Peter Thiel a gêné jusqu’à la présidente du Conseil des ministres italiens, Giorgia Meloni, pourtant présidente du parti d’extrême-droite Fratelli D’Italia et ouvertement proche de Donald Trump, J.D. Vance et Elon Musk.

Plusieurs législateurs ont clairement demandé si Thiel rencontrerait Meloni, et si Palantir travaillait déjà pour l’administration publique italienne, rapporte Euractiv. En 2024, le ministère de la Défense avait notamment lancé un appel d’offre susceptible de correspondre à une licence pour la plateforme Gotham, qui permet d’explorer de multiples sources d’information.

Politiquement, analyse par ailleurs l’Opinion, Peter Thiel paraîtrait même trop extrême aux yeux du gouvernement actuel. Aussi proche soit-il des dirigeants politiques et technologique états-unien, ce dernier doit en effet composer avec les retombées de la guerre lancée brusquement par Donald Trump en Iran – guerre contre laquelle plusieurs milliers de personnes ont protesté ce week-end à Rome.

Quand l’IA s’invite dans les municipales

17 mars 2026 à 07:11
IA quoi ?
Quand l’IA s’invite dans les municipales

Utilisée par certains candidats, refusée par d’autres, l’intelligence artificielle s’est aussi immiscée dans certaines discussions de campagne municipale à l’initiative de l’association Pause IA. Peu de candidats sensibles à son discours sur les risques existentiels se sont qualifiés pour le second tour des élections.

L’intelligence artificielle est partout. L’est-elle jusque dans les municipales ? À en croire les usages d’une variété de candidats, oui.

En février, le maire divers gauche de Barentin (Seine-Maritime) Christophe Bouillon comme le communicant politique Paul Brounais le déclaraient au Monde : si tout le monde a de l’IA dans la poche, autant s’en servir aussi pour faire campagne. Cela dit, par conviction personnelle ou mobilisés par des associations comme Pause IA, certains ont décidé de rejeter plus ou moins explicitement le recours à ces technologies.

De l’IA dans la préparation des campagnes

À quoi l’IA peut-elle servir dans un contexte d’élection locale ? Dans certains cas, il s’agit simplement de reproduire des usages du monde professionnel : recourir à l’IA pour prendre des notes de réunions puis en établir la synthèse, comme l’a fait le candidat de Poissy Karl Olive (Renaissance), voire pour les faire lire sous forme de courts podcasts et les rendre ainsi accessibles sur toutes les plateformes, comme l’a proposé Florence Woerth (divers droite) à Chantilly.

Dans d’autres, les moteurs génératifs permettent d’écrire un premier jet de discours, voire d’imaginer des affiches ou des contenus pour les réseaux sociaux, comme l’a largement illustré la candidate Reconquête à Paris Sarah Knafo. Problème, la génération d’images irréelles permet non seulement d’attaquer les politiques menées jusque-là, mais aussi d’attaquer nommément. À Strasbourg, la gestion écologiste a par exemple été critiquée par la candidate Rassemblement National Virginie Joran à l’aide d’une vidéo d’une rue représentée pleine de déchets… sauf que la rue en question n’existe pas : elle a été générée par IA.

À Corbeil-Essonnes, la candidate Samira Ketfi (divers droite) a porté plainte après s’être retrouvée représentée en tenue de danseuse orientale. L’image repose « sur des stéréotypes à connotation raciste et sexiste », a-t-elle écrit au procureur de la République. À Guéret, les candidats Marie-Françoise Fournier (sans étiquette) et Didier Hoeltgen (PS) ont tous deux porté plainte contre la diffusion, par un compte Facebook anonyme, d’images détournées des opposants pour la mairie. Le commissariat « a indiqué qu’il n’y aurait pas de suite, explique le second au Monde. Ils disent que Facebook ne répond pas à la justice en France. L’impunité est totale. »

Les candidats dont s’étaient rapprochés Pause IA en mauvaise posture

Dans ces conditions, quid du développement de l’intelligence artificielle en général ? Quid des enjeux politiques que le développement de l’industrie crée pour la France en général, et les communes en particulier ?

La question a été soulevée par divers acteurs de la société civile, de la dizaine d’associations qui proposaient dès la fin 2025 des mesures pour une « désescalade numérique » jusqu’aux acteurs engagés pour faire de la construction de certains centres de données un sujet de débat à part entière.

L’association Pause IA, elle, se félicitait d’avoir convaincu une dizaine de candidats en France d’avoir signé tout ou partie d’une charte en 14 points sur les risques de l’intelligence artificielle. Parmi ces signataires, seule la maire sortante de Nantes, Johanna Rolland, est arrivée en tête des élections de sa ville au lendemain du premier tour. À la tête d’une liste de gauche hors LFI, elle a remporté 35,24 % des suffrages exprimés, mais est talonnée par le candidat LR, Renaissance, Modem et Horizons Foulques Chombart de Lauwe (33,77%). Elle a signé 13 des 14 engagements proposés par Pause IA, à l’exception de l’adoption d’un « vœu municipal appelant le Gouvernement à une pause du développement des modèles les plus avancés ».

Plusieurs ont obtenu suffisamment de votes pour passer au second tour, mais risquent de se voir embarqués dans les négociations de ralliement. À Metz, l’écologiste Jérémy Roques, qui a signé 12 engagements sur 14, n’a récolté que 9,9 % des suffrages. Il doit négocier avec les candidats du Parti Socialiste (Bertrand Mertz, 13 % des votes) et de La France insoumise (Charlotte Leduc, 10,4 %), sans que l’on sache pour le moment ce que cela impliquera en termes de positionnement sur l’IA.

À Clermont-Ferrand, la candidate LFI Marianne Maximi, qui avait signé 6 des 14 engagements de la charte de Pause IA, a remporté 17,01 % des voix, ce qui la place derrière le candidat Les Républicains (Julien Rony, 33,93 % des voix) et le maire sortant, le socialiste Olivier Bianchi (29,99 %). À Lille, l’écologiste Stéphane Baly, qui a signé l’intégralité des 14 points proposés par Pause IA, est arrivé troisième avec 18 % des voix. Reste à voir s’il parvient, en s’alliant soit au candidat PS Arnaud Deslandes (26,26 %), soit avec sa concurrente LFI Lahouaria Addouche (23,36 %), à porter ses engagements sur le sujet.

Tous les autres, majoritairement engagés sur des listes citoyennes ou de gauche, à l’exception notable de l’écologiste niçois Jean-Marc Governatori (qui a rallié Éric Ciotti en amont des élections), n’ont pas dépassé le seuil des 10 % de voix qui leur aurait permis de porter ces questions au moins jusqu’au second tour.

☕️ La Fondation des Femmes met Meta en demeure de diffuser sa campagne « Inarrêtables »

16 mars 2026 à 11:33


Après la décision « unilatérale » de Meta d’interdire toute publicité « politique, électorale et sur les sujets sociaux », la Fondation des Femmes en vient cette fois-ci au recours juridique.

Autour de la journée internationale des droits des femmes, le 8 mars, l’ONG prévoyait de diffuser sur ses différents canaux de communication, dont les réseaux sociaux de Meta, une vidéo liée à sa campagne « Inarrêtables ».

En application de son interprétation du règlement européen sur la transparence et le ciblage de la publicité à caractère politique (TTPA), plus extensive que celle adoptée par les autres réseaux sociaux, Meta a refusé la diffusion de la vidéo (dont diverses versions sont visibles sur le site de l’ONG ou son compte TikTok). 


Ce 12 mars, la Fondation des Femmes indiquait donc mettre Meta en demeure de publier le clip en question, qui vise principalement à rappeler les activités que finance la fondation (défense du droit à l’avortement, écoute spécialisée et hébergement pour les femmes victimes de violences) et d’appeler aux dons.

L’épisode n’est qu’un nouveau symptôme d’une dynamique relevée par plusieurs ONG dès le mois de novembre et décembre 2025. Alors que le TTPA venait d’entrer en vigueur, l’Unicef relevait un taux inhabituellement élevé de rejet de ses publicités, de même que SOS Méditerranée.

Sur les questions relatives aux droits reproductifs et aux droits des femmes, la Fondation des Femmes décrivait une nouvelle étape dans une logique d’invisibilisation de long terme – auprès de Next, sa directrice de l’engagement Lise Gallard expliquait notamment que les indicateurs des pages Instagram (181 000 abonnés) et Facebook (84 000 abonnés) de l’ONG traduisaient une sous-performance chronique par rapport à d’autres profils aux audiences similaires.

La lecture que Meta a adoptée du TTPA s’inscrit dans un double contexte de lobbying pour une réduction des régulations imposées par l’Union européenne aux plateformes numériques et de modification des règles de modération des services de l’entreprise depuis le retour de Donald Trump au pouvoir.

☕️ The Washington Post utilise les données de ses lecteurs pour adapter ses prix

16 mars 2026 à 10:47


Un journal qui adapte ses prix aux pratiques de ses lecteurs, comme le commerce en ligne le plus classique ?

C’est le positionnement qu’est en train de tester The Washington Post, propriété de Jeff Bezos, en nette perte de vitesse depuis la fin de la pandémie.

Dans leur dernière facture, plusieurs abonnés ont reçu par mail une annonce de future augmentation des prix. Spécificité de cette inflation du coût de l’abonnement : en pied d’e-mail, le journal les informait que le nouveau prix annoncé avait été « fixé par un algorithme recourant à vos données personnelles ».

L’évolution est cohérente avec les récentes et multiples expérimentations du journal de 150 ans d’âge sur l’intelligence artificielle, déployée dans les podcasts comme dans le moteur de recherche interne.

Auprès du Washingtonian, le chercheur Luca Cian rappelle que ces systèmes de personnalisation des prix s’appuient généralement sur les données géographiques et de localisation des internautes pour estimer combien ils seraient prêts à payer pour un service.

des journaux
Crédit AbsolutVision pour Unsplash

Amazon lui-même a été critiqué en 2025 lorsqu’il est devenu évident que ses systèmes de fixation dynamique des prix imposaient des tarifs très variables à différents groupes scolaires pour les mêmes produits, parfois avec des évolutions au fil d’une même journée. 


Luca Cian s’étonne par ailleurs de voir que le Washington Post a rendu l’information d’une fixation dynamique de ses prix d’abonnement publique, dans la mesure où ses travaux tendent à démontrer que l’audience réagit relativement mal à l’annonce du recours à des technologies d’intelligence artificielle. Dans ses travaux, ce dernier a en effet constaté un paradoxe : interrogés, les gens déclarent vouloir connaître le fonctionnement des stratégies de fixation des prix. Mais lorsqu’ils obtiennent l’information, « leur réaction est pire que s’ils ne savaient pas ».

Un groupe pro-iranien revendique l’attaque de la société américaine Stryker

12 mars 2026 à 17:18
Wiped out
Un groupe pro-iranien revendique l’attaque de la société américaine Stryker

Une société états-unienne d’équipement médical a été visée par une cyberattaque revendiquée par un groupe pro-iranien. Une illustration parmi d’autres des cyberactivités iraniennes dans les systèmes d’acteurs états-uniens et israéliens.

Spécialiste états-unienne des équipements médicaux, Stryker a subi « des perturbations mondiales sur son environnement Microsoft à cause d’une cyberattaque ». Dans un communiqué publié ce 11 mars sur LinkedIn, l’entreprise déclare n’avoir trouvé « aucune indication de ransomware ou de malware », et considère que « l’incident est maîtrisé ».

Alors que les États-Unis et Israël ont ouvert des hostilités contre l’Iran depuis le 28 février, un groupe de pirates informatiques pro-iranien, Handala Hack, a revendiqué les faits. Des chercheurs en cybersécurité ont par ailleurs identifié d’autres activités malveillantes dans les systèmes de sociétés états-uniennes, israéliennes et canadiennes.

Un wiper chez Stryker

Du côté de Stryker, les cyberattaquants auraient infecté certains systèmes de l’entreprise avec un « wiper », c’est-à-dire un logiciel de destruction de données, et fait apparaître leur logo sur les équipements des employés, selon le Wall Street Journal et l’Irish Examiner.

Des employés du Costa Rica, d’Australie, d’Irlande et des États-Unis ont témoigné avoir vu leurs smartphones et ordinateurs sous Windows vidés à distance. Pour limiter les dégâts, les employés se sont vu demander de ne pas allumer leurs équipements professionnels pendant le déroulement des processus de réponses à l’incident.

Sur LinkedIn, Stryker indique avoir mis des « mesures de continuité en place » pour lui permettre de continuer de fournir ses clients et de travailler avec ses partenaires. L’entreprise emploie plus de 53 000 personnes à travers la planète et fabrique toutes sortes d’équipements, des brancards aux outils de chirurgie en passant par des prothèses et des neurotechnologies, dont aucun ne semble avoir été touché par l’attaque.

Handala Hack, le groupe qui revendique l’action, est actif au moins depuis 2024. Connu pour soutenir la Palestine, il a notamment déployé des attaques par phishing, vol de données, rançongiciels, extorsion ou destruction contre des sociétés israéliennes ou perçues comme des soutiens à Israël. En février 2026, il affirmait avoir infecté les systèmes de Clalit, la plus grande des quatre entités publiques de santé d’Israël.

Dans le cas présent, les attaquants affirment avoir visé Stryker pour ses supposés liens avec l’État hébreu. En 2019, Stryker a fait l’acquisition de la startup israélienne OrthoSpace, spécialiste des implants orthopédiques.

MuddyWater/SeedWorm dans des réseaux états-uniens

D’autres groupes pro-iraniens voire soutenus par le régime sont actifs dans les systèmes de sociétés américaines. Les équipes de Symantec et Carbon Black ont ainsi repéré des traces du groupe MuddyWater (aussi connu sous les noms de SeedWorm, Temp Zagros ou Static Kitten), affilié au ministère iranien du renseignement et de la sécurité. Les auteurs du rapport estiment que la campagne remonte à début février, avec des mouvements plus récents, après les attaques des États-Unis et d’Israël sur le territoire iranien.

Cette attaque-ci vise une société de logiciel qui fournit les industries spatiale et de défense, notamment en Israël, ainsi qu’une banque et un aéroport états-uniens, ou encore une organisation à but non lucratif canadienne. Le rapport constate que dans les dernières années, les « acteurs iraniens de la menace sont devenus de plus en plus compétents. Non seulement leurs outils et leurs ransomwares ont été améliorés, mais ils ont aussi démontré de fortes compétences d’ingénierie sociale, y compris via des campagnes de spear-phishing [opération de phishing ciblée, ndlr] ou des opérations « honeytrap » utilisées pour créer des relations avec leurs cibles et obtenir l’accès à des comptes ou des informations sensibles. »

En 2025, MuddyWater avait notamment mené une attaque complexe de spear phishing pour distribuer une backdoor sur mesure à diverses organisations internationales du Moyen-Orient et d’Afrique du Nord. Concrètement, rapportent Symantec et Carbon Black, l’opération d’espionnage avait visé une centaine d’entités gouvernementales. En novembre 2025, le groupe avait par ailleurs été lié à une attaque contre divers universitaires experts du Moyen-Orient et d’autres experts en politique étrangère.

❌