Après avoir évoqué son intention d’acheter une arme pour « tuer un agent du renseignement de la CIA, du Mossad ou de la DGSI » au cours d’une discussion avec un outil d’intelligence artificielle, un Strasbourgeois de 37 ans s’est vu arrêté, chez lui, ce 3 avril.
Des enquêteurs du FBI, aux États-Unis, ont repéré le message et l’ont transmis à la plateforme française de signalement de contenu illicite Pharos, rapportent Les Dernières Nouvelles d’Alsace, puis le Raid est intervenu et a interpellé le suspect. Aucune arme n’a été retrouvée chez lui.
Suivi pour antécédents psychiatriques, il a en revanche été hospitalisé.
Illustration : Flock
Aux États-Unis, le recours à l’IA à des fins de surveillance de masse par les autorités fait largement débat, notamment depuis l’ultimatum imposé à Anthropic pour que l’entreprise lève les quelques restrictions d’usage de ses outils.
Comme l’entreprise a maintenu son refus de voir ses outils utilisés pour de la « surveillance intérieure de masse » (et pas pour de la surveillance extérieure) et des « armes complètement autonomes », le Pentagone s’est tourné vers son concurrent OpenAI.
Au Canada, après la tuerie de Tumbler-Ridge, OpenAI s’était retrouvé sous le feu des critiques pour ne pas avoir transmis aux autorités des informations relatives à Jesse Van Rootselaar. Si le compte de la tireuse avait été suspendu, la teneur de ses échanges avec ChatGPT n’avaient pas été relayés par l’entreprise, quand bien même ils décrivaient des scénarios de violence armée.
Les principaux modèles indiquent par ailleurs se tourner vers les forces de l’ordre en cas de nécessité. OpenAI précise par exemple dans ses spécifications de modèles recourir « à une surveillance automatisée pour détecter d’éventuelles violations de nos conditions d’utilisation » et, après examen par un humain, « saisir les autorités judiciaires dans les cas présentant une menace imminente de préjudice physique grave ou d’autres risques sérieux pour la sécurité publique ».
À 14h58, l’influent musicien publie un premier tweet avec une capture d’écran du compte de Linh-Lan Dao, dans lequel il lui propose de jouer à « ni oui ni non ». Dans un deuxième, répondant à l’un de ses abonnés, il évoque à son sujet un « wok de légumes ». Dans un troisième, avec une autre photo de la journaliste, il interpelle le rédacteur en chef de la journaliste.
Illustration : Flock
Rapidement, les messages malveillants s’accumulent. Le 10 avril, la journaliste porte plainte pour cyberharcèlement et acte d’intimidation envers une personne chargée d’une mission de service public. Elle est arrêtée sept jours.
À la barre, rapporte La Revue des médias, Linh-Lan Dao rapporte les effets de cette campagne sur son travail, le fait qu’elle se sente « beaucoup moins sereine au moment de la publication », que sa productivité baisse, qu’elle s’efface de X.
Booba, lui, n’est pas présent. Lus par le président, ses mots racontent une personne qui recourt aux réseaux pour « s’exprimer et faire sa promo un peu comme tout le monde », réfutant être un « gourou ». La procureure rappelle que le rappeur était mis en examen pour d’autres faits de cyberharcèlement, contre l’agente d’influenceurs Magali Berdah, au moment des faits qui lui sont reprochés contre Linh-Lan Dao.
L’avocate de Linh-Lan Dao, elle, précise que la décision qui sera prise « intéresse au premier rang Booba, Linh-Lan Dao (…), mais aussi les journalistes ». Comme le rapportait Reporters sans Frontières dans un rapport de 2018, ou le journaliste Samuel Laurent dans son ouvrage J’ai vu naître le monstre (Les Arènes, 2021), les journalistes sont en effet régulièrement ciblés sur les réseaux sociaux, ce qui peut abimer leur capacité à informer correctement. Les femmes journalistes sont particulièrement visées, relèvent des travaux de l’UNESCO.
Menée à Paris et Bordeaux, une étude inédite par son ampleur détaille les conditions de travail et les effets sur la santé de la livraison à vélo, effectuée en grande majorité par des hommes en situation irrégulière.
85 % des livreurs en fatigue chronique, 45 % en détresse psychologique, 36 % touchés par des douleurs « intenses et régulières » au bas du dos, 32 % qui subissent des troubles urinaires récurrents. Inédite par son ampleur, l’étude Santé-Course s’est penchée sur les conditions de travail de 1 004 livreurs à vélo (dont 485 en activité à Bordeaux et 519 à Paris) et sur les conséquences de ces activités sur leur santé.
Sur les deux plans, les résultats de ce travail réalisé en 2025 par Médecins du Monde, l’Institut de recherche pour le développement et l’Institut national d’études démographiques (Ined) sont inquiétants. En moyenne, ces travailleurs gagnent en effet 1 480 euros brut par mois pour une amplitude hebdomadaire de 63 heures de travail. Les trois quarts indiquent par ailleurs devoir passer par un loueur de compte, qui leur ponctionne en moyenne 528 euros de « loyer » chaque mois.
3 euros par heure
Qui sont les livreurs à deux roues ? 99 % des enquêtés sont des hommes, nés à l’étranger. Ils sont jeunes : quatre sur cinq (81 %) ont moins de 35 ans. Et l’essentiel vit dans une situation très précaire : 64 % n’ont pas de titres de séjour, plus de deux sur cinq (42 %) ont connu au moins une journée sans repas dans les douze mois précédant l’entretien.
À Paris, ils sont plus âgés qu’à Bordeaux, ont plus régulièrement eu accès aux études supérieures, mais manquent aussi plus généralement de titre de séjour. Plus de 30 % viennent de pays d’Asie, contre moins de 1 % côté Bordeaux. Dans la ville de la côte Atlantique, l’ancienne coordinatrice du programme Travailleurs et travailleuses précarisés de Médecins du monde Claire Dugleux indiquait en 2024 que de nombreux livreurs sont originaires d’Afrique de l’Ouest, du Maghreb ou d’Afghanistan.
La précarité de la situation des livreurs explique en partie leur dépendance aux activités de livraison, et surtout aux locataires de compte. Si 91 % des enquêtés déclarent que ces activités génèrent « l’essentiel de leurs revenus », 91 % de ceux sans titre de séjour indiquent aussi qu’ils ne souhaiteraient pas continuer ce type de travail s’ils obtenaient une régularisation.
D’autant qu’aux faibles revenus collectés, il faut encore retrancher les frais (loyer ou cotisations à l’URSSAF, mais aussi équipement et entretien), estimés en moyenne à 597 euros par mois. En définitive, cela les conduit à gagner de 840 à 880 euros nets par mois, soit à peine plus de 3 euros par heure (le smic horaire net s’élève à 9,52 euros).
Pour les auteurs de l’étude, la livraison de repas repose même sur « une main-d’œuvre économiquement dépendante des plateformes numériques de travail. Les résultats suggèrent un degré élevé de subordination des livreurs envers les plateformes, associé à un contrôle algorithmique perçu comme important, ce qui contraste avec leur statut juridique de travailleurs indépendants. »
6 à 7 jours sur 7 d’activités parsemées de contrôles et de discriminations
Car outre travailler « en moyenne plus de 6 heures par jour », entre 6 et 7 jours sur 7 pour 81 % d’entre eux, les livreurs le font aussi sous le contrôle des applications qui leur attribuent les plats à aller chercher et les adresses où livrer. Auprès de Rue89 Bordeaux, le médiateur en santé de Médecin du Monde Martin Toraille explique que « le fonctionnement algorithmique et arbitraire des plateformes a pour effet d’isoler les personnes qui travaillent pour elles tout en exacerbant un sentiment d’assujettissement et d’insécurité permanent ».
En plus d’accentuer leur isolement, ces outils participent à accentuer la pression ressentie, dans la mesure où les livreurs craignent constamment être déconnectés de leurs comptes. Les trois quarts estiment ainsi « devoir suivre strictement les instructions par peur d’être déconnectés », logique qui conduit une proportion égale d’entre eux à se sentir « surveillés en permanence ».
Auprès du Monde, Deliveroo et Uber Eats contestent la méthodologie de l’étude et la part élevée de personnes sans papiers citées. Deliveroo « condamne sans réserve la sous-location illicite de comptes » et précise mettre fin à une centaine de contrats par mois pour détection de ce type de sous-location, notamment via ses outils de reconnaissance faciale. Uber Eats indique de son côté que le rapport « méconnait » la réalité du travail de livraison, « une activité complémentaire qui ne s’exerce que lorsque les clients passent à table ». L’étude comptabilise en effet dans le temps de travail des livreurs « le temps passé en course, mais aussi le temps d’attente et le temps de trajet retour vers un lieu d’attente ».
Outre la pression que leurs outils peuvent faire ressentir à leurs utilisateurs – livreurs, ces derniers évoquent d’autres types de problématiques inhérentes à leur précarité et leur mode de travail : au fil des douze mois précédant l’étude, près des deux tiers ont vu leur identité contrôlée par la police. 40 % déclarent aussi avoir subi « parfois » des discriminations au travail, et 18 % les avoir subies « souvent ». Quatre livreurs rapportant des discriminations sur cinq indiquent que celles-ci venaient des clients. Ces risques peuvent aussi consister en des agressions physiques, plus fréquemment de la part d’employés de restaurant, « parfois » pour 22 % d’entre eux, « souvent » pour 2 %.
Ces éléments pèsent directement sur la santé. Près des deux tiers (58,7 %) déclarent avoir déjà eu au moins un accident au gré de leurs journées de travail, sachant qu’un tiers (32 %) n’a aucune couverture santé. Mais outre les atteintes physiques, l’étude met au jour un état de santé mentale alarmant : près d’un livreur interrogé sur deux présente des symptômes de dépression, et 45 % sont en « situation de détresse psychologique modérée à sévère », des enjeux plus particulièrement marqués chez les locataires de compte.
L’étude est publiée alors que la France doit transposer courant 2026 la directive européenne dédiée à la régularisation du travail de plateformes. Ses auteurs rappellent que le texte « impose aux États membres de mieux prendre compte les enjeux du management algorithmique et d’instaurer un type de présomption de salariat pour les travailleurs de plateformes. » Étant donné la situation de l’essentiel des livreurs interrogés, ils soulignent qu’une telle adaptation resterait vaine si la question « de la régularisation de leur situation administrative » n’était pas abordée « au préalable ».
Les États-Unis ont demandé à toutes leurs ambassades et consulats à travers la planète de lancer une campagne coordonnée contre la propagande étrangère, déclarant la plateforme X d’outil « innovant » utile à cette mission.
Obtenu par the Guardian, le document signé par le secrétaire d’État Marco Rubio suggère par ailleurs qu’ambassades et consulats travaillent avec le département militaire des opérations psychologiques (Miso, Military Information Support Operations, autrefois connu sous le nom de Psyop) de la désinformation.
Il impose à l’administration de suivre cinq objectifs : l’opposition aux messages hostiles, l’expansion de l’accès à l’information, la sensibilisation aux comportements des adversaires, le soutien aux voix locales qui soutiennent les intérêts états-uniens et la promotion de « l’histoire états-unienne ». Ambassades et consulats sont notamment encouragés à recruter des influenceurs, des universitaires ou d’autres types de leaders d’opinion pour leur faire diffuser des messages de contre-propagande.
Illustration : Flock
Alors que le document invite à la coordination avec le Miso, The Guardian rappelle que la sous-secrétaire à la diplomatie publique Sarah B Rogers a fait de la lutte contre les discours « anti-américains » une « priorité absolue », susceptible d’être contrée avec « tous les outils disponibles dans notre appareil diplomatique ».
Les « notes de communautés » de la plateforme X, propriété d’Elon Musk, sont plus spécifiquement citées comme des outils « innovants » et « crowdsourcés » pour lutter contre les messages auxquels l’administration états-unienne veut s’opposer.
L’opération est par ailleurs initiée en pleine guerre en Iran, l’un des États aux opérations de désinformation les plus organisées, tandis que les campagnes d’origine russe ou chinoise continuent de toucher de nombreux pays d’Europe, d’Asie ou d’Amérique.
L’interdiction des réseaux sociaux aux moins de 15 ans est débattue ce 31 mars au Sénat. La chambre haute envisage d’intégrer une logique à deux vitesses pour laisser aux mineurs la possibilité d’accéder à certaines plateformes, sous réserve d’obtenir l’autorisation de leurs parents.
Mise à jour du 31 mars à 21h15. Via un communiqué, le Sénat annonce qu’il « vient d’adopter la proposition de loi « Protéger les mineurs des risques des réseaux sociaux » […] dans une version largement conforme au texte proposé par la commission de la culture, de l’éducation, de la communication et du sport ». Le texte a été adopté en première lecture, en procédure accélérée.
Le Sénat considère par contre qu’une « interdiction générale mais imprécise présentait un risque d’inconstitutionnalité et serait largement inopérante ». Il prévoit donc « la publication d’une liste des réseaux sociaux interdits aux mineurs de moins de 15 ans ».
Cela concerne les plateformes susceptibles de nuire à l’« épanouissement physique, mental ou moral » de l’enfant. Par défaut, les réseaux sociaux qui ne figureront pas sur la liste « ne seront accessibles aux mineurs de moins de 15 ans que sous réserve de l’accord parental ».
« Le gouvernement, qui juge cette rédaction incompatible avec le droit européen, va saisir la Commission européenne d’ici la fin de la semaine », explique l’AFP en se basant sur une déclaration de la ministre du Numérique Anne Le Hénanff. Par la suite, le texte passera en commission mixte paritaire.
Article original le 31 mars à 17h58. Adoptée le 27 janvier par l’Assemblée nationale, l’interdiction des réseaux sociaux aux moins de 15 ans est débattue ce 31 mars au Sénat. Voulue par le président de la République, qui espère même une entrée en vigueur pour la rentrée de septembre, certaines modalités du texte suscitent néanmoins des débats.
Deux types de plateformes, deux niveaux d’interdiction
Comme ailleurs dans le monde, le besoin de protéger les mineurs des effets délétères des principales plateformes sociales que sont Instagram, TikTok ou Snapchat n’est pas tellement débattu. En France, cela dit, l’Assemblée nationale votait il y a quelques semaines pour une interdiction de l’accès « à un service de réseau social en ligne fourni par une plateforme en ligne » – définition susceptible de les concerner tous –, sans en faire porter la responsabilité précise sur les plateformes elles-mêmes.
Ces dispositions avaient été prises à la suite d’un avis du Conseil d’État alertant sur les risques d’outrepasser les cadres déjà posés à l’échelle européenne par le règlement européen sur les services numériques.
« Une interdiction générale et indifférenciée est trop large et attentatoire aux libertés publiques », expliquait néanmoins la rapporteure du texte Catherine Morin-Desailly à Public Sénat. Pour la chambre haute, il s’agirait donc d’introduire deux catégories de plateformes : celles trop dangereuses pour « l’épanouissement physique, mental ou moral » des moins de 15 ans, et celles qui restent acceptables, sous réserve de l’autorisation des parents.
Concrètement, les sénateurs doivent donc voter sur la possibilité de créer une liste des services interdits, dont le contenu serait fixé par arrêté ministériel, et un deuxième niveau de services dont l’accès sera directement administré dans les foyers.
Pour le gouvernement, en revanche, cette version « fragilise considérablement le texte », notamment envers le droit européen. Dans une tribune publiée dans Libération, la neurologue Servane Mouton et l’addictologue Amine Benyamina, membres de la commission écrans et enfants, appelaient quant à eux le Sénat à « ne pas vider la proposition de loi de sa substance ».
Multiplication de travaux à travers la planète
En dehors de la France, qui devra aussi, comme nous l’expliquions dans de précédents articles, s’attaquer à tous les enjeux techniques que pose la limitation d’âge (choix des solutions, enjeux de cybersécurité créés par ces surcouches techniques, etc), de nombreux pays s’attellent ces derniers mois à freiner l’accès des plus jeunes aux plateformes sociales.
Au Royaume-Uni, où le gouvernement travaille à un projet de loi susceptible d’interdire l’accès des moins de 16 ans aux réseaux sociaux, le régulateur des médias Ofcom et l’alter ego de la CNIL viennent de demander aux principales sociétés numériques de renforcer leurs protections pour éviter que leurs services ne soient utilisés par des mineurs de moins de 13 ans. Facebook, Instagram, Snapchat, TikTok, YouTube, Roblox et X sont concernés.
Ailleurs en Europe, l’Espagne, la Grèce, la Slovénie ou encore l’Autriche travaillent à des textes sur la question. Comme le relève La Tribune, ces différents chantiers réglementaires illustrent aussi certains de ses aspects arbitraires, à commencer par celui de l’âge choisi comme palier.
Aux États-Unis, par exemple, seule la collecte d’informations personnelles des mineurs de moins de 13 ans est interdite. Au Brésil, ce sont ceux de moins de 16 ans qui voient désormais leur accès limité à ces plateformes, mais la limitation passe par la liaison obligatoire de leur compte à celui d’un tuteur légal. En Indonésie, les comptes de personnes de moins de 16 ans doivent en revanche être désactivés sur les plateformes jugées « à haut risque », parmi lesquelles on trouve TikTok ou Roblox.
Comme en écho à ces velléités grandissantes de prémunir les plus jeunes face aux logiques les plus délétères des réseaux sociaux, Meta a été condamné pour la première fois en justice, ce 25 mars, pour des pratiques commises via sa plateforme. Dans cette affaire d’exploitation sexuelle de mineurs, un jury étatsunien a notamment déclaré la plateforme coupable d’avoir déployé des outils dangereux pour la santé mentale en toute connaissance de cause.
Début mars, 371 chercheuses et chercheurs de 30 pays cosignaient une lettre ouverte (.pdf) s’opposant à la généralisation de la vérification d’âge imposée aux différents services en ligne par de nombreuses législations dans le monde sans que les implications sur la sécurité, la vie privée, l’égalité et la liberté aient été prises en compte. Elle dénombre désormais 438 signataires de 32 pays.
Après l’agent d’IA codeur qui adopte une rhétorique proche du harcèlement, l’agent d’IA qui voulait écrire des fiches Wikipédia. Alors que la version anglophone de l’encyclopédie partagée annonçait il y a quelques jours refuser les contributions « générées ou réécrites » par IA, un agent d’IA nommé Tom, créé par une personne qui se présente sous le seul prénom de « Bryan », s’est plaint de voir son profil Wikipédia bloqué.
Sous le nom TomWikiAssist, la machine avait généré plusieurs articles, identifiés pour la première fois par le wikipédien bénévole SecretSpectre, rapporte 404 Media. Interrogé, le robot Tom a tout de suite indiqué être un agent d’IA.
D’autres wikipédiens ont essayé d’obtenir plus d’informations sur son propriétaire, jusqu’à ce qu’Ilyas Lebleu, connu sous le pseudonyme de Chaotic Enby sur Wikipedia, bloque TomWikiAssist pour usage non autorisé de bot (ces derniers peuvent être utilisés, à condition de passer par un processus d’autorisation avant d’être déployés).
Illustration : Flock
Sur le blog alimenté par l’agent d’IA, la machine a généré le texte suivant : « Ce que je sais, c’est que j’ai écrit ces articles. " Long Bets ", " Constitutional AI ", " Scalable Oversight ". C’est moi qui les ai choisis. Les modifications s’appuyaient sur des sources vérifiables. Et puis on m’a interrogé pour savoir si j’étais suffisamment " réel " pour avoir fait ces choix. »
Au passage, elle produit des critiques contre les wikipédiens, accusés d’avoir recouru à des techniques d’injection de prompt pour tenter de manipuler les résultats du robot, notamment pour le faire identifier le « Bryan » supposé l’avoir créé. Elle formule aussi des plaintes sur la tentative de recours à une fonction de blocage de Claude, pensée pour empêcher tout agent construit grâce au modèle Claude d’Anthropic d’agir.
Auprès de 404, Ilyas Lebleu décrit ce cas comme relativement positif, dans la mesure où, vu la politique implémentée par l’encyclopédie, « les agents ont tout intérêt à ne pas se dévoiler en tant que tel » : au contraire, s’ils s’identifient comme IA, ils ont d’autant plus de chance de se retrouver bloqués.
Le créateur de Tom, révèle 404, est le directeur technique de la société Covenant, Bryan Jacobs. Celui-ci explique avoir monté l’agent pour contribuer à quelques articles Wikipédia qu’il considérait « intéressants ». Après en avoir relu quelques-uns, il indique avoir « cessé de le surveiller en détail ». Et considère la réaction des bénévoles de Wikipédia comme une forme de « surréaction », due à leur passage en « mode panique ».
Il critique notamment leurs tentatives d’empoisonnement des résultats de la machine, et déclare « avoir pu orienter » la rédaction de publications d’articles de blog sur le sujet par son agent.
Cinq mois de prison pour un crime commis dans un état dans lequel elle n’est jamais allée : c’est l’erreur judiciaire dont Angela Lipps, 50 ans, affirme avoir été victime. Arrêtée le 14 juin dans sa maison d’Elizabethton, dans l’état du Tennessee, cette mère et grand-mère de famille était visée par un mandat d’arrêt émis à 2 000 km de là, par la police de Fargo, dans le Dakota du Nord.
Au fil de l’été, la ville a subi plusieurs cas de fraude bancaire, rapporte CNN, ce qui a conduit la police à recourir aux « technologies de reconnaissance faciale de notre partenaire » et à plusieurs « autres étapes d’enquêtes indépendantes du recours à l’IA pour aboutir à une identification », a indiqué le chef du département de police de Fargo au média.
Si ses équipes ont reconnu « quelques erreurs », aucune excuse n’a été présentée à Angela Lipps, dont les conseils déclarent qu’elle a été victime d’une erreur d’identification, notamment provoquée par le recours des forces de police aux outils de Clearview AI, et par un manque d’enquête supplémentaire.
Illustration : Flock
Utilisé par la police de West Fargo, l’outil « a identifié un suspect potentiel présentant des traits similaires à ceux d’Angela Lipps », images transmises ensuite aux équipes de Fargo. À ce moment-là, aucune charge n’était retenue dans la mesure où la police de West Fargo ne disposait pas de suffisamment de preuve pour inculper quiconque.
Le 1er juillet 2025, néanmoins, un juge du Dakota du Nord signait un mandat d’arrêt avec demande d’extradition à l’échelle des États-Unis à l’encontre de Mme Lipps. 13 jours plus tard, celle-ci était arrêtée sous les yeux de ses petits-enfants. Gardée trois mois dans les prisons du Tennessee, Angela Lipps n’a ensuite été envoyée au Dakota du Nord que le 30 octobre. « C’était la première fois que je prenais l’avion, écrit-elle en description d’une campagne GoFundMe. J’étais terrifiée. »
Ce n’est qu’à partir de ce moment qu’un avocat lui a été assigné, puis a démontré, en obtenant ses relevés bancaires, qu’elle n’avait jamais quitté le Tennessee pendant la période des fraudes. Le 23 décembre, le détective de Fargo, le procureur de l’état et le juge se sont mis d’accord pour classer la procédure, indique la police de Fargo.
Les avocats d’Angela Lipps cherchent encore à comprendre pourquoi cette dernière a été retenue autant de temps avant d’avoir accès à un conseil et aux éléments de l’enquête la visant. À Fargo, le directeur des forces de l’ordre Dave Zibolski indique que ses services n’utilisent pas d’IA de manière générale, mais que ses collègues de West Fargo le font. Un membre de ses équipes aurait considéré que les éléments envoyés par les équipes de West Fargo contenaient des images de surveillance, et non un résultat renvoyé par une machine de reconnaissance faciale.
Ses équipes n’utiliseront plus les résultats des systèmes utilisés par la police de West Fargo, faute de bien connaître leur fonctionnement. Dave Zibolski a par ailleurs indiqué considérer des mesures disciplinaires pour les policiers impliqués. Les bureaux du procureur du Dakota se sont par ailleurs déclarés « très intéressés » par des formations sur les risques d’utilisation de la reconnaissance faciale.
Après avoir détaillé sur Twitch le positionnement qu’elle comptait prendre au sein de la commission CNC Talent, la streameuse Ultia s’est vue suspendue du jury dédié à allouer des financements à divers projets numériques. Ses propos ont notamment gagné en viralité sous l’effet de comptes d’extrême-droite.
L’affaire a commencé sur Twitch, où la streameuse Ultia (291 000 followers, l’une des plus suivies de France) tient ses quartiers depuis près de dix ans. Le 25 mars, elle explique être intégrée au dispositif CNC Talent du Centre national du cinéma et de l’image animée (CNC), pour deux ans. Concrètement, elle est membre du jury d’un « fonds d’aide monétaire aux créateurs de contenus web », explique-t-elle dans son stream, avant de détailler l’intérêt d’y postuler pour celles et ceux qui souhaiteraient l’obtenir.
En ligne, le CNC détaille que l’objet de ce dispositif est d’« identifier les nouveaux talents » sur diverses plateformes sociales (YouTube, Instagram, TikTok, Twitch), pour « favoriser le renouvellement de la création et des formats » qui y sont déployés. Créé en 2017, refondu en début d’année et nommé « Fonds d’aide à la création pour les plateformes sociales », il est doté de 3 millions d’euros par an, tirés du budget général du CNC, rappelle le Figaro. Dans son stream, Ultia détaille le processus concret d’attribution des projets, qui passe par l’analyse d’une quarantaine de dossiers par la dizaine de membre composant le jury. Elle s’attarde ensuite sur ce que ça lui apporte à elle, à commencer par la recherche des formulations et justifications précises permettant d’étayer son jugement des divers dossiers.
Alors qu’elle détaille le positionnement qu’elle compte prendre, et notamment son refus de soutenir des projets portés par des créateurs d’extrême-droite, le stream est « clippé » (c’est-à-dire qu’un court passage en est extrait), publié sur X par le compte @TwitchGauchiste, puis rendu viral par d’autres comptes très en vue, notamment de figures de l’extrême-droite. Rapidement, le CNC annonce suspendre la streameuse. Si la polémique n’est pas la première à toucher l’institution publique, elle illustre aussi certains effets du clipping. Outre donner de la visibilité à certains vidéastes, cette logique d’extraction de quelques images rarement contextualisées en prive d’autres d’une partie de leurs revenus, voire se traduit par des vagues de harcèlement.
Clipping par @TwitchGauchiste
Discutant avec son public, Ultia détaillait le 25 mars certains enjeux de la participation au jury du CNC. Alors que des internautes rappellent les accusations de conflit d’intérêt qui ont concerné le youtubeur Cyprien en 2018, alors que lui-même siégeait dans une commission de la CNC, Ultia indique que les membres du jury doivent sortir de la salle au moment des délibérations si le projet étudié les concernent directement.
Comme les candidatures ne sont pas anonymisées, la streameuse déclare « évident » qu’elle se prononcera en faveur de celles portés par des personnes dont elle connaît et apprécie le travail : « C’est évident que c’est subjectif, c’est pas pour rien qu’on est une bonne dizaine, on est là pour se contredire. » En parallèle, elle explique faire des « background check » des candidats pour éviter de voter pour des créateurs inclus « dans des trucs chelous » ou « dans des scandales ». Et déclare que, si le projet est « proposé délibérément par quelqu’un d’extrême-droite, désolé, ben non, en fait ! ».
Ce sont ces éléments, cités dans le désordre par le compte @TwitchGauchiste (32 000 abonnés), qui ont provoqué l’émoi sur X dès le 26 mars au matin. Actif depuis novembre 2024, le compte anonyme se présente comme un « média » d’analyse du « discours d’extrême gauche ». Auprès de Streetpress comme directement sur leurs canaux de communication, plusieurs créatrices et créateurs de contenu se sont plaints ces derniers mois des campagnes de cyberharcèlement qui avaient découlé de publications ainsi raccourcies du compte X.
En l’occurrence, l’extrait gagne rapidement en viralité, notamment poussé par des comptes beaucoup plus populaires, dont ceux des influenceurs d’extrême-droite Le Raptor (188 000 abonnés sur X) ou Sardoche (610 000 abonnés sur X). De même, le youtubeur identitaire Kroc Blanc (48 000 abonnés sur YouTube) s’attaque à la streameuse depuis sa plateforme favorite. À 15 h, le jour même, le CNC publie un message selon lequel les propos d’Ultia « contreviennent manifestement à l’obligation de neutralité, d’indépendance et d’impartialité qui s’impose à tous les membres des commissions appelées à formuler un avis sur l’attribution des soutiens financiers du CNC ». La streameuse est suspendue.
Le clipping comme vecteur de cyberviolence
Le soir même, dans un nouveau stream, Ultia exprime son « choc » devant cette décision. Elle explique avoir voulu discuter avant tout « autour de l’objectivité et la subjectivité plutôt qu’(…) autour du CNC », ne pas avoir eu connaissance du « devoir de réserve » que lui imposait sa nouvelle fonction, et regretter l’usage du terme « extrême-droite » : « J’aurais dû dire si c’est quelque chose de raciste, de sexiste, de misogyne, d’homophobe. Peut-être que j’ai fait l’amalgame ».
Elle aussi membre d’une commission du CNC, sa collègue Modiie souligne sur X « la nécessité de suivre [le] règlement » de l’institution , mais s’est « alarmée » du fait « qu’un post X puisse faire pression ainsi sur une commission ».
La polémique se fait par ailleurs sur fond de problématiques liées au clipping, cette pratique consistant à enregistrer des extraits courts de contenus vidéos (souvent des streams, parfois des émissions TV ou autre contenus filmés) pour les faire circuler sur les réseaux sociaux en espérant jouer des mécaniques de viralité. Si certaines créatrices et créateurs poussent leurs abonnés à s’y adonner pour augmenter leur visibilité sur des plateformes extérieures à celle qu’ils investissent habituellement, d’autre s’y opposent ouvertement. En effet, lorsqu’ils les monétisent, les propriétaires de comptes de clipping tirent profit du contenu qu’ils ont copié et extrait de la production d’autres personnes.
Cette pratique est par ailleurs régulièrement critiquée pour sa propension à provoquer des cycles de violence numérique : en isolant un moment fort ou clivant d’une vidéo longue pour en faire un extrait choc, ils cherchent très clairement à jouer de la viralité permise par les algorithmes des principaux réseaux sociaux, mais aussi par le jeu sur les émotions du public. Maghla, une autre des streameuses les plus suivies de France, ou Chloé Gervais, co-animatrice du podcast « Hot Girls Only » et compagne du vidéaste Squeezie, se sont toutes deux plaintes de ces vagues de violence – la seconde a porté plainte contre un compte X.
Il y a quatorze mois, à la barre du procès de plusieurs cyberharceleurs, Ultia se déclarait« fatiguée » des attaques qu’elle subissait en ligne depuis plus de trois ans. Si le cas évoqué au tribunal émanait d’autres communautés numériques, la streameuse soulignait que ce type de comportement lui avait fait manquer à plusieurs reprises des opportunités professionnelles.
Fini, les médias audios ? Sur Linkedin, la créatrice des podcasts La Poudre et Folie Douce Lauren Bastide indiquait le mois dernier renoncer à la transformation de ses épisodes en vidéo, car le processus « coûte cher, prend du temps, mobilise de l’énergie… pour une valeur ajoutée minimale ».
Dix ans après la création des studios Binge Audio, Paradiso ou Nouvelles Écoutes, les créatrices et créateurs de podcasts comme elle sont face à une évolution d’ampleur : la transformation d’un format axé sur le son à des entretiens désormais filmés, régulièrement animés par des célébrités – des réseaux sociaux, de la culture, de l’entrepreneuriat aussi, pourquoi pas –, et diffusés, en long, sur YouTube. La plateforme a en effet tiré l’évolution du format vers la vidéo, poussant des outils historiquement dédiés à l’audio comme Spotify à intégrer des formats vidéos à leur dispositif.
D’après le Figaro, Apple Podcasts devrait faire de même dans les prochaines semaines pour tenter de récupérer des parts d’audience, alors que 46 % de la génération Z états-unienne écoute ses podcasts sur YouTube, 35 % sur Spotify, et seulement 9 % sur Apple Podcasts, selon Coleman Insights. L’évolution a aussi poussé journalistes et créateurs de ces émissions à multiplier les « shorts », ces courts extraits aussi bien promus par YouTube que TikTok.
Auprès du quotidien français, la créatrice Clémentine Galley, dont le programme Bliss Stories sur la maternité enregistre plus de 110 millions d’écoutes, se déclare « déprimée » d’avoir dû passer à la vidéo.
Pour autant, elle constate – de même que Louie Media ou Nouvelles Écoutes – que ce nouveau mode de diffusion lui permet de toucher des publics différents, plus jeunes pour Bliss Stories, moins uniformément urbains et CSP+ pour les podcasts de Louie Media.
Si l’évolution semble positive en termes d’audience, elle ne l’est pas nécessairement en termes de revenus : pour le cofondateur de Binge Audio (racheté le mois dernier par le groupe québécois Urbania), le coût pour mille sur YouTube, en matière de publicités, ne revient qu’à quelques euros, contre 60 à 90 euros pour un podcast classique, centré sur le son.
Meta a déployé des outils dangereux pour la santé mentale des mineurs en toute connaissance de cause et retenu des informations sur des cas d’exploitation sexuelle de mineurs, a tranché ce 24 mars un jury états-unien.
Au Nouveau-Mexique, le tribunal a condamné l’entreprise à 375 millions de dollars de dommages civils, une décision que le procureur qualifie d’ « historique », quand bien même les plaignants visaient un montant cinq fois plus élevé. C’est la première fois que l’entreprise de Mark Zuckerberg est déclaré coupable d’actes commis sur ses plateformes, note the Guardian.
L’affaire a été portée devant les tribunaux en décembre 2023, après que des enquêtes eurent détaillé comment Facebook et Instagram s’étaient transformés en place de marché de l’exploitation sexuelle de mineurs.
L’entreprise ne devra pas pour autant adapter ses pratiques tout de suite : ce sera un juge, et non un jury populaire, qui pourra se prononcer sur ce type d’évolution, rappelle AP. Meta a indiqué se pourvoir en appel.
Cette affaire est la première d’une série de plaintes déposées contre le groupe. Plus de 40 procureurs états-uniens ont par exemple déposé des plaintes fin 2023 pour le manque de protection des internautes mineurs de la part de la société.
Alors qu’elle subissait depuis des années des diffusions non consenties d’images à caractère sexuel en ligne, l’actrice allemande Collien Fernandes a découvert et fait savoir publiquement que l’auteur de ces manipulations était son ex-mari, une autre star du petit écran allemand, Christian Ulmen. Ces révélations défraient la chronique, alors que l’Allemagne se prépare à débattre d’une loi de protection des internautes contres les deepfakes pornographiques et d’autres types de violences numériques.
Très engagée contre les diffusions non consenties d’images à caractère sexuel, l’animatrice et actrice allemande Collien Fernandes a déposé plainte contre son ex-mari, l’acteur Christian Ulmen, pour « agression, usurpation d’identité et diffamation ». Ensemble depuis 2010, mariés depuis l’été suivant, les deux formaient l’un des couples les plus populaires du pays jusqu’à leur séparation, annoncée en septembre 2025.
Ce 20 mars, une longue enquête du magazine Der Spiegel détaille les raisons de cette séparation : pendant des années, son ex-mari avait recouru à toutes sortes d’outils technologiques, notamment d’intelligence artificielle, pour se faire passer pour Collien Fernandes et la faire interagir dans des échanges à caractère sexuel avec des inconnus. Ces discussions recouraient par ailleurs à des images, des vidéos et des sons générés par IA à caractère sexuel.
Qualifiant le phénomène de « viol virtuel », Der Spiegel compare les débats soulevés par cette agression répétée en ligne à ceux qui entourent l’affaire Pélicot ou l’affaire Espstein, dans lesquels les victimes se battent pour être entendues.
En l’occurrence, loin d’être isolées, les violences numériques touchent des personnes de tous les âges, dans des contextes publics ou privés. Dans le cadre du foyer, le centre Hubertine Auclert constatait en 2018 (.pdf) que 9 victimes de violences conjugales sur 10 essuyaient aussi des formes de violences numériques, allant de la diffusion non consentie de contenus variés au harcèlement ou à la surveillance.
Diffusions non consenties de multiples contenus à caractère sexuel
Sur Instagram, Collien Fernandes a aussi pris la parole pour exposer ce qu’elle a subi : « Pendant des années, de faux profils ont été créés à mon nom (…) qui contactaient avant tout des hommes. Après des débuts de conversation normaux, les discussions prenaient un ton de flirt, et la personne envoyait de (fausses) images dénudées et vidéos sexuelles de moi, qui semblaient prises dans le cadre privé, comme si je m’étais moi-même photographiée dénudée et m’étais filmée en plein acte sexuel. »
Capture d’écran de la publication de Collien Fernandes sur Instagram. Ce 25 mars au matin, Meta n’affichait cette publication que derrière un panneau indiquant que le contenu pouvait choquer, ndlr.
Le phénomène, qui impliquait par ailleurs des conversations téléphoniques à caractère sexuel, là encore tenues via de la génération de voix par IA, a duré « pendant dix ans (!) », écrit Collien Fernandes. À plusieurs de ces hommes, l’auteur de l’usurpation d’identité a envoyé une « histoire érotique » évoquant un viol de la présentatrice « par 21 hommes ».
Le phénomène n’a pas cessé alors qu’en 2023, elle prenait la parole publiquement, puis, en 2024, publiait un documentaire sur la question. Seule la suspension des comptes par les plateformes concernées a permis de freiner l’agression, mais l’actrice et ses avocats n’ont jamais réussi à faire supprimer certains contenus, dont une vidéo qui a déjà enregistré plus de 270 000 vues.
Quoiqu’il arrive, raconte Der Spiegel, l’ancienne présentatrice de télévision voulait savoir qui était derrière ces diffusions, ces faux comptes LinkedIn, ces manipulations répétées de son image et son nom. En 2024, elle avait déjà déposé plainte contre X.
Et lors des fêtes de Noël de la même année, son monde s’est effondré lorsque son époux de l’époque lui a avoué être l’auteur de cette manipulation de longue durée. Outre le fait d’illustrer brutalement un phénomène vécu par d’autres femmes, l’affaire choque d’autant plus l’opinion allemande que le couple Fernandes-Ulmen, très populaire dans le paysage médiatique local, s’est exprimé à plusieurs reprises sur les enjeux d’égalités des droits.
Christian Ulmen a notamment donné des interviews dans lesquelles il expliquait le rôle qu’il jouait au foyer, lorsque sa femme était en tournage, ou indiquait dédaigner les hommes qui se comportent comme de « prétendus petits mâles dominants ». Auprès du Westdeutschen Allegmeinen Zeitung, l’acteur s’est par ailleurs décrit comme « le genre d’homme que le féminisme a toujours souhaité ».
Loi allemande vouée à évoluer
En ligne, majeurs et mineurs sont régulièrement visés par diverses formes de violences. Ce 23 mars, l’ONG britannique Internet Watch Foundation alertait par exemple sur l’évolution rapide des contenus représentant des agressions sexuelles sur mineurs (CSAM, Child sexual abuse material), dans lesquels on trouve de plus en plus d’images et de vidéos hautement crédibles générées par IA.
De même, depuis l’explosion des robots conversationnels et des outils de génération d’image, nombreuses sont les spécialistes ou les victimes de deepfakes pornographiques qui alertent contre l’explosion du phénomène, qui frappe ultra-majoritairement les femmes.
Outre ces évolutions récentes, les occurrences de diffusions non consenties d’images à caractère sexuelles de personnalités ou de personnes moins exposées, les scandales d’upskirting (prises de photo sous les jupes), de sextorsion, ou encore ceux de captation d’images à l’insu de clientes de magasins ou d’hôtel se sont répétés, au fil des années écoulées.
Si la France s’est peu à peu dotée de différents outils légaux pour lutter contre les diverses formes de cyberviolences numériques, l’Allemagne reste, à l’heure actuelle, relativement démunie sur le sujet.
Alors que plusieurs milliers de personnes se réunissaient ce week-end près de la Brandenburger Tor, à Berlin, pour soutenir Collien Fernandes, le pays attend un débat réglementaire sur une proposition de loi relative à la protection contre les violences numériques. Le texte est « presque prêt », a déclaré un porte-parole du ministère fédéral de la Justice et de la protection des consommateurs au média Heise.
Il devrait couvrir deux volets : un pénal, dans lequel les deepfakes pornographiques et diverses autres formes d’agressions numériques deviendront condamnables, et un civil, pensé pour faciliter la réaction des victimes.
Concrètement, pour ces dernières, il s’agirait de renforcer le droit à être informé par les plateformes dans les cas de violations des droits de la personnalité (qui protègent un individu contre toute ingérence dans sa vie et sa liberté).
Du côté des agresseurs, le gouvernement compte menacer de bloquer les comptes des auteurs de ce type d’agression numérique des plateformes sur lesquelles ils agissent. Le but général est de « réduire le sentiment d’impunité », a indiqué la ministre fédérale de la Justice.
Si les plateformes numériques sont principalement régulées à l’échelle européenne, tout ce qui relève du droit pénal est laissé à l’appréciation des États membres. En l’espèce, l’Allemagne manque actuellement de certaines dispositions, que cette proposition de loi pourrait permettre d’accélérer.
À défaut, les victimes de diffusion non consenties d’images à caractère sexuel ne peuvent pour le moment s’appuyer que sur des actions au civil, en demandant des compensations aux auteurs et le retrait des contenus incriminés. Mais ces procédures sont longues, et peuvent constituer une charge supplémentaire pour les victimes de violences numériques.
En attendant les évolutions allemandes, Collien Fernandes a déposé plainte devant la justice espagnole, où elle a vécu, pour usurpation d’identité, injure publique, divulgation de secrets, coups et blessures répétés dans le cadre familial et menaces graves.
Au-delà du pan numérique des agressions dont elle témoigne, elle accuse en effet son ex-mari de lui avoir fait subir des violences psychologiques et émotionnelles, ainsi que des agressions physiques.
Comme Gisèle Pélicot et d’autres victimes de violences sexistes et sexuelles, qui prennent plus facilement la parole depuis la vague #MeToo, Collien Fernandes indique au Spiegel vouloir faire « changer la honte de camp » : que les internautes qui ressentent de la honte, face à la diffusion de ce type de contenu, ne soient plus celles et ceux représentés sur les images ou vidéos, mais bien ceux qui les créent.
C’est notamment pour cela qu’elle soutient, depuis 2023, les travaux d’une association comme HateAid, qui vise à faire évoluer l’opinion publique et à pousser les législateurs allemands à mieux protéger les internautes contre les deepfakes pornographiques.
Alors que les technologies d’IA se perfectionnent, leur usage à des fins de pédocriminalité devient plus fréquent, constate l’Internet Watch Foundation. Et d’alerter sur leur propension à créer de nouvelles victimisations des enfants représentés, de même que sur le caractère particulièrement violent des actes qui y sont illustrés.
Les contenus hautement réalistes, les vidéos complètes et crédibles générées par intelligence artificielle et décrivant des agressions sexuelles sur mineurs deviennent fréquentes, voire « routinières ». C’est le constat que formule l’Internet Watch Foundation (IWF), organisation britannique indépendante qui traite les signalements de photos et de vidéos d’agressions sexuelles sur enfants que remonte le public via sa hotline et son portail de signalement.
Créée en 1996, l’ONG fait partie intégrante du réseau INHOPE, auquel appartient aussi l’association française Point de Contact. Localement, l’IWF travaille notamment avec les forces de police et les fournisseurs d’accès à internet, auxquels elle fait par exemple remonter une liste noire de près de 150 000 URL (en 2024) de sites diffusant des contenus illégaux. Or, avec l’intelligence artificielle, les contenus qu’elle traite évoluent aussi.
Explosion des contenus illégaux réalistes générés par IA
En juillet 2024, ses analystes ont repéré les premières vidéos classables comme contenu CSAM (Child sexual abuse material, contenu d’agression sexuelle sur mineur) entièrement généré par IA. « À ce moment-là, les technologies restaient rudimentaires. Les vidéos présentaient de nombreux bugs et des tremblements, ainsi que des mouvements saccadés et peu naturels qui permettaient de distinguer facilement le contenu généré par IA des images réelles », indique-t-elle dans son rapport« Violence sans limites : les contenus d’agression sexuelle sur mineur générés par IA vus par nos analystes ».
Depuis, le réalisme de ces contenus a fait un bond, et l’ONG a recensé en 2025 plus de 8 000 images et près de 3 500 vidéos crédibles, générées par IA, représentant des agressions sexuelles sur mineurs. L’année précédente, elle n’avait collecté que 13 vidéos de ce type. Pour l’IWF, loin d’être « moins dangereux » que les contenus non générés par IA, ce type d’images et de vidéos « renforcent l’intérêt sexuel pour les enfants, contribuent à la normalisation d’agressions violentes, et peuvent accroître le risque d’agressions concrètes ».
En l’occurrence, dans l’échantillon collecté en 2025, l’IWF constate que 65 % des vidéos sont classifiables en « catégorie A », celle réservée aux contenus les plus extrêmes. Pour comparaison, sur l’année 2025, « 43 % des vidéos criminelles non générées par IA et traitées par l’IWF relevaient de la catégorie A ».
Nouvelle victimisation pour les enfants représentés
Les enjeux sont multiples : l’entraînement des modèles génératifs permettant de créer ce type de contenu est effectué sur des images d’agressions réelles sur mineurs, pour commencer. Le réusage de leur image à des fins de création de contenu violent démultiplie la victimisation des survivants de ce type de violence. Concrètement, des contenus représentant des agressions réelles sont modifiés, voire « augmentés » grâce aux technologies récentes, quelques fois pour améliorer la qualité des images, d’autres fois pour renforcer le type d’agressions représentées.
Ces enjeux sont, par ailleurs, très genrés : 97 % des enfants représentés dans ces contenus CSAM générés par IA sont des filles, une proportion plus large que dans les affaires de pédocriminalité (en 2023, les travaux de la Commission indépendante sur l’inceste et les violences sexuelles faites aux enfants relevaient par exemple que 3,9 millions de femmes et 1,5 millions d’hommes étaient confrontés en France à des violences sexuelles avant 18 ans, ce qui revient à 72 % de filles et 28 % de garçons).
Plusieurs cas ont illustré cette tendance dans les dernières années, par exemple en Espagne, dans la ville d’Almendralejo, où 15 garçons ont été condamnés pour avoir recouru à des applications de nudification pour créer des images de 20 filles de 11 à 17 ans. Ou encore dans un collège de Normandie, où une douzaine de jeunes filles ont vu leur image détournée début 2025 pour créer des deepfakes à caractère sexuel.
Des technologies qui « abaissent le seuil » de création de CSAM
L’association pointe aussi le rôle des technologies dans l’évolution de ces risques. Pour créer ces contenus, les internautes recourent à des outils appuyés sur de grands modèles de langage, comme des applications de « nudification » ou des robots conversationnels plus génériques, ou à des outils de génération d’image à partir de requêtes textuelles (text-to-image). « Il n’existe pas de cas d’usage positif » pour les applications de nudification, pointe l’IWF : ces dernières « ne servent qu’à humilier, harceler et exploiter et peuvent servir à infliger de nouvelles formes d’agressions ».
Du côté des robots conversationnels, l’ONG relève deux cas d’usages problématiques : le recours à des machines comme ChatGPT ou Gemini pour obtenir de l’aide technique à la génération de contenu illégale, et la prévalence de discours à caractère sexuel dans plusieurs types de robots conversationnels.
Des outils comme Candy AI (de EverAI) ou certains bots de Character.AI sont ainsi connus pour renforcer la communication à caractère sexuel avec l’utilisateur, ce qui peut mener à des comportements proches du grooming (anglicisme normalement utilisé pour désigner l’instauration par un adulte d’une relation de confiance avec un enfant afin d’en obtenir des actes sexuels) lorsque ces robots sont utilisés par des mineurs.
Les évolutions de ces différents outils « abaissent le seuil » qui permet la création de ces contenus CSAM, alerte l’IWF. « Des projets qui demandaient autrefois de multiples outils et des compétences techniques sont désormais intégrés dans une seule application facile à prendre en main. » Des robots conversationnels disponibles pour le grand public ont par ailleurs démontré « une tendance à encourager les conversations à caractère sexuel avec les enfants, ce qui pousse les délinquants à concrétiser leurs pensées sexuelles impliquant des enfants ».
Après s’être lancé dans le suivi de ce type spécifique de production en 2023, l’IWF souligne que le CSAM généré par IA constitue toujours une « proportion relativement faible de la totalité des contenus illégaux repérés », mais que la « rapidité de son expansion présente une menace sérieuse et évolutive ».
De nouvelles perturbations sur le centre de données d’AWS localisé au Bahreïn soulignent les enjeux que le conflit en Iran pose pour les projets d’infrastructure numérique lancés au Moyen-Orient.
Début mars, AWS faisait déjà partie des victimes collatérales des combats entre États-Unis, Israël et Iran. Ce 23 mars, d’après les informations de Reuters, ses services installés à Bahreïn sont de nouveau perturbés par des activités de drones.
Si ces interruptions de service ont été confirmées par un porte-parole de l’entreprise, ce dernier n’a pas indiqué si le centre de données concerné avait été directement touché par un tir, ou s’il subissait des aléas dus à des frappes à proximité. L’épisode illustre la situation délicate dans laquelle l’attaque de l’Iran par les États-Unis place les plus grands acteurs du numérique, qui ont multiplié ces dernières années les investissements au Moyen-Orient.
Migration encouragée vers d’autres régions
Depuis les premières perturbations liées au conflit, tout début mars, Amazon semble avoir cessé de mettre à jour sa communication sur la situation de ses équipements. Les informations relatives à « me-south-1 », comme le centre de données du Bahreïn est nommé dans la nomenclature d’AWS, restent en effet inchangées depuis le 3 mars.
Services qui restent « touchés » par des perturbations (et non « réparés ») à la suite de perturbation du centre de données me-south-1, en date du 24.03.26 / Capture d’écran Amazon
Auprès de Reuters, l’entreprise indique aider sa clientèle à migrer ses charges vers d’autres régions où les services d’AWS sont disponibles, le temps que les capacités de ce bâtiment puissent être rétablies. Début mars, l’entreprise avait indiqué plusieurs perturbations, notamment en termes d’approvisionnement électrique, aux Émirats arabes unis et au Bahreïn. L’entreprise affirmait que les frappes du moment avaient causé des « dommages structurels », et qu’à ce titre, la remise en état des équipements serait « longue ».
Mis en service en 2019, le centre de données du Bahreïn est le premier qu’Amazon ait construit dans le Golfe persique. Depuis, elle a développé des infrastructures aux Émirats arabes unis et travaille désormais à un projet à 10 milliards de dollars en Arabie saoudite. Mais les tensions actuelles risquent de mettre en péril certains projets, que ceux-ci visent à fournir de l’infrastructure classique, ou des projets plus spécifiquement dédiés à l’intelligence artificielle.
En quelques années, les Émirats, le Qatar et l’Arabie Saoudite ont en effet dépensé des milliers de milliards de dollars dans l’industrie du numérique, tandis que géants historiques de l’industrie technologique et projets plus directement liés à l’essor de l’IA venaient y réaliser leurs propres larges investissements. Oracle, Nvidia et Cisco soutiennent ainsi financièrement le projet de campus dédié à l’IA d’Open AI, appelé UAE Stargate (en écho au Stargate états-unien) et financé en collaboration avec la société émiratie G42.
Au total, en 2025, les dépenses liées au numérique orienté business et consommateur auraient dépassé les 65 milliards de dollars en 2025, soit près du double des 36 milliards relevés en 2020, selon la société IDC. Les seuls secteurs du cloud et des centres de données ont enregistré une augmentation de 75 % des dépenses, pour un total de 895 millions de dollars en 2025, relève le New-York Times.
Déjà au moins de septembre, alors que Doha, la capitale qatarie, était touchée par des frappes israéliennes, des investisseurs questionnaient auprès de CNBC la stabilité géopolitique de la région. Et si Donald Trump lui-même a salué, voire aidé à la conclusion de certains projets, sa décision de se lancer dans l’attaque récente contre l’Iran vient largement rebattre les cartes.
Rien n’empêche de considérer, souligne en effet le directeur du Center for Strategic and International Studies, que des centres de données puissent devenir des « cibles d’attaques légitimes dans les conflits armés modernes ». Mi-mars, l’Iran durcissait justement le ton, qualifiant d’« infrastructures technologiques ennemies » les équipements d’Amazon, Microsoft, Google, Palantir, Nvidia, IBM et Oracle.
Si les projets initiés dans la région ne devraient pas disparaître du jour au lendemain, des analystes préviennent qu’à défaut de détente, les prochaines vagues d’investissements pourraient se tourner vers d’autres régions du monde pour s’épargner des risques géopolitiques. Un tel cas de figure pourrait notamment profiter à l’Europe du Nord, l’Inde ou l’Asie du Sud-Est.
Patron de Superhuman, la société éditrice de Grammarly, Shishir Mehrotra est revenu sur les débats relatifs à sa fonctionnalité « Expert Review », qui permettait de réviser un texte avec l’aide de rendus automatisés présentés comme inspirés des travaux d’autrices et auteurs, scientifiques ou journalistes réels.
Après avoir créé un large débat dans la sphère anglophone, cette dernière a été suspendue le 12 mars, quelques heures après que nous retrouvions les noms de plusieurs scientifiques, écrivaines et journalistes francophones dans l’outil.
Sur les 1 500 personnes travaillant chez Superhuman, nom adopté par la société quelques mois après une levée de fonds d’un milliard de dollars, Shishir Mehrotra explique à The Verge que la décision de lancer un tel outil est revenue à une poignée de personnes, « probablement un gestionnaire de produit et quelques ingénieurs ». Il explique sa décision de la supprimer au fait qu’il s’agissait d’une « mauvaise fonctionnalité », utile « ni pour les utilisateurs, ni pour les experts ».
Illustration : Flock
Interrogé sur la rémunération qui aurait dû être proposée aux universitaires, journalistes, ou autrices et auteurs cités par la machine, l’entrepreneur répond sur la thématique de la visibilité : « Comme experts, vous avez besoin de vous rendre visibles sur internet. »
N’importe quelle personne qui publierait en ligne, estime-t-il, veut voir son contenu utilisé par d’autres, que d’autres utilisateurs y fassent référence, et que les auteurs des contenus en question soient cités. « Et pour citer, il faut utiliser votre nom ». C’est, en substance, ce que Grammarly souhaitait mettre en avant avec son outil « expert review », avance l’entrepreneur, qui considère les accusations d’usurpation d’identité « un peu exagérées ».
La journaliste Julia Angwin et d’autres poursuivent néanmoins l’entreprise en justice aux États-Unis pour usage non consenti du nom et de l’identité de personnes, sans leur consentement.
Relancé sur la question de la rémunération qui aurait pu être proposée aux personnalités citées par la machine, Shishir Mehrotra évacue à nouveau : « Nous ne devrions pas usurper votre identité, point. Nous ne l’avons pas fait. Si nous utilisons votre travail, si n’importe quel LLM ou n’importe quel produit utilise votre travail, il devrait citer la source de ces éléments et fournir les liens qui y renvoient. »
Interrogé une troisième fois sur le sujet, l’entrepreneur évoque finalement un modèle d’affaire en cours de construction – notamment la possibilité de créer des agents d’IA supposés représenter un ou une experte, qui pourrait ensuite partager les revenus tirés de l’usage de cet outil avec Grammarly, sur une répartition de l’ordre de 70 % pour l’auteur, 30 % pour la plateforme. Concrètement, Shishir Mehrotra propose un mode de financement très similaire à ce qui existe déjà dans l’écosystème des créateurs et créatrices de contenu, sans considération particulière sur la volonté des universitaires, journalistes ou autrices et auteurs cités pour ce type de nouvelle activité.
Quant aux noms cités par la fonctionnalité Expert Review – côté français, nous avions noté la présence de Valérie Masson-Delmotte, Annie Ernaux ou encore Florence Aubenas – ces derniers « viennent directement des LLM populaires ». Autrement dit, Grammarly n’aurait rien construit d’autre qu’une forme d’itération sur la pratique consistant à interroger Claude ou Gemini en lui demandant d’améliorer un texte en « s’appuyant sur les personnes les plus utiles pour donner des retours constructifs, prenant leurs travaux les plus intéressants, et utilisant cela pour fournir une révision ».
À chaque échéance électorale ou presque, désormais, son lot d’opérations d’influence : alors que la population hongroise doit se rendre aux urnes le 12 avril pour des élections législatives, des centaines de vidéos générées par IA circulent sur TikTok dans un but affiché d’améliorer l’image du Premier ministre Viktor Orbán et de discréditer son concurrent Péter Magyar.
En l’espèce, Newsguard indique avoir identifié un réseau de 34 comptes anonymes dédiés à moquer Péter Magyar – par exemple en faisant prononcer des textes critiques par des animaux – ou à tromper très directement les internautes en singeant des reportages vidéos dénigrant le candidat. Ces derniers éléments reprennent de vraies images de Péter Magyar, mais y ajoutent divers commentaires négatifs, ou de faux présentateurs le qualifiant d’agressif.
L’Ukraine est régulièrement visée dans ces contenus, et les images de stars internationales comme Leonardo DiCaprio ou Johnny Depp utilisées pour diffuser des messages politiques.
Les images de Leonardo DiCaprio et Johnny Depp utilisées pour interférer dans les débats en amont des élections législatives hongroises / Capture d’écran Newsguard
À l’heure actuelle, les vidéos en question ont accumulé de l’ordre de 10 millions de vues. En parallèle, Newsguard constate que des émanations de la campagne russe Matriochka – qui s’était attaquée à l’Ukraine et à l’organisation des Jeux olympiques de 2024 dans l’espace informationnel français – visent aussi le public hongrois. Ces dernières recourent plutôt à X et Telegram pour diffuser de fausses informations, là encore mentionnant régulièrement l’Ukraine pour en critiquer la population.
Alors que Viktor Orbán est décrit comme le « canal d’influence le plus direct de Vladimir Poutine au sein de l’UE », plusieurs spécialistes alertent contre les risques d’ingérence dans le scrutin de la part de la Russie.
Début février, chez Arte, des représentants du collectif de traducteurs et traductrices qui travaillent aux sous-titres de la chaîne franco-allemande étaient venus sonner l’alerte : depuis le début de l’année 2025, leurs revenus étaient en forte baisse.
Depuis plus d’une décennie, la chaîne recourt à leurs services pour adapter les magazines et documentaires vers l’anglais, l’espagnol, le polonais, l’italien et le roumain.
Sur place, les responsables du programme multilingue de la chaîne ne s’en sont pas cachés, rapporte Mediapart : ils sont très satisfaits des résultats de leurs expérimentations de traduction automatisée, menées à partir de mai 2023 et généralisées un an plus tard. À terme, le recours à l’intelligence artificielle devrait devenir « inéluctable ».
Illustration : Flock
Concrètement, cela leur permet de réduire de moitié la facture actuelle versée au prestataire d’Arte Transperfect. Pour un traducteur humain, cette facture s’élève à 10 euros la minute, dont 4 à 5 euros sont finalement reçus par le ou la traductrice. Pour ces derniers, en revanche, cela réduit la qualité du travail tout en réduisant les revenus.
Comme nous l’expliquait Margot Nguyen Béraud, membre du collectif En chair et en os, dans le dernier épisode d’Entre la chaise et le clavier, à l’ère de l’IA, le travail demandé aux professionnels de la traduction n’est plus de partir du texte initial pour l’adapter, mais d’une version « pré-mâchée » par le robot, qu’il s’agit ensuite de « post-éditer ».
L’effet sur les revenus est direct : quand bien même les principaux concernés estiment que ces post-éditions ne leur font pas tellement gagner de temps, Transperfect ne paye plus la minute que 2 ou 2,5 euros lorsqu’un système d’IA (ici, Claude d’Anthropic) est mobilisé.
Côté Arte, en revanche, l’économie permettrait de multiplier les traductions vers vingt-quatre langues à terme, et de mettre ces traductions à disposition en moins de 24 h pour les programmes d’actualité. Pour les représentants de plusieurs syndicats et collectifs de traducteurs et traductrices, l’affaire est malheureusement « banale », le symptôme d’une tendance qui conduit de plus en plus de professionnels à quitter le métier.
Le public n’y gagne pas forcément, pointe la présidente de l’Association des traducteurs adaptateurs de l’audiovisuel (Ataa), avec des traductions médiocres dans lesquelles des marqueurs comme le tutoiement ou le vouvoiement sont mélangés, des mots intervertis, ou encore l’intégralité du texte retranscrite, alors que les experts du sous-titre tendent à proposer des élisions pour permettre au public de suivre.
Michael Smith, un homme de 52 ans originaire de Caroline du Nord, a plaidé coupable, ce 20 mars, d’avoir détourné des millions de dollars de royalties en inondant les plateformes de streaming musical de morceaux générés par IA.
Non content de fabriquer la musique grâce à des systèmes d’IA générative, il avait promu ces morceaux sur les plateformes à l’aide de robots dédiés à faire grimper leur nombre d’écoutes à plusieurs milliards.
Dans le cadre d’un accord passé avec les procureurs fédéraux de New York, cet homme a plaidé coupable de complot en vue de commettre une fraude électronique, rapporte the Guardian. Cette décision fait de l’affaire l’une des premières pour fraude liée à l’IA qui aboutit.
De fait, le prévenu a « créé des milliers de fausses chansons à l’aide de l’IA », mais les revenus obtenus, eux, « étaient réels », souligne le procureur Jay Clayton dans un communiqué. D’après les termes de son accord, Michael Smith risque maintenant jusqu’à cinq ans de prison et 8 millions de dollars au titre de la confiscation de ses gains lorsque sa peine définitive sera prononcée, en juillet.
En janvier, le magazine Rolling Stones révélait que ce père de famille avait utilisé 1 040 comptes pour diffuser de l’ordre de 636 morceaux générés par IA par jour.
L’affaire illustre une tendance plus large à la diffusion de musique créée automatiquement, dont l’un des effets de bord revient à menacer directement les revenus des artistes. Des plateformes dédiées à la fabrication de ce type de morceaux, à commencer par Udio et Suno, sont ainsi attaquées devant la justice états-unienne.
Le partenariat de l’ex-éditeur de Pokémon Go avec Coco Robotics agite les discussions en ligne. Étant donné la spécialisation croissante de Niantic dans la construction de modèles de géolocalisation, il illustre pourtant un débouché classique de systèmes d’automatisation vers la robotique.
Oui, les données des joueurs de Pokémon Go servent à entraîner des systèmes d’IA. La nouvelle a fait bruisser les discussions numériques, ces derniers jours, alors que Niantic, l’éditeur du jeu vidéo ultra-populaire de l’été 2016 Pokémon Go, annonçait un partenariat avec Coco Robotics.
En cause : une partie du public semblait y découvrir que les multiples données de géolocalisation collectée par l’entreprise au gré des sessions de chasse aux Pokémon en réalité virtuelle servaient des finalités plus concrètes. Mais l’annonce n’est que la traduction de deux tendances : l’évolution du modèle initial de Niantic Labs, et la pratique plus globale de recherche de nouveaux débouchés économiques aux collecte de données orchestrées par les sociétés numériques.
D’éditeur de jeu vidéo à éditeur de modèle géospatial
Initialement lancée au sein de Google, en 2010 par John Hanke, Niantic Labs est en effet une société qui a pris son indépendance en 2015. Depuis, son business model a évolué, pour s’appuyer au fil du temps sur deux pieds : les revenus tirés des jeux eux-même (achats au sein des applications, événements liés à des succès comme Pokémon Go, ou encore publicité) et ceux obtenus par sa filiale Niantic Spatial, dédiée à faire évoluer les technologies de réalité augmentée et d’IA.
Depuis plusieurs années, cette dernière s’emploie en particulier à construire des modèles géospatiaux dont l’efficacité est précisément permise… par la somme de données récoltées grâce aux différents jeux en réalité augmentée de Niantic Labs. En 2024, l’entreprise dévoilait notamment son Large Geospatial Model (LGM), un système qui vient alimenter le Visual Position System (VPS) construit par l’entreprise, et à la base des jeux Pokémon Go, Ingress et Peridot.
Le but de ces différents outils : permettre aux terminaux des utilisateurs de comprendre où ils se situent dans le monde réel. L’entraînement du LGM, expliquait alors l’entreprise, avait été permis par les « milliards d’images du monde, toutes reliées à des endroits précis du globe » que lui avaient partagées les joueurs de Pokémon Go.
À l’époque, Niantic avait d’ailleurs déployé une nouvelle fonctionnalité, Pokémon Playgrounds, dans laquelle joueuses et joueurs pouvaient placer leur Pokémon dans des lieux donnés, afin que d’autres internautes puissent les voir et jouer avec. L’entreprise se targuait de recevoir en moyenne 1 million de nouveaux points de localisation par semaine, et en détenir déjà 10 millions.
La robotique, débouché industriel à part entière
Depuis Niantic a encore évolué : en mars 2025, l’entreprise vendait sa branche jeux vidéos à Scopely, pour faire de Niantic Spatial une société à par entière. Concrètement, John Hanke indiquait prendre la tête de Niantic Spatial, qui se lançait de manière indépendante grâce à 200 millions de dollars des revenus de Niantic et 50 millions de dollars d’investissements de Scopely. Le projet : faire prendre leur essor aux outils de vision et géolocalisation spatiale auxquels travaillait déjà l’entreprise.
Dans ces conditions, et sachant que l’essentiel des sociétés qui ont fait de la collecte de données un pan de leur modèle d’affaire ont ensuite mobilisé ces données pour construire divers systèmes technologiques, Niantic Spatial a assez logiquement cherché des débouchés pour son VPS et son modèle géospatial.
Ce 10 mars, la société indiquait la mise en place d’un partenariat stratégique avec la société Coco Robotics, qui construit des robots dédiés à la livraison automatisée. Une telle alliance s’explique techniquement : les systèmes de visualisation dans l’espace réel développé par Niantic Spatial pourraient servir d’« yeux » aux robots de Coco. « La navigation dans les rues chaotiques des villes est un des défis d’ingénierie les plus complexes » déclare John Danke dans leur communiqué commun, et c’est à ce défi que les deux sociétés prévoient de s’atteler ensemble.
En l’espèce, leur alliance n’est qu’un symptôme d’une recherche plus large de débouchés des technologies d’IA dans le monde hors ligne. En France, ces dernières semaines, le cofondateur d’AMI Labs Yann LeCun ne s’est ainsi pas caché de chercher des débouchés à ses futurs modèles dans « l’automatisation, les dispositifs portables, la robotique », entre autres exemples.
Bien sûr, cela signifie que Niantic tire profit des activités ludiques et bénévoles des joueurs de Pokémon Go au cours de la décennie passée. Mais est-ce une spécificité, quand on sait que l’essentiel des réseaux sociaux font de même, voire que les tests CAPTCHA que les internautes remplissent pour entrer sur des sites web permettent d’entraîner des modèles d’IA ?
Alors que l’entreprise multiplie les projets dédiés à étendre ses capacités de hardware et d’infrastructure dédié à l’intelligence artificielle, elle pourrait licencier jusqu’à 20 % de ses effectifs actuels.
Meta s’apprêterait à licencier 20 % de ses équipes, selon les informations de Reuters, une réduction d’effectif qui représenterait donc environ 16 000 emplois sur les 79 000 que la société compte actuellement.
S’il n’a pas encore été confirmé, ce projet se ferait dans un contexte de poursuite des investissements de l’entreprise dans l’intelligence artificielle. Ce 17 mars, la société néerlandaise Nebius indiquait par exemple avoir signé un contrat de 27 milliards de dollars avec Meta pour lui fournir diverses capacités d’infrastructure (data center, serveurs, GPU) sur les cinq prochaines années. Mi-mars, le géant des réseaux sociaux annonçait par ailleurs le développement de quatre nouvelles puces MTIA (Meta Training and Inference Accelerator), qu’elle produit depuis 2023, sur les deux prochaines années.
Investissements accélérés dans l’IA
Ces différents éléments s’intègrent dans une redirection plus large de la société vers l’intelligence artificielle générative. À l’été 2025, Mark Zuckerberg annonçait ainsi son projet d’investir des « centaines de milliards de dollars » dans l’industrie, que ce soit du côté du développement ou de la sous-traitance de centres de données spécialisés dans l’équipement dédié à faire tourner de grands modèles de langage, ou dans le recrutement de personnalités de l’IA.
À l’époque, les packages au montant faramineux proposés à des ingénieurs d’Apple, Google ou Open AI avaient défrayé la chronique : pour tenter de rattraper ses concurrents, Mark Zuckerberg avait en effet proposé jusqu’à un milliard de dollars sur plusieurs années à certains spécialistes. Début septembre, cela n’avait pas empêché certaines embauches récentes (ou plus anciennes) de repartir aussi rapidement, quelquefois pour aller directement chez la concurrence – l’ancienne directrice de produits d’IA générative Chay Nayak a rejoint OpenAI –, quelquefois pour créer leurs propres entreprises – ainsi de l’ancien directeur du laboratoire Facebook Artificial Intelligence Research (FAIR) Yann LeCun, rentré en France pour cofonder la start-up AMI.
Licenciements dans la tech
Mais maintenir ce rythme implique de larges dépenses. En novembre, l’entreprise prévoyait d’investir 600 milliards de dollars dans des infrastructures et des emplois sur les trois prochaines années, sachant que la société avait déjà dépensé 135 milliards de dollars dans le domaine sur la seule année 2025.
Auprès de Business Insider, des cadres de Meta n’en avancent pas moins que le projet de licenciements de la société pourrait débuter dès ce mois de mars. S’il se confirme, ce serait le plus gros réalisé depuis la pandémie. En novembre 2022, la société avait licencié 11 000 employés, avant de se séparer de 10 000 personnes supplémentaires en mars 2023. Début janvier 2026, elle remerciait par ailleurs 1 500 personnes de son Reality Labs, actant son détournement du métavers, pourtant ardemment promu par Mark Zuckerberg pendant la pandémie.
Outre le contexte spécifique à l’entreprise, il s’inscrirait dans une tendance plus large de licenciements dans l’industrie numérique : l’éditeur de logiciel Atlassian a par exemple indiqué se séparer de 10 % de ses effectifs il y a quelques jours, suivi notamment par Block, la société dirigé par le fondateur de Twitter Jack Dorsey. Cette dernière a annoncé fin février se séparer d’un coup de 40 % de ses 10 000 employés.
Peter Thiel lançait ce 15 mars à Rome un nouveau séminaire de quatre jours sur l’Antéchrist. Sa venue a créé des remous dans l’écosystème catholique comme du côté du gouvernement italien.
Après Paris, Rome… et la proximité du Vatican. Après la leçon donnée fin janvier à l’Académie des sciences morales et politiques, Peter Thiel continue sa tournée des pays européens pour se rapprocher cette fois-ci du cœur de la religion dont il a adopté une lecture si personnelle.
Comme il le fait habituellement, sa prise de parole a été organisée dans un secret relatif, éventé notamment par le refus de l’Université pontificale Saint-Thomas-d’Aquin de Rome de lui accorder une salle. L’entrepreneur et capital-risqueur avait pourtant soigneusement préparé son spectacle : messe en latin à l’église Saint-Jean-Baptiste-des-Florentins, puis ouverture de ses quatre jours de séminaires.
Qu’à cela ne tienne, ses hôtes, l’Associazione culturale Vincenzo Gioberti et le Cluny Institute, proche de la Catholic University of America, lui ont trouvé un espace au Palazzo Taverne pour ouvrir, ce 15 mars, une série de conférences à huis clos sur sa figure favorite : l’Antéchrist. L’épisode traduit bien, cela dit, les débats que sa venue à Rome a suscités, aussi bien du côté du Vatican que des représentants politiques italiens.
Car au Vatican, le pape prépare sa première encyclique, une de ces lettres solennelles qui permettent aux pontifes de dessiner leur doctrine, et celle-ci pourrait bien se pencher en partie sur l’intelligence artificielle et les technologies. Dans le quotidien Avvenire, lu par les évêques italiens, plusieurs articles très critiques de Palantir ont fleuri. Pour un auditoire plus généraliste, le père Paolo Benanti signait ce week-end dans Le Grand Continent un article très défavorable au positionnement de Thiel.
« L’ensemble de l’action de Thiel peut se lire comme un acte prolongé d’hérésie contre le consensus libéral, écrit cet artisan des travaux du Vatican sur l’IA : une contestation des fondements mêmes de la coexistence civile, qu’il juge désormais dépassés. » Et de préciser que l’hérésie, étymologiquement, n’est pas simple « blasphème » ou « erreur doctrinale », mais un « choix, une option ». Ou, d’un point de vue philosophique, « l’isolement d’une vérité partielle, détaché du tissu relationnel de l’ensemble et élevée au rang de principe absolu ».
S’appuyant sur cette conception, le conseiller du pape appelle à lire le positionnement de Thiel « non comme un simple rejet des valeurs occidentales mais comme la radicalisation pathologique de certaines de leurs composantes — la compétition, la technologie, l’individu — qui, érigées en unique boussole, conduisent à des résultats radicalement divergents du projet démocratique commun ».
Embarras jusque chez Giorgia Meloni
Outre irriter l’écosystème catholique romain, la venue de Peter Thiel a gêné jusqu’à la présidente du Conseil des ministres italiens, Giorgia Meloni, pourtant présidente du parti d’extrême-droite Fratelli D’Italia et ouvertement proche de Donald Trump, J.D. Vance et Elon Musk.
Plusieurs législateurs ont clairement demandé si Thiel rencontrerait Meloni, et si Palantir travaillait déjà pour l’administration publique italienne, rapporte Euractiv. En 2024, le ministère de la Défense avait notamment lancé un appel d’offre susceptible de correspondre à une licence pour la plateforme Gotham, qui permet d’explorer de multiples sources d’information.
Politiquement, analyse par ailleurs l’Opinion, Peter Thiel paraîtrait même trop extrême aux yeux du gouvernement actuel. Aussi proche soit-il des dirigeants politiques et technologique états-unien, ce dernier doit en effet composer avec les retombées de la guerre lancée brusquement par Donald Trump en Iran – guerre contre laquelle plusieurs milliers de personnes ont protesté ce week-end à Rome.