Portée par le Future of Life Institute, une nouvelle déclaration « pro-humaine sur l’IA » réunit des signatures de tous les bords politiques états-uniens, ainsi que de multiples personnalités plus ou moins proches du domaine. Le texte joue d’une rhétorique du remplacement de l’humanité par l’IA.
Une déclaration de plus, sur la manière dont l’humanité devrait s’emparer de l’intelligence artificielle, une ! En ce mois de mars, une nouvelle prise de parole a émergé sur le site humanstatement.org. Intitulée « the Pro-Human AI Declaration », le texte est signé par des représentants de tous les bords politiques aux États-Unis et de multiples organisations spécialisées dans l’intelligence artificielle, dans la défense des droits numériques ou dans différents sujets de sociétés.
L’ex-conseiller de Donald Trump Steve Bannon se retrouve ainsi aux côtés de l’organisation de terrain Progressive Democrats of America, du Congress of Christian Leaders (une association d’églises évangéliques) ou de l’AFL-CIO Tech Institute (spécialiste des effets des nouvelles technologies sur le travail).
Lui aussi signataire de nombreux appels à freiner la course actuelle, le prix Turing Yoshua Bengio côtoie par ailleurs la fondatrice de l’ONG Campagne internationale pour l’abolition des armes nucléaires et prix Nobel Beatrice Fihn, le fondateur de Virgin Group Richard Branson, la directrice exécutive du versant états-unien de Pause AI Holly Elmore, ou encore l’acteur Joseph Gordon-Levitt.
Le texte, lui, propose cinq axes de travail : s’assurer que les humains gardent la maîtrise des outils d’IA, éviter les concentrations de pouvoir, protéger les expériences humaines (des liens familiaux ou communautaires à l’identité, en passant par la protection des mineurs), assurer le pouvoir d’action et la liberté humaine et s’assurer de la responsabilité des constructeurs d’IA ainsi que de leur obligation de rendre des comptes.
Il reste 76% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Elles s’appellent Baby Sittor, Babysits, ou beaucoup plus généralement Leboncoin : ces plateformes permettent aux baby-sitters d’entrer en contact avec des familles qui cherchent à faire garder leurs enfants, mais elles ne protègent en rien des abus.
Alors que l’emploi de garde d’enfant est plébiscité par les étudiants (sur les 40 % de ceux qui travaillent, 18 % se tournent vers le baby-sitting), ces derniers, plus généralement des jeunes femmes, se retrouvent quelquefois en situation de vulnérabilité, notamment numérique.
Sur Babysitor et Babysits, nombreuses sont les annonces qui proposent des salaires inférieurs au smic horaire (12,02 euros bruts, 9,52 euros net), relève Le Monde. Les plateformes se placent en simple intermédiaire : il revient donc aux familles et à leurs employés de négocier les tarifs.
Flock
Sur Leboncoin, des étudiantes témoignent recevoir des propositions déplacées, « pour être escort ou faire des "massages" ». Testant le système de modération de la plateforme, Le Monde constate que Leboncoin n’a répondu à l’alerte émise qu’une fois son service de presse contacté.
Pour Mathilde Léonard, conseillère sur les questions d’enseignement supérieur à la Fédération nationale des centres d’information sur les droits des femmes et des familles, ces plateformes devraient faire plus pour protéger leurs utilisatrices des violences sexistes et sexuelles.
En dehors des plateformes qui leur permettent de trouver leurs missions, les baby-sitters se retrouvent par ailleurs confrontés à un autre type de risque numérique : la surveillance. Auprès du quotidien, une étudiante de 27 ans indique par exemple avoir reçu un texto lui demandant de ne pas utiliser un plaid qu’elle avait mis sur ses genoux. Ses employeurs avaient installé une caméra dans le salon.
Elles s’appellent Baby Sittor, Babysits, ou beaucoup plus généralement Leboncoin : ces plateformes permettent aux baby-sitters d’entrer en contact avec des familles qui cherchent à faire garder leurs enfants, mais elles ne protègent en rien des abus.
Alors que l’emploi de garde d’enfant est plébiscité par les étudiants (sur les 40 % de ceux qui travaillent, 18 % se tournent vers le baby-sitting), ces derniers, plus généralement des jeunes femmes, se retrouvent quelquefois en situation de vulnérabilité, notamment numérique.
Sur Babysitor et Babysits, nombreuses sont les annonces qui proposent des salaires inférieurs au smic horaire (12,02 euros bruts, 9,52 euros net), relève Le Monde. Les plateformes se placent en simple intermédiaire : il revient donc aux familles et à leurs employés de négocier les tarifs.
Flock
Sur Leboncoin, des étudiantes témoignent recevoir des propositions déplacées, « pour être escort ou faire des "massages" ». Testant le système de modération de la plateforme, Le Monde constate que Leboncoin n’a répondu à l’alerte émise qu’une fois son service de presse contacté.
Pour Mathilde Léonard, conseillère sur les questions d’enseignement supérieur à la Fédération nationale des centres d’information sur les droits des femmes et des familles, ces plateformes devraient faire plus pour protéger leurs utilisatrices des violences sexistes et sexuelles.
En dehors des plateformes qui leur permettent de trouver leurs missions, les baby-sitters se retrouvent par ailleurs confrontés à un autre type de risque numérique : la surveillance. Auprès du quotidien, une étudiante de 27 ans indique par exemple avoir reçu un texto lui demandant de ne pas utiliser un plaid qu’elle avait mis sur ses genoux. Ses employeurs avaient installé une caméra dans le salon.
Dans son rapport de transparence 2025, l’association Point de Contact pointe que les obligations légales de très grandes plateformes les poussent à réagir plus vite, en moyenne, que les autres fournisseurs de services numériques. Elle souligne par ailleurs la présence de violences à caractère sexuel dans tous les espaces numériques, contrairement à d’autres types de contenus illicites.
Nommée signaleur de confiance au sens du Règlement sur les services numériques (Digital Services Act, DSA) par l’ARCOM, l’association Point de Contact publie ce 5 mars son rapport de transparence de l’année 2025.
Parmi ses principaux constats, l’association souligne qu’au-delà des très grandes plateformes numériques (VLOP) soumises à des obligations spécifiques par le DSA, la catégorie des « fournisseurs de services intermédiaires » (d’hébergement, d’accès à Internet) est aussi largement utilisée pour la diffusion de certains types de contenus illicites. En conséquence, ils ont reçu plus des trois quarts des notifications de contenus illicites émises par l’association en 2025 (en excluant une affaire spécifique impliquant de contacter OVHcloud).
En termes de contenus, l’association constate que ceux relevant de violences sexuelles (contre personnes mineures comme majeures) sont présents dans tous les types d’espaces numériques, contrairement à d’autres contenus illicites dont la circulation est plus souvent cantonnée aux réseaux sociaux. Sur ce type spécifique de contenus, elle constate une plus grande difficulté à obtenir le retrait de contenu concernant des personnes majeures, et appelle à la mise en place de mécanismes techniques et juridiques permettant de mieux protéger les victimes.
Rapport de transparence de Point de Contact / Capture d’écran
Signaleur de confiance… auprès des très grandes plateformes
En vertu de l’article 22 du DSA, les très grandes plateformes (VLOP) doivent travailler avec les signaleurs de confiance, tels que labellisés au sein de chaque État membre de l’Union européenne. En pratique, lorsque ces derniers font remonter des alertes, les plateformes doivent les traiter en priorité. Aux côtés de Point de Contact, les autres signaleurs nommés par l’Arcom sont e-enfance, l’Association de lutte contre la piraterie audiovisuelle, l’International Fund for Animal Welfare (IFAW), INDECOSA-CGT (Information et défense des consommateurs et salariés), Addictions France, le Crif et la Licra.
Sur l’année écoulée, Point de Contact indique avoir reçu 122 317 signalements, indifféremment d’internautes ou de partenaires, dont 36 % (45 086) ont été qualifiés d’illicites après analyse par quatre juristes de l’association. 65 % (29 640) de ces messages illicites ont conduit à des notifications aux services concernés, ce qui a conduit au retrait de 63% (28 800) de ces contenus. L’association précise que l’écart constaté entre le nombre de contenus signalés et retirés est le plus souvent dû au travail du réseau international INHOPE, qui a pu mener à des retraits avant notification par l’association française.
Si Point de Contact reçoit des notifications sur une variété de sujets, l’immense majorité (93 %) concerne la protection des mineurs. En termes de fournisseurs, la vaste majorité des alertes émises (89 %) ont été envoyées à OVHcloud. La raison, note Point de Contact, est que « l’un des sites hébergés par cette entreprise est ciblé par des réseaux pédocriminels qui profitent des services d’hébergement d’images fournis par ce site pour y télécharger et échanger des contenus d’exploitation sexuelle sur mineure ».
L’association invite donc à se concentrer sur les 11 % d’alertes restantes pour dessiner une image plus précise des actions des différents destinataires de notifications. 571 ont ainsi été soumises à des VLOP. Dans le lot, X fait figure de mauvais élève, dans la mesure où seulement un contenu sur deux, en moyenne, est retiré après notification.
Plus généralement, Point de Contact relève que les contenus de violences à caractère sexuel ne sont pas traités de la même manière par les VLOP et les fournisseurs de service d’hébergement. En l’occurrence, 86 % des notifications envoyées à de très grandes plateformes pour ce type de problématiques ont conduit à des retraits, quand seulement 60 % des notifications similaires auprès d’hébergeurs ont permis d’obtenir ce résultat.
Une partie de l’explication de ce déséquilibre est à chercher dans la réglementation européenne : le DSA prévoit en effet des niveaux de responsabilité différents selon la taille des services. La priorité qui doit être donnée aux signaleurs de confiance, par exemple, n’est imposée qu’aux VLOP. Point de Contact estime néanmoins qu’au sein d’une même catégorie d’acteurs (VLOP, autres plateformes en ligne, fournisseurs de services intermédiaires), l’application du DSA reste hétérogène, que ce soit du point de vue de la rapidité de traitement, de celle de la coopération avec le signaleur ou même de motivation des décisions finalement prises.
Violences à caractère sexuel dans tous les espaces numériques
Si les discours de haine et contenus terroristes ou négationnistes sont principalement cantonnés aux réseaux sociaux, Point de Contact constate que les violences à caractère sexuel se retrouvent dans tous les espaces numériques.
Dans cette catégorie, la diffusion non consentie d’image à caractère sexuel fait par ailleurs face à une difficulté particulière : quand bien même leur diffusion, voire leur fabrication, ne serait pas consentie par les personnes concernées, lorsque ces dernières sont adultes, les contenus sont rarement considérés comme « manifestement illicite » par les interlocuteurs de Point de Contact.
Rapport de transparence de Point de Contact / Capture d’écran
En 2024, la sociologue Elisa Garcia Mingo résumait ce problème auprès de Next en déclarant : « On manque d’une culture du consentement ». Concrètement, la sous-considération de la dangerosité de ce type de contenu entraîne des temps de traitement plus longs, alors même que la persistance de ces contenus en ligne crée des préjudices aux victimes.
En 2025, un sondage d’Ipsos pour Féministes contre le Cyberharcèlement, Point de Contact et StopFisha constatait que plus d’une victime de cyberharcèlement sur quatre avait subi la diffusion non consentie de contenus sexuels ou intimes. Seulement 12 % des victimes de cyberviolences sexistes et sexuelles interrogées déclaraient avoir porté plainte.
Quatre ans plus tôt, un autre sondage pour Féministes contre le cyberharcèlement constatait que près de la moitié des victimes de cyberharcèlement subissait des symptômes dépressifs, pas loin d’une sur cinq des idées suicidaires.
Pour les images non consenties à caractère sexuel impliquant des adultes, Point de Contact plaide donc pour la mise en place de solutions spécifiques, dont « des obligations renforcées de retrait rapide, des mesures d’atténuation des risques de rediffusion » et des « mécanismes judiciaires accessibles aux victimes, adaptés aux dynamiques propres à l’espace numérique ».
Elle suggère notamment l’introduction de « dispositifs temporaires de restriction d’accès ou de suspension conservatoire du contenu », afin de « réduire l’exposition aux contenus les plus préjudiciables tout en préservant l’équilibre entre protection des victimes, liberté d’expression et sécurité juridique des plateformes ».
Point de Contact relève par ailleurs une généralisation des cas de diffusion d’informations personnelles. En 2025, elle indique avoir dû signaler cent cas différents à des services numériques.
Dans son rapport de transparence 2025, l’association Point de Contact pointe que les obligations légales de très grandes plateformes les poussent à réagir plus vite, en moyenne, que les autres fournisseurs de services numériques. Elle souligne par ailleurs la présence de violences à caractère sexuel dans tous les espaces numériques, contrairement à d’autres types de contenus illicites.
Nommée signaleur de confiance au sens du Règlement sur les services numériques (Digital Services Act, DSA) par l’ARCOM, l’association Point de Contact publie ce 5 mars son rapport de transparence de l’année 2025.
Parmi ses principaux constats, l’association souligne qu’au-delà des très grandes plateformes numériques (VLOP) soumises à des obligations spécifiques par le DSA, la catégorie des « fournisseurs de services intermédiaires » (d’hébergement, d’accès à Internet) est aussi largement utilisée pour la diffusion de certains types de contenus illicites. En conséquence, ils ont reçu plus des trois quarts des notifications de contenus illicites émises par l’association en 2025 (en excluant une affaire spécifique impliquant de contacter OVHcloud).
En termes de contenus, l’association constate que ceux relevant de violences sexuelles (contre personnes mineures comme majeures) sont présents dans tous les types d’espaces numériques, contrairement à d’autres contenus illicites dont la circulation est plus souvent cantonnée aux réseaux sociaux. Sur ce type spécifique de contenus, elle constate une plus grande difficulté à obtenir le retrait de contenu concernant des personnes majeures, et appelle à la mise en place de mécanismes techniques et juridiques permettant de mieux protéger les victimes.
Rapport de transparence de Point de Contact / Capture d’écran
Signaleur de confiance… auprès des très grandes plateformes
En vertu de l’article 22 du DSA, les très grandes plateformes (VLOP) doivent travailler avec les signaleurs de confiance, tels que labellisés au sein de chaque État membre de l’Union européenne. En pratique, lorsque ces derniers font remonter des alertes, les plateformes doivent les traiter en priorité. Aux côtés de Point de Contact, les autres signaleurs nommés par l’Arcom sont e-enfance, l’Association de lutte contre la piraterie audiovisuelle, l’International Fund for Animal Welfare (IFAW), INDECOSA-CGT (Information et défense des consommateurs et salariés), Addictions France, le Crif et la Licra.
Sur l’année écoulée, Point de Contact indique avoir reçu 122 317 signalements, indifféremment d’internautes ou de partenaires, dont 36 % (45 086) ont été qualifiés d’illicites après analyse par quatre juristes de l’association. 65 % (29 640) de ces messages illicites ont conduit à des notifications aux services concernés, ce qui a conduit au retrait de 63% (28 800) de ces contenus. L’association précise que l’écart constaté entre le nombre de contenus signalés et retirés est le plus souvent dû au travail du réseau international INHOPE, qui a pu mener à des retraits avant notification par l’association française.
Si Point de Contact reçoit des notifications sur une variété de sujets, l’immense majorité (93 %) concerne la protection des mineurs. En termes de fournisseurs, la vaste majorité des alertes émises (89 %) ont été envoyées à OVHcloud. La raison, note Point de Contact, est que « l’un des sites hébergés par cette entreprise est ciblé par des réseaux pédocriminels qui profitent des services d’hébergement d’images fournis par ce site pour y télécharger et échanger des contenus d’exploitation sexuelle sur mineure ».
L’association invite donc à se concentrer sur les 11 % d’alertes restantes pour dessiner une image plus précise des actions des différents destinataires de notifications. 571 ont ainsi été soumises à des VLOP. Dans le lot, X fait figure de mauvais élève, dans la mesure où seulement un contenu sur deux, en moyenne, est retiré après notification.
Plus généralement, Point de Contact relève que les contenus de violences à caractère sexuel ne sont pas traités de la même manière par les VLOP et les fournisseurs de service d’hébergement. En l’occurrence, 86 % des notifications envoyées à de très grandes plateformes pour ce type de problématiques ont conduit à des retraits, quand seulement 60 % des notifications similaires auprès d’hébergeurs ont permis d’obtenir ce résultat.
Une partie de l’explication de ce déséquilibre est à chercher dans la réglementation européenne : le DSA prévoit en effet des niveaux de responsabilité différents selon la taille des services. La priorité qui doit être donnée aux signaleurs de confiance, par exemple, n’est imposée qu’aux VLOP. Point de Contact estime néanmoins qu’au sein d’une même catégorie d’acteurs (VLOP, autres plateformes en ligne, fournisseurs de services intermédiaires), l’application du DSA reste hétérogène, que ce soit du point de vue de la rapidité de traitement, de celle de la coopération avec le signaleur ou même de motivation des décisions finalement prises.
Violences à caractère sexuel dans tous les espaces numériques
Si les discours de haine et contenus terroristes ou négationnistes sont principalement cantonnés aux réseaux sociaux, Point de Contact constate que les violences à caractère sexuel se retrouvent dans tous les espaces numériques.
Dans cette catégorie, la diffusion non consentie d’image à caractère sexuel fait par ailleurs face à une difficulté particulière : quand bien même leur diffusion, voire leur fabrication, ne serait pas consentie par les personnes concernées, lorsque ces dernières sont adultes, les contenus sont rarement considérés comme « manifestement illicite » par les interlocuteurs de Point de Contact.
Rapport de transparence de Point de Contact / Capture d’écran
En 2024, la sociologue Elisa Garcia Mingo résumait ce problème auprès de Next en déclarant : « On manque d’une culture du consentement ». Concrètement, la sous-considération de la dangerosité de ce type de contenu entraîne des temps de traitement plus longs, alors même que la persistance de ces contenus en ligne crée des préjudices aux victimes.
En 2025, un sondage d’Ipsos pour Féministes contre le Cyberharcèlement, Point de Contact et StopFisha constatait que plus d’une victime de cyberharcèlement sur quatre avait subi la diffusion non consentie de contenus sexuels ou intimes. Seulement 12 % des victimes de cyberviolences sexistes et sexuelles interrogées déclaraient avoir porté plainte.
Quatre ans plus tôt, un autre sondage pour Féministes contre le cyberharcèlement constatait que près de la moitié des victimes de cyberharcèlement subissait des symptômes dépressifs, pas loin d’une sur cinq des idées suicidaires.
Pour les images non consenties à caractère sexuel impliquant des adultes, Point de Contact plaide donc pour la mise en place de solutions spécifiques, dont « des obligations renforcées de retrait rapide, des mesures d’atténuation des risques de rediffusion » et des « mécanismes judiciaires accessibles aux victimes, adaptés aux dynamiques propres à l’espace numérique ».
Elle suggère notamment l’introduction de « dispositifs temporaires de restriction d’accès ou de suspension conservatoire du contenu », afin de « réduire l’exposition aux contenus les plus préjudiciables tout en préservant l’équilibre entre protection des victimes, liberté d’expression et sécurité juridique des plateformes ».
Point de Contact relève par ailleurs une généralisation des cas de diffusion d’informations personnelles. En 2025, elle indique avoir dû signaler cent cas différents à des services numériques.
Dans la bataille pour la confidentialité des échanges privés en ligne, une voix discordante se fait entendre parmi les plateformes : TikTok a déclaré à la BBC refuser de déployer le chiffrement de bout en bout (end-to-end encryption, E2EE) sur ses communications au motif que cela mettrait ses utilisateurs en danger. Ce faisant, le réseau social renverse l’argumentaire désormais avancé par tous ses concurrents – et de nombreux défenseurs des droits numériques –, selon lesquels l’E2EE est essentiel à la protection de la vie privée en ligne.
Au fil du temps, X et les plateformes de Meta WhatsApp, Facebook, Instagram et Messenger ont déployé la fonctionnalité.
Notamment redoublée du chiffrement des métadonnées, celle-ci est aussi au cœur des arguments du service de messagerie Signal, qui se présente comme le service grand public le mieux sécurisé.
La solution technique est en revanche régulièrement critiquée par les forces de l’ordre de multiples pays comme par certains (autres) défenseurs des libertés numériques, notamment des mineurs, comme une fonctionnalité qui empêche d’enrayer la circulation de contenus dangereux en ligne.
Ceux-ci argumentent notamment que l’E2EE, en empêchant les forces de l’ordre ou les entreprises technologiques elles-mêmes d’accéder au contenu des échanges, freine la modération de contenus allant de la promotion du terrorisme à diverses formes de pédocriminalité (ce dernier sujet étant notamment l’un des motifs du controversé projet de règlement CSAR, renommé ChatControl par ses opposants).
Le cas de TikTok a ceci de spécifique que sa maison mère ByteDance est régulièrement critiquée pour ses potentiels liens avec le pouvoir chinois, ce qui créerait un risque d’exposition des données des utilisateurs et utilisatrices. Si ByteDance nie ce type de lien, les États-Unis ont obtenu que les activités locales de l’entreprise soient séparées du reste de ses activités internationales.
Auprès de la BBC, l’entreprise déclare que son positionnement est délibéré, c’est-à-dire une manière parmi d’autres de se différencier de ses concurrents.
Elle ajoute que les messages directs restent sécurisés via des systèmes de chiffrement standards, similaires à ceux présents sur un service comme Gmail.
Dans la bataille pour la confidentialité des échanges privés en ligne, une voix discordante se fait entendre parmi les plateformes : TikTok a déclaré à la BBC refuser de déployer le chiffrement de bout en bout (end-to-end encryption, E2EE) sur ses communications au motif que cela mettrait ses utilisateurs en danger. Ce faisant, le réseau social renverse l’argumentaire désormais avancé par tous ses concurrents – et de nombreux défenseurs des droits numériques –, selon lesquels l’E2EE est essentiel à la protection de la vie privée en ligne.
Au fil du temps, X et les plateformes de Meta WhatsApp, Facebook, Instagram et Messenger ont déployé la fonctionnalité.
Notamment redoublée du chiffrement des métadonnées, celle-ci est aussi au cœur des arguments du service de messagerie Signal, qui se présente comme le service grand public le mieux sécurisé.
La solution technique est en revanche régulièrement critiquée par les forces de l’ordre de multiples pays comme par certains (autres) défenseurs des libertés numériques, notamment des mineurs, comme une fonctionnalité qui empêche d’enrayer la circulation de contenus dangereux en ligne.
Ceux-ci argumentent notamment que l’E2EE, en empêchant les forces de l’ordre ou les entreprises technologiques elles-mêmes d’accéder au contenu des échanges, freine la modération de contenus allant de la promotion du terrorisme à diverses formes de pédocriminalité (ce dernier sujet étant notamment l’un des motifs du controversé projet de règlement CSAR, renommé ChatControl par ses opposants).
Le cas de TikTok a ceci de spécifique que sa maison mère ByteDance est régulièrement critiquée pour ses potentiels liens avec le pouvoir chinois, ce qui créerait un risque d’exposition des données des utilisateurs et utilisatrices. Si ByteDance nie ce type de lien, les États-Unis ont obtenu que les activités locales de l’entreprise soient séparées du reste de ses activités internationales.
Auprès de la BBC, l’entreprise déclare que son positionnement est délibéré, c’est-à-dire une manière parmi d’autres de se différencier de ses concurrents.
Elle ajoute que les messages directs restent sécurisés via des systèmes de chiffrement standards, similaires à ceux présents sur un service comme Gmail.
En temps de paix, les deepfakes pornographiques et autres contenus générés par intelligence artificielle (IA), notamment par des créateurs rémunérés, sont acceptables sur X. En « temps de guerre », en revanche, la plateforme oblige désormais ses usagers qui monétisent leurs publications à étiqueter les contenus produits grâce à de l’IA lorsque ceux-ci représentent des images de conflit armé.
C’est du moins l’image que dessine l’évolution des conditions d’utilisation du réseau social annoncée ce 3 mars (sur X) par le directeur produit Nikita Bier. « En temps de guerre, écrit ce dernier, l’accès de la population à de l’information authentique du terrain est critique. Avec les technologies d’IA actuelles, il est devenu trivial de créer du contenu qui trompe la population. »
La nouvelle politique se cantonne à un type de contenu précis : ceux représentant des conflits armés. Si des internautes décident de publier des vidéos générées par IA représentant ce type de violence, sans les étiqueter, ils risquent une suspension du programme de monétisation de 90 jours. Des violations supplémentaires de la nouvelle mesure « aboutiront à une suspension permanente du programme ».
Pour repérer les contenus en question, X s’appuiera sur les Notes de communautés et des outils d’IA génératives, « si le contenu contient des métadonnées (ou d’autres signaux) », indique Nikita Bier. Les comptes ne monétisant pas leurs publications, eux, ne sont pas concernés par la nouvelle mesure.
Formellement, les États-Unis n’ont pas déclaré la guerre à l’Iran : selon la Constitution locale, seul le Congrès en a le pouvoir.
Pour autant, les faux contenus représentant des conflits armés sont un enjeu de désinformation depuis des années. Alors que le jeu Arma 3 est sorti en 2013, des extraits en sont par exemple régulièrement détournés pour illustrer (faussement) des conflits en cours sur les réseaux sociaux. Comme pour d’autres domaines de l’espace informationnel, la facilité d’usage des outils d’IA générative crée cela dit un risque de prolifération accélérée de faux contenus.
Si X appose déjà des watermarks sur les images et vidéos générées grâce à Grok, l’entreprise n’obligeait pas ses usagers à faire connaître explicitement leur recours à l’IA jusqu’ici. D’après Social Media Today, X est actuellement en train de tester une fonctionnalité de labellisation des contenus générés par IA.
En temps de paix, les deepfakes pornographiques et autres contenus générés par intelligence artificielle (IA), notamment par des créateurs rémunérés, sont acceptables sur X. En « temps de guerre », en revanche, la plateforme oblige désormais ses usagers qui monétisent leurs publications à étiqueter les contenus produits grâce à de l’IA lorsque ceux-ci représentent des images de conflit armé.
C’est du moins l’image que dessine l’évolution des conditions d’utilisation du réseau social annoncée ce 3 mars (sur X) par le directeur produit Nikita Bier. « En temps de guerre, écrit ce dernier, l’accès de la population à de l’information authentique du terrain est critique. Avec les technologies d’IA actuelles, il est devenu trivial de créer du contenu qui trompe la population. »
La nouvelle politique se cantonne à un type de contenu précis : ceux représentant des conflits armés. Si des internautes décident de publier des vidéos générées par IA représentant ce type de violence, sans les étiqueter, ils risquent une suspension du programme de monétisation de 90 jours. Des violations supplémentaires de la nouvelle mesure « aboutiront à une suspension permanente du programme ».
Pour repérer les contenus en question, X s’appuiera sur les Notes de communautés et des outils d’IA génératives, « si le contenu contient des métadonnées (ou d’autres signaux) », indique Nikita Bier. Les comptes ne monétisant pas leurs publications, eux, ne sont pas concernés par la nouvelle mesure.
Formellement, les États-Unis n’ont pas déclaré la guerre à l’Iran : selon la Constitution locale, seul le Congrès en a le pouvoir.
Pour autant, les faux contenus représentant des conflits armés sont un enjeu de désinformation depuis des années. Alors que le jeu Arma 3 est sorti en 2013, des extraits en sont par exemple régulièrement détournés pour illustrer (faussement) des conflits en cours sur les réseaux sociaux. Comme pour d’autres domaines de l’espace informationnel, la facilité d’usage des outils d’IA générative crée cela dit un risque de prolifération accélérée de faux contenus.
Si X appose déjà des watermarks sur les images et vidéos générées grâce à Grok, l’entreprise n’obligeait pas ses usagers à faire connaître explicitement leur recours à l’IA jusqu’ici. D’après Social Media Today, X est actuellement en train de tester une fonctionnalité de labellisation des contenus générés par IA.
Claude d’Anthropic a été utilisé par l’armée des États-Unis dans son attaque de l’Iran. Alors que le CEO de l’entreprise s’y oppose depuis quelques jours, le moment révèle à la fois le nouveau palier que l’industrie de l’IA a franchi dans le déploiement de ses technologies et la tentative de maîtrise du secteur par le gouvernement des États-Unis.
Ce 28 février, 500 sites iraniens étaient visés par les forces états-uniennes dans leur opération « Epic Fury ». L’attaque s’est notamment soldée par la mort de l’ayatollah Ali Khamenei et son responsable de la sécurité Ali Shamkhani. Pour la mener à bien, l’armée a notamment utilisé le modèle Claude d’Anthropic, selon le Washington Post et Axios.
Un détail qui pourrait paraître anecdotique, à l’heure où les robots conversationnels se déploient dans toutes les sphères de la société, s’il n’avait pas été précédé par une semaine d’échanges houleux et publics entre Dario Amodei, le CEO d’Anthropic, et le Pentagone.
En cause : Anthropic n’a « jamais soulevé d’objections à l’égard d’opérations militaires », indique son patron, mais dans certains cas, notamment la surveillance de masse à l’intérieur du pays et les armes totalement autonomes, la société estime « que l’IA peut nuire aux valeurs démocratiques plutôt que les défendre ». À ce titre, l’entreprise impose des restrictions dans ses conditions d’utilisation, restrictions qui s’imposent notamment à l’un de ses gros clients publics : l’armée.
Claude utilisé depuis 2024
C’est dans ce contexte que Pete Hegseth, secrétaire d’État à la Défense (renommé ministère de la Guerre) des États-Unis, a posé un ultimatum à l’entreprise : elle avait, en date du 25 février, trois jours pour modifier ses conditions d’utilisation. Le débat, en réalité, n’a pas débuté avec l’opération « Epic Fury » – au contraire, les premiers partenariats avec Palantir, AWS, les renseignements et la Défense états-unienne ont été rendus publics dès novembre 2024.
Elle a depuis construit les modèles « Claude gov », dédiés aux agences de renseignement. Plus récemment, l’armée états-unienne a recouru à Claude pour orchestrer la capture du président du Venezuela, Nicolas Maduro, début janvier.
En parallèle, l’entreprise a fait évoluer ses conditions d’utilisations pour y intégrer l’interdiction de « développer ou concevoir des armes », en septembre 2025. Son patron, lui, continuait de se placer comme il l’a fait depuis son départ d’OpenAI pour créer Anthropic : en défenseur d’une intelligence artificielle au service de l’intérêt général et d’un développement veillant à la « sécurité de l’IA».
Sur son site web, Anthropic est ainsi décrite comme une société de recherche et de sécurité de l’IA, tandis que Dario Amodei a publiquement déclaré que ces technologies devaient rester l’apanage des démocraties (sans pour autant renoncer à d’éventuels financements venus de pays autoritaires), que les siennes resteraient sans publicité, et, donc, que certains usages de l’IA n’étaient pas avisés.
Recours aux LLM dans des systèmes d’aide aux décisions sensibles
Après l’ultimatum du 25 février, le chercheur et entrepreneur a repris ses négociations, en public comme en privé. Jusqu’au dernier moment, l’entreprise a cru pouvoir trouver un accord, rapporte the Atlantic. Et puis Donald Trump a ordonné à toutes ses administrations de cesser de recourir aux outils de la start-up. Pete Hegseth, lui, précisait qu’Anthropic fournirait encore ses services pendant « une période de six mois maximum pour assurer une transition fluide ».
Le lendemain, l’Iran était bombardé, et l’armée utilisait toujours les outils en question. D’après le Washington Post, ces derniers servent notamment à de l’évaluation et de l’identification de cibles et à simuler des scenarios de batailles.
Or, d’après le chercheur Kenneth Payne, qui a testé GPT-5.2, Claude Sonnet 4 et Gemini 3 Flash sur divers jeux de simulation de guerres, ces modèles ont bien plus rapidement tendance à formuler des propositions de recours à des armes nucléaires que ne le font classiquement les humains. Plusieurs spécialistes interviewés par New Scientist soulignent néanmoins que la mesure dans laquelle ces systèmes sont réellement déployés dans les processus militaires reste encore très incertaine.
L’un des enjeux de la séquence, relève néanmoins la directrice scientifique du AI Now Institute, Heidy Klaaf, est la levée d’un nouveau verrou dans l’utilisation de l’IA, que ce soit par les forces militaires ou par l’essentiel des constructeurs de ces technologies : celui de l’usage de grands modèles de langage dans des systèmes d’aides à la décision appuyés sur l’IA.
Que l’on requière, comme Anthropic le fait, plus ou moins de supervision humaine dans le déploiement de ce type de technologies, on se retrouve toujours avec des systèmes intégrés d’office aux outils d’aide à la décision, quand bien même leur propension aux erreurs (dites hallucinations) et aux générations totalement fallacieuses est largement établie. La tendance n’est même pas neuve : ce type d’outils a notamment été entrainé par l’armée israélienne en s’appuyant sur des heures de conversations obtenues par la surveillance de la population palestinienne.
Gouvernement des États-Unis vs « caprices idéologiques des géants de la tech »
À l’échelle des États-Unis, un autre enjeu relève de la tentative de reprise du pouvoir politique états-unien sur ses sociétés numériques. C’est du moins dans ces termes que l’a formulé Pete Hegseth, déclarant que « les soldats américains ne seront jamais pris en otage par les caprices idéologiques des géants de la tech » et menaçant de classer l’entreprise en « fournisseur à risque pour la sécurité nationale ».
Sur Truth, le président Trump dépeignait quant à lui Anthropic en entreprise « woke » et de « gauche radicale », autrement dit en opposant politique. Le 28 février, Dario Amodei a qualifié l’interdiction des outils d’Anthropic de « punitive » et indiqué qu’il la contesterait devant les tribunaux.
Trois heures après l’interdiction de ses outils dans l’administration états-unienne, son concurrent OpenAI déclarait avoir conclu son propre accord avec le ministère de la Défense. Le lendemain, son CEO Sam Altman a déclaré sur X que son entreprise appliquait néanmoins des restrictions similaires à celles d’Anthropic sur l’usage de ses technologies.
Dans le détail, l’entrepreneur indique être en discussion depuis plusieurs mois avec le ministère pour des usages « non classifiés » car les « travaux classifiés sont beaucoup plus complexes ». Anthropic, lui, avait accepté ce type de contrats. Admettant que le timing de sa signature de contrat « n’est pas beau », Sam Altman affirme que le but était de « désamorcer » la situation en proposant des outils d’IA au ministère de la Défense étasunienne.
Se positionnant en défenseur de l’industrie de l’IA comme de sa collaboration avec l’administration, Sam Altman déclare enfin la « tendance actuelle dangereuse pour Anthropic, pour une compétition saine et pour les États-Unis » et rend publique son inquiétude devant la possibilité qu’un de ses concurrents puisse être mis sur liste noire par le gouvernement.
Claude d’Anthropic a été utilisé par l’armée des États-Unis dans son attaque de l’Iran. Alors que le CEO de l’entreprise s’y oppose depuis quelques jours, le moment révèle à la fois le nouveau palier que l’industrie de l’IA a franchi dans le déploiement de ses technologies et la tentative de maîtrise du secteur par le gouvernement des États-Unis.
Ce 28 février, 500 sites iraniens étaient visés par les forces états-uniennes dans leur opération « Epic Fury ». L’attaque s’est notamment soldée par la mort de l’ayatollah Ali Khamenei et son responsable de la sécurité Ali Shamkhani. Pour la mener à bien, l’armée a notamment utilisé le modèle Claude d’Anthropic, selon le Washington Post et Axios.
Un détail qui pourrait paraître anecdotique, à l’heure où les robots conversationnels se déploient dans toutes les sphères de la société, s’il n’avait pas été précédé par une semaine d’échanges houleux et publics entre Dario Amodei, le CEO d’Anthropic, et le Pentagone.
En cause : Anthropic n’a « jamais soulevé d’objections à l’égard d’opérations militaires », indique son patron, mais dans certains cas, notamment la surveillance de masse à l’intérieur du pays et les armes totalement autonomes, la société estime « que l’IA peut nuire aux valeurs démocratiques plutôt que les défendre ». À ce titre, l’entreprise impose des restrictions dans ses conditions d’utilisation, restrictions qui s’imposent notamment à l’un de ses gros clients publics : l’armée.
Claude utilisé depuis 2024
C’est dans ce contexte que Pete Hegseth, secrétaire d’État à la Défense (renommé ministère de la Guerre) des États-Unis, a posé un ultimatum à l’entreprise : elle avait, en date du 25 février, trois jours pour modifier ses conditions d’utilisation. Le débat, en réalité, n’a pas débuté avec l’opération « Epic Fury » – au contraire, les premiers partenariats avec Palantir, AWS, les renseignements et la Défense états-unienne ont été rendus publics dès novembre 2024.
Elle a depuis construit les modèles « Claude gov », dédiés aux agences de renseignement. Plus récemment, l’armée états-unienne a recouru à Claude pour orchestrer la capture du président du Venezuela, Nicolas Maduro, début janvier.
En parallèle, l’entreprise a fait évoluer ses conditions d’utilisations pour y intégrer l’interdiction de « développer ou concevoir des armes », en septembre 2025. Son patron, lui, continuait de se placer comme il l’a fait depuis son départ d’OpenAI pour créer Anthropic : en défenseur d’une intelligence artificielle au service de l’intérêt général et d’un développement veillant à la « sécurité de l’IA».
Sur son site web, Anthropic est ainsi décrite comme une société de recherche et de sécurité de l’IA, tandis que Dario Amodei a publiquement déclaré que ces technologies devaient rester l’apanage des démocraties (sans pour autant renoncer à d’éventuels financements venus de pays autoritaires), que les siennes resteraient sans publicité, et, donc, que certains usages de l’IA n’étaient pas avisés.
Recours aux LLM dans des systèmes d’aide aux décisions sensibles
Après l’ultimatum du 25 février, le chercheur et entrepreneur a repris ses négociations, en public comme en privé. Jusqu’au dernier moment, l’entreprise a cru pouvoir trouver un accord, rapporte the Atlantic. Et puis Donald Trump a ordonné à toutes ses administrations de cesser de recourir aux outils de la start-up. Pete Hegseth, lui, précisait qu’Anthropic fournirait encore ses services pendant « une période de six mois maximum pour assurer une transition fluide ».
Le lendemain, l’Iran était bombardé, et l’armée utilisait toujours les outils en question. D’après le Washington Post, ces derniers servent notamment à de l’évaluation et de l’identification de cibles et à simuler des scenarios de batailles.
Or, d’après le chercheur Kenneth Payne, qui a testé GPT-5.2, Claude Sonnet 4 et Gemini 3 Flash sur divers jeux de simulation de guerres, ces modèles ont bien plus rapidement tendance à formuler des propositions de recours à des armes nucléaires que ne le font classiquement les humains. Plusieurs spécialistes interviewés par New Scientist soulignent néanmoins que la mesure dans laquelle ces systèmes sont réellement déployés dans les processus militaires reste encore très incertaine.
L’un des enjeux de la séquence, relève néanmoins la directrice scientifique du AI Now Institute, Heidy Klaaf, est la levée d’un nouveau verrou dans l’utilisation de l’IA, que ce soit par les forces militaires ou par l’essentiel des constructeurs de ces technologies : celui de l’usage de grands modèles de langage dans des systèmes d’aides à la décision appuyés sur l’IA.
Que l’on requière, comme Anthropic le fait, plus ou moins de supervision humaine dans le déploiement de ce type de technologies, on se retrouve toujours avec des systèmes intégrés d’office aux outils d’aide à la décision, quand bien même leur propension aux erreurs (dites hallucinations) et aux générations totalement fallacieuses est largement établie. La tendance n’est même pas neuve : ce type d’outils a notamment été entrainé par l’armée israélienne en s’appuyant sur des heures de conversations obtenues par la surveillance de la population palestinienne.
Gouvernement des États-Unis vs « caprices idéologiques des géants de la tech »
À l’échelle des États-Unis, un autre enjeu relève de la tentative de reprise du pouvoir politique états-unien sur ses sociétés numériques. C’est du moins dans ces termes que l’a formulé Pete Hegseth, déclarant que « les soldats américains ne seront jamais pris en otage par les caprices idéologiques des géants de la tech » et menaçant de classer l’entreprise en « fournisseur à risque pour la sécurité nationale ».
Sur Truth, le président Trump dépeignait quant à lui Anthropic en entreprise « woke » et de « gauche radicale », autrement dit en opposant politique. Le 28 février, Dario Amodei a qualifié l’interdiction des outils d’Anthropic de « punitive » et indiqué qu’il la contesterait devant les tribunaux.
Trois heures après l’interdiction de ses outils dans l’administration états-unienne, son concurrent OpenAI déclarait avoir conclu son propre accord avec le ministère de la Défense. Le lendemain, son CEO Sam Altman a déclaré sur X que son entreprise appliquait néanmoins des restrictions similaires à celles d’Anthropic sur l’usage de ses technologies.
Dans le détail, l’entrepreneur indique être en discussion depuis plusieurs mois avec le ministère pour des usages « non classifiés » car les « travaux classifiés sont beaucoup plus complexes ». Anthropic, lui, avait accepté ce type de contrats. Admettant que le timing de sa signature de contrat « n’est pas beau », Sam Altman affirme que le but était de « désamorcer » la situation en proposant des outils d’IA au ministère de la Défense étasunienne.
Se positionnant en défenseur de l’industrie de l’IA comme de sa collaboration avec l’administration, Sam Altman déclare enfin la « tendance actuelle dangereuse pour Anthropic, pour une compétition saine et pour les États-Unis » et rend publique son inquiétude devant la possibilité qu’un de ses concurrents puisse être mis sur liste noire par le gouvernement.
Les humains conduisent mieux que les robotaxis de Tesla. C’est du moins ce que le dernier « rapport sur la sécurité des véhicules » soumis par la société aux autorités et obtenu par Electrek suggère. Sur le seul mois de janvier, plusieurs de ses véhicules utilisés à Austin ont reculé par erreur dans des objets fixes, heurté des arbres, des poteaux, d’autres véhicules.
Parmi les accidents : une collision à 27 km/h dans un objet fixe, alors que la voiture avançait en ligne droite, une autre avec un bus alors que le véhicule était arrêté, une collision avec un camion à 6 km/h, et deux cas de recul dans un poteau et un arbre à très faible vitesse.
Site de Tesla / Capture d’écran
Alors que toutes les autres marques du marché fournissent des informations sur les accidents constatés, Tesla les enregistre sous le sceau d’« informations commerciales confidentielles », ce qui empêche d’accéder au détail.
Néanmoins, en s’appuyant sur les données relevées à Austin depuis que la société y a lancé ses robotaxis, en juin 2025, et qui permettent de relever un total de 14 accidents, Electrek calcule une moyenne d’un accident tous les 91 000 kilomètres parcourus.
Rapporté aux données publiées par l’entreprise elle-même sur sa page dédiée à vanter son système « Full Self-Driving » (sous supervision), cela suggère que les véhicules semi-autonomes se retrouvent quatre fois plus souvent dans un accident que des voitures conduites par des humains.
En effet, Tesla indique que le conducteur moyen de Tesla se retrouve dans une collision mineure tous les 368 000 km. Ramené aux distances parcourues par les robotaxis dans la région d’Austin, cela aurait dû se traduire par environ 4 accidents sur les neuf derniers mois.
L’Agence des États-Unis en charge de la sécurité routière (NHTSA) évalue de son côté que la population des États-Unis se retrouve dans un accident en moyenne une fois tous les 800 000 kilomètres. Rapporté à ce chiffre, le risque d’accident d’un robotaxi de Tesla serait huit fois plus élevé que celui des conducteurs américains.
À l’inverse, les véhicules totalement autonomes de Waymo déployés sur les routes américaines permettraient de réduire de 80 % les risques de collisions provoquant des blessures, et de 91 % ceux provoquant des blessures graves, selon la communication de l’entreprise.
Les humains conduisent mieux que les robotaxis de Tesla. C’est du moins ce que le dernier « rapport sur la sécurité des véhicules » soumis par la société aux autorités et obtenu par Electrek suggère. Sur le seul mois de janvier, plusieurs de ses véhicules utilisés à Austin ont reculé par erreur dans des objets fixes, heurté des arbres, des poteaux, d’autres véhicules.
Parmi les accidents : une collision à 27 km/h dans un objet fixe, alors que la voiture avançait en ligne droite, une autre avec un bus alors que le véhicule était arrêté, une collision avec un camion à 6 km/h, et deux cas de recul dans un poteau et un arbre à très faible vitesse.
Site de Tesla / Capture d’écran
Alors que toutes les autres marques du marché fournissent des informations sur les accidents constatés, Tesla les enregistre sous le sceau d’« informations commerciales confidentielles », ce qui empêche d’accéder au détail.
Néanmoins, en s’appuyant sur les données relevées à Austin depuis que la société y a lancé ses robotaxis, en juin 2025, et qui permettent de relever un total de 14 accidents, Electrek calcule une moyenne d’un accident tous les 91 000 kilomètres parcourus.
Rapporté aux données publiées par l’entreprise elle-même sur sa page dédiée à vanter son système « Full Self-Driving » (sous supervision), cela suggère que les véhicules semi-autonomes se retrouvent quatre fois plus souvent dans un accident que des voitures conduites par des humains.
En effet, Tesla indique que le conducteur moyen de Tesla se retrouve dans une collision mineure tous les 368 000 km. Ramené aux distances parcourues par les robotaxis dans la région d’Austin, cela aurait dû se traduire par environ 4 accidents sur les neuf derniers mois.
L’Agence des États-Unis en charge de la sécurité routière (NHTSA) évalue de son côté que la population des États-Unis se retrouve dans un accident en moyenne une fois tous les 800 000 kilomètres. Rapporté à ce chiffre, le risque d’accident d’un robotaxi de Tesla serait huit fois plus élevé que celui des conducteurs américains.
À l’inverse, les véhicules totalement autonomes de Waymo déployés sur les routes américaines permettraient de réduire de 80 % les risques de collisions provoquant des blessures, et de 91 % ceux provoquant des blessures graves, selon la communication de l’entreprise.
« Refuser de surtransposer le droit européen ; créer une procédure environnementale accélérée pour les projets installés sur des friches industrielles déjà artificialisées ; autoriser la réutilisation des études environnementales déjà réalisées afin d’éviter des redondances inutiles. »
Telles sont les requêtes de Thomas Reynaud, directeur général d’Iliad-Free, qui les formule dans une tribune publiée dans Les Échos. Le dirigeant s’indigne du temps que prend l’étude faune-flore (.pdf) à laquelle doit se soumettre tout projet industriel, et ce pendant « plusieurs mois (jusqu’à un an dans le cadre d’une étude dite "4 saisons" », selon la documentation (.pdf) de la Direction générale des Entreprises.
Concrètement, il s’agace de devoir y passer douze mois, alors que le projet de centre de données construit par OpCore (filiale à 50 % d’iliad et 50 % du fonds InfraVia) en Seine-et-Marne doit être construit sur le site de l’ancienne centrale à charbon de Montereau.
En l’espèce, Thomas Reynaud se fait l’écho à des requêtes de simplification de l’implantation de centres de données en France – promues par exemple via le soutien de l’article 15 de la loi de simplification de la vie économique, qui doit encore être votée par les parlementaires –, quoique de manière plus ciblée.
Soulignant que des centres de données sont construits très rapidement aux États-Unis ou en Chine, au prix de « non-sens écologiques », il décrit une France en train de perdre du temps « d’observation d’un sol stérile » alors même qu’elle « dispose d’un des mix électriques les plus décarbonés de la planète et des ingénieurs d’exception qui doivent faire de la France la première terre d’accueil des infrastructures d’IA en Europe et une des premières au monde ».
Et d’appeler à simplifier les procédures pour les fermes de serveurs dédiées à s’implanter sur des friches déjà artificialisées.
« Refuser de surtransposer le droit européen ; créer une procédure environnementale accélérée pour les projets installés sur des friches industrielles déjà artificialisées ; autoriser la réutilisation des études environnementales déjà réalisées afin d’éviter des redondances inutiles. »
Telles sont les requêtes de Thomas Reynaud, directeur général d’Iliad-Free, qui les formule dans une tribune publiée dans Les Échos. Le dirigeant s’indigne du temps que prend l’étude faune-flore (.pdf) à laquelle doit se soumettre tout projet industriel, et ce pendant « plusieurs mois (jusqu’à un an dans le cadre d’une étude dite "4 saisons" », selon la documentation (.pdf) de la Direction générale des Entreprises.
Concrètement, il s’agace de devoir y passer douze mois, alors que le projet de centre de données construit par OpCore (filiale à 50 % d’iliad et 50 % du fonds InfraVia) en Seine-et-Marne doit être construit sur le site de l’ancienne centrale à charbon de Montereau.
En l’espèce, Thomas Reynaud se fait l’écho à des requêtes de simplification de l’implantation de centres de données en France – promues par exemple via le soutien de l’article 15 de la loi de simplification de la vie économique, qui doit encore être votée par les parlementaires –, quoique de manière plus ciblée.
Soulignant que des centres de données sont construits très rapidement aux États-Unis ou en Chine, au prix de « non-sens écologiques », il décrit une France en train de perdre du temps « d’observation d’un sol stérile » alors même qu’elle « dispose d’un des mix électriques les plus décarbonés de la planète et des ingénieurs d’exception qui doivent faire de la France la première terre d’accueil des infrastructures d’IA en Europe et une des premières au monde ».
Et d’appeler à simplifier les procédures pour les fermes de serveurs dédiées à s’implanter sur des friches déjà artificialisées.
Sur X, un compte de soutien à Donald Trump aux apparences organiques est en réalité géré par la Maison-Blanche. Une mécanique qui vient s’ajouter à d’autres déséquilibres de la plateforme en faveur des discours conservateurs.
Son pseudo : Johnny MAGA. Suivi par plus de 300 000 personnes sur X, ce compte pro-Trump participe directement au récit porté par la Maison-Blanche.
Dans les heures qui ont suivi la mort de Renee Good, tuée par un agent de l’ICE (Immigration and Customs Enforcement, le service de l’immigration et des douanes des États-Unis), le compte Johnny MAGA était au nombre de ceux republiant des images de drapeaux enflammés, affirmant qu’ils « brûlent le drapeau américain à Minneapolis ». Régulièrement, il republie à destination de son audience des publications faites par Trump sur son réseau Truth Social, quand il ne s’attaque pas aux opposants démocrates du Président.
Administré par le responsable des comptes de la Maison Blanche
Mais s’il cultive une apparence d’indépendance, qui pourrait le faire passer pour un soutien de Donald Trump parmi d’autres, le compte de « Johnny MAGA » serait en réalité administré par un membre des équipes de la Maison Blanche, rapporte Wired.
Selon des recoupements de numéros de téléphone et la confirmation de source interne à l’administration, le compte serait même géré par un spécialiste de ce type de sujets : Garett Wade, employé comme « rapid response manager », notamment en charge du compte officiel de la Maison Blanche sur X.
Si le cas mérite une attention particulière, c’est notamment parce qu’il a été cité par plusieurs médias traditionnels comme représentant (parmi d’autres) d’opinions supposément émises naturellement par une partie de la population états-unienne. Ainsi du New York Post, de Mother Jones ou de TownHall, liste Wired.
L’absence de transparence sur les liens de ce type de compte avec la Maison Blanche est de nature à renforcer la perte de confiance du public envers son administration. Pour le spécialiste de la désinformation Samuel Wooley, il s’agit même d’un conflit d’intérêts évident, alors même que Donald Trump a su, historiquement, s’entourer de créateurs et créatrices de contenus soutenant ses idées.
Écosystème orienté
Le cas est par ailleurs détecté alors qu’une nouvelle étude publiée dans Nature démontre l’orientation politique du système algorithmique de X. Nombreux sont les représentants politiques et les journalistes (y compris français) qui recourent toujours à la plateforme, sans nécessairement noter que le flux algorithmique « For You » ou « Pour vous » leur suggère des contenus à la tonalité différente du flux chronologique « Followers » ou « Abonnés ».
Loin d’être neutre, le système automatisé de hiérarchisation de l’information promeut plus régulièrement les contenus conservateurs, ce qui pousse les usagers à s’abonner à un nombre croissant d’activistes conservateurs, dont ils continuent de suivre les activités si jamais ils changent de système pour adopter le flux chronologique.
Autrement dit, si l’on reprend l’exemple du compte de la Maison-Blanche, ses publications peuvent profiter d’une double amplification difficilement perceptible par le public : celle d’un compte géré directement par la Maison-Blanche comme celui de Johnny MAGA, sans que cela ne soit rendu évident, et celui d’un flux algorithmique orienté en faveur des thématiques et propos portés par le président des États-Unis. En France, l’Arcom vient d’ailleurs d’être saisie au motif que X s’ouvre par défaut sur l’onglet « Pour vous » plutôt que sur son fil chronologique « Abonnés », rapporte L’Informé.
La question de la transparence des partis politiques sur leur manière de diffuser des contenus en ligne n’est pas spécifique au Parti républicain, relève Wired. Le Parti démocrate s’est ainsi avéré avoir recruté plus de 90 créateurs de contenu et les avoir payés de 250 à 8 000 dollars par mois pour publier des contenus numériques en leur faveur.
Sur X, un compte de soutien à Donald Trump aux apparences organiques est en réalité géré par la Maison-Blanche. Une mécanique qui vient s’ajouter à d’autres déséquilibres de la plateforme en faveur des discours conservateurs.
Son pseudo : Johnny MAGA. Suivi par plus de 300 000 personnes sur X, ce compte pro-Trump participe directement au récit porté par la Maison-Blanche.
Dans les heures qui ont suivi la mort de Renee Good, tuée par un agent de l’ICE (Immigration and Customs Enforcement, le service de l’immigration et des douanes des États-Unis), le compte Johnny MAGA était au nombre de ceux republiant des images de drapeaux enflammés, affirmant qu’ils « brûlent le drapeau américain à Minneapolis ». Régulièrement, il republie à destination de son audience des publications faites par Trump sur son réseau Truth Social, quand il ne s’attaque pas aux opposants démocrates du Président.
Administré par le responsable des comptes de la Maison Blanche
Mais s’il cultive une apparence d’indépendance, qui pourrait le faire passer pour un soutien de Donald Trump parmi d’autres, le compte de « Johnny MAGA » serait en réalité administré par un membre des équipes de la Maison Blanche, rapporte Wired.
Selon des recoupements de numéros de téléphone et la confirmation de source interne à l’administration, le compte serait même géré par un spécialiste de ce type de sujets : Garett Wade, employé comme « rapid response manager », notamment en charge du compte officiel de la Maison Blanche sur X.
Si le cas mérite une attention particulière, c’est notamment parce qu’il a été cité par plusieurs médias traditionnels comme représentant (parmi d’autres) d’opinions supposément émises naturellement par une partie de la population états-unienne. Ainsi du New York Post, de Mother Jones ou de TownHall, liste Wired.
L’absence de transparence sur les liens de ce type de compte avec la Maison Blanche est de nature à renforcer la perte de confiance du public envers son administration. Pour le spécialiste de la désinformation Samuel Wooley, il s’agit même d’un conflit d’intérêts évident, alors même que Donald Trump a su, historiquement, s’entourer de créateurs et créatrices de contenus soutenant ses idées.
Écosystème orienté
Le cas est par ailleurs détecté alors qu’une nouvelle étude publiée dans Nature démontre l’orientation politique du système algorithmique de X. Nombreux sont les représentants politiques et les journalistes (y compris français) qui recourent toujours à la plateforme, sans nécessairement noter que le flux algorithmique « For You » ou « Pour vous » leur suggère des contenus à la tonalité différente du flux chronologique « Followers » ou « Abonnés ».
Loin d’être neutre, le système automatisé de hiérarchisation de l’information promeut plus régulièrement les contenus conservateurs, ce qui pousse les usagers à s’abonner à un nombre croissant d’activistes conservateurs, dont ils continuent de suivre les activités si jamais ils changent de système pour adopter le flux chronologique.
Autrement dit, si l’on reprend l’exemple du compte de la Maison-Blanche, ses publications peuvent profiter d’une double amplification difficilement perceptible par le public : celle d’un compte géré directement par la Maison-Blanche comme celui de Johnny MAGA, sans que cela ne soit rendu évident, et celui d’un flux algorithmique orienté en faveur des thématiques et propos portés par le président des États-Unis. En France, l’Arcom vient d’ailleurs d’être saisie au motif que X s’ouvre par défaut sur l’onglet « Pour vous » plutôt que sur son fil chronologique « Abonnés », rapporte L’Informé.
La question de la transparence des partis politiques sur leur manière de diffuser des contenus en ligne n’est pas spécifique au Parti républicain, relève Wired. Le Parti démocrate s’est ainsi avéré avoir recruté plus de 90 créateurs de contenu et les avoir payés de 250 à 8 000 dollars par mois pour publier des contenus numériques en leur faveur.
À Wissous, depuis 2019, la société CyrusOne crée un data center pour le compte d’Amazon. La manière dont le projet a été proposé, divisé en trois phases sans en informer par avance le public, suscite les contestations de la mairie comme de l’opposition.
L’installation est vaste, grise sous le ciel gris, à l’exception d’une petite extension vert foncé, du côté des habitations. Quand on en fait le tour, on se retrouve devant les multiples portes roulantes qui marquent le lieu où des camions auraient dû, initialement, venir se ranger le temps de se délester de leur chargement. Tout autour : des grillages, dédoublés par endroits. Pour l’œil non averti, le bâtiment ressemble à n’importe quel entrepôt. Pour Philippe de Fruyt et Jean-Luc Touly, qui nous en font faire la visite, il s’agit d’un centre de données mal placé.
Conseiller municipal de la ville de Wissous, le premier s’oppose au projet depuis qu’il en a appris l’existence, quelques semaines à peine avant les élections municipales de 2020. Initialement dans la majorité de la localité de 7 000 habitants, le second l’a rejoint au sein de la liste d’opposition Wissous notre ville. Depuis le QG de campagne – un garage au fond du jardin de Philippe de Fruyt, qui présente sa candidature à la mairie de Wissous pour la troisième fois –, les deux hommes reviennent sur l’histoire politique mouvementée de leur ville, et la manière dont un centre de données destiné à recevoir les serveurs du géant états-unien Amazon, s’y est retrouvé mêlé.
Parmi leur auditoire, en ce matin neigeux de janvier, trois membres de l’association Data for Good. Alors que Wissous notre ville est en contentieux avec CyrusOne depuis plusieurs années, l’association, qui souhaite « mettre le numérique au service de l’intérêt général », l’a rejointe dans sa procédure en appel. Le but, explique sa co-présidente Lou Welgryn à Next : « mettre en lumière une pratique qui se généralise dans la manière dont les data centers s’implantent en France ». Pour les plaignants, CyrusOne a en effet divisé son projet en trois phases taillées exprès sous les différents seuils de contrôle imposés par le code de l’environnement.
Diviser un projet de centre de données en étapes de construction n’a rien d’inhabituel, pointe le sociologue Clément Marquet. « Les opérateurs l’expliquent en langage économique, ils parlent de time to market : quand ils identifient un terrain, ils veulent pouvoir fournir un premier data center le plus vite possible. » Dans ces conditions, cela dit, leurs clients ne rempliront pas directement les surfaces complètes envisagées.
Au Sud-Est de la capitale, Fouju héberge par exemple l’un des cinq sites « fast tracks » identifiés par le gouvernement. Lors de la consultation publique organisée par le gestionnaire du réseau de transport d’électricité RTE et le porteur de projet Campus IA, ce dernier a ainsi détaillé comment un premier investissement de 8 milliards d’euros devrait permettre de construire les équipements mutualisés, obtenir ce premier raccordement de 700 MW (plus de 7 fois la puissance envisagée pour le projet de Wissous), et construire trois premiers centres de données.
Le nombre d’étapes qui doit permettre au projet d’atteindre son amplitude finale (annoncée à 50 milliards d’euros d’investissements et 1,4 GW de puissance) dépendra « des capacités effectivement mises à disposition et de la demande », expliquait alors le directeur de Campus IA Thibaud Desfossés.
Si la pratique a « beaucoup d’avantages pour les opérateurs », admet Clément Marquet, elle crée « un effet de déni de démocratie ». La consultation publique paraît « nécessairement favorable : elle ne permet pas de débattre, juste de prévoir les améliorations techniques qui apaiseront les riverains ». Par ailleurs, le phasage des projets empêche « d’évaluer leurs impacts environnementaux dans leur intégralité, développe Lou Welrgyn, ce qui rend beaucoup plus difficile l’information des citoyens sur ces sujets ».
Transparence en question
Dans le cas de Wissous, l’image que dessinent Philippe de Fruyt et Jean-Luc Touly est encore plus complexe. D’après la propre documentation de CyrusOne, l’entreprise américaine a obtenu en 2020 « un permis de construire, en conformité avec la loi et la réglementation françaises, permettant l’installation d’une seule salle informatique fournissant 4,5 MW de capacité IT sur 1 810 m² d’espace technique ». Dans son rapport financier du quatrième trimestre 2020, outre un bail de location de 25 ans pour un site de 5 hectares situé à Paris, CyrusOne citait justement le développement de la première phase d’un centre de données entièrement pré-loué.
Mais à la ville de Wissous, aucune information n’avait filtré sur le projet avant qu’une alerte ne parvienne à Philippe de Fruyt et que celui-ci décide de l’évoquer publiquement en amont des élections municipales de 2020. « Avant de faire de la politique, j’ai eu une carrière dans l’industrie », explique celui qui a passé l’essentiel de sa carrière chez l’équipementier automobile Valeo. « J’y ai appris que quand vous avez un bon projet, vous le faites savoir. »
Un « bon projet » pourrait par exemple désigner un centre de données construit par un acteur américain majeur à l’heure où la transformation numérique est dans toutes les bouches, continue l’homme politique. Ou encore un centre de données qui serait implanté dans la zone industrielle de Wissous, sous l’égide d’une mairie dont l’agenda politique s’articule notamment autour de la promotion des projets entrepreneuriaux. « Quand personne ne sait rien, contrebalance Philippe de Fruyt, ça sent mauvais. »
Dans les mois qui suivent les élections, la gestion municipale devient houleuse. Richard Trinquier est bientôt remplacé par Florian Gallant, qui se retrouve en position de gérer le dossier du centre de données. En 2021, « ô surprise, Cyrus One nous annonce qu’il existe un projet d’extension à 49,5 MW », exposait Jean Luc Touly dans une vidéo publiée sur Facebook en 2023. Alors qu’il raconte à nouveau l’affaire à l’association Data for Good, le wissoussien s’arrête à nouveau sur ce chiffre qui le fait visiblement rire jaune.
À ses yeux, chacune des étapes du projet de Cyrus One a en effet promis d’atteindre une puissance à peine inférieure à différents seuils de contrôle fixés par le code de l’environnement. Dès 2022, le Journal du Net révèlait pourtant qu’Amazon Web Services, la filiale cloud d’Amazon, prévoyait d’occuper 100 % de ce projet qui, à terme, devait représenter « 15 000 m2 de salles informatiques pour une puissance de 83 MW ».
Trois paliers d’installations classées pour la protection de l’environnement
Car le code de l’environnement est clair : selon la puissance envisagée, le processus de déclaration et les obligations de consultation de la population ne sont pas les mêmes.
Sous les 20 MW de puissance, les opérateurs d’installations classées pour la protection de l’environnement (ICPE) peuvent se contenter de soumettre une déclaration à l’administration avant de lancer leur projet. Entre 20 et 50 MW, le projet doit être enregistré auprès de la préfecture, qui lancera alors un audit environnemental formel, et s’accompagne d’une mise à disposition, en mairie, du dossier et d’un registre des observations du public. Au-dessus des 50 MW, en revanche, les ICPE sont soumis à des processus plus complexes d’autorisation, qui impliquent notamment des audits environnementaux et l’organisation d’une consultation publique plus poussés.
« Depuis le début, l’objectif est de ne passer que par les régimes de déclaration et d’enregistrement pour éviter d’être repérés », estime auprès de Next un haut fonctionnaire de l’autorité environnementale interrogé sur les pratiques de CyrusOne à Wissous. « Ensuite, c’est comme d’autres projets industriels, comme pour l’autoroute A69 : quand le chantier est très engagé, ça devient difficile de revenir en arrière. Le juge dira que c’est un fait acquis. Certes, ils formulent une demande d’extension, mais on ne va pas aller implanter le projet ailleurs, on va plutôt conforter ce qui existe. »
Lorsque CyrusOne présente son projet de phase 2, une augmentation qui lui permettrait de créer deux nouvelles salles informatiques, le maire refuse, dans un arrêté du 18 août 2021, le permis de construire nécessaire. « Selon notre Plan local d’urbanisme (PLU), il n’y avait pas le droit de créer d’ICPE de plus de 20 MW dans cette zone » , déclare son successeur, Cyrille Telman. Comme le document date de 2005, et que le code de l’environnement a depuis créé la possibilité d’en développer par enregistrement, « c’est-à-dire, de notre point de vue, par procédure simplifiée », CyrusOne argumente qu’elle avait malgré tout le droit de s’installer dans l’entrepôt du 1, boulevard Arago.
L’entreprise se tourne donc vers la préfecture, avec qui le maire de l’époque, Floriant Gallant, « a des rendez-vous quasiment toutes les semaines », explique Cyrille Telman. « On voit bien, à l’époque, que la puissance étatique pousse pour qu’on accepte le projet. » CyrusOne et la préfecture en appellent à la justice administrative, qui tranche en faveur de la société états-unienne.
Wissous la Ville, désormais rejoint par Data for Good, se pourvoit en appel, argumentant notamment que l’entreprise aurait dû annoncer dès le départ son projet de data center complet, ce qui l’aurait soumis au processus le plus strict de demande d’autorisation pour une ICPE. Parmi les éléments, l’association locale verse au dossier une lettre consultée par Next et adressée par les conseillers de Cyrus One à la mairie de Wissous. En date du 14 octobre 2021, ces derniers soulignent « qu’à la suite de nombreux échanges avec la mairie de Wissous, la société CyrusOne Paris s’est engagée sur le long terme auprès de son bailleur et a réalisé de très lourds investissements concernant les différentes phases du projet (52 millions d’euros pour la seule phase 1). Ces investissements ne pourront pas être amortis si les phases 2 et 3 du projet ne sont pas mises en œuvre. En outre, la commercialisation de l’ensemble du projet étant aujourd’hui achevée, les risques de pertes financières se chiffrent en centaines de millions d’euros ».
S’ils soulignent, donc, que la rentabilité ne pourra être atteinte que grâce à la complétion du centre de données entier, ils indiquent aussi, plus loin, que « chaque phase du projet, prise isolément, est conforme aux règles d’urbanisme ». « Quand on s’appuie sur la loi » et sur la manière dont Wissous avait construit son PLU, estime Cyrille Telman, « on ne comprend pas que leur projet soit possible ». Contacté, CyrusOne indique ne pas être « en mesure de donner suite à des demandes d’interview ».
Emplacement inadéquat pour récupérer la chaleur fatale
Outre ces enjeux de divisions en phase, « ce qui choque les gens, c’est l’impossibilité de récupérer la chaleur fatale » produite par le fonctionnement des serveurs, explique Philippe de Fruyt. Dans le bras de fer qui a opposé la mairie à CyrusOne, Florian Gallant a bien obtenu quelques garanties environnementales, mais sur la question de la chaleur fatale, son successeur regrette que cela ne se traduise que par « l’installation d’une vanne. Dans d’autres villes, à Marcoussis, à Nozay [deux villes où s’est implanté l’opérateur français Data4, ndlr], les opérateurs jouent le jeu et participent à l’installation de l’infrastructure » sans laquelle la mise à disposition de la chaleur supplémentaire émise par les serveurs ne pourra de toute manière pas être réutilisée par la collectivité.
Emplacement du Data Center de CyrusOne dans Wissous / Capture d’écran OpenStreeMap
Le bâtiment dans lequel s’est installé CyrusOne est par ailleurs construit très près du cœur de ville. En face de l’édifice, le long de la rue André Dolimier, s’enchaînent un terrain de pétanque, un stade, un accueil de mineurs. Alors qu’on continue vers l’est, vers la rue Louis Boussard, deux maisons apparaissent, qui semblent installées sur le même terrain que le centre de données. Un peu plus loin, la façade arrière de la crèche les P’tits Loups, déplacée début 2026, se repère entre deux habitations.
« L’emplacement est mal choisi », résume Jean-Luc Touly. De l’autre côté de l’autoroute qui sépare une mince zone, au nord-ouest, du reste de la commune de Wissous, « il y a un autre site, sous une ligne électrique de 220 kV ». S’il avait été localisé là, le centre « n’aurait pas été proche de la population, mais plus proche de la ville voisine d’Antony, qui dispose d’un réseau de chauffage urbain » pour lequel la vanne de CyrusOne aurait facilement trouvé un débouché. Pour l’association Wissous la ville, c’est là que la ferme de serveurs devrait être installée. Sur place, en revanche, il n’existe pas d’entrepôt déjà construit comme celui que Cyrus One a pu récupérer boulevard Arago. « Or, fait remarquer le maire, une réhabilitation et une création d’entrepôt, cela n’est pas soumis aux mêmes normes. »
Au niveau local, alors que les élections municipales se profilent, Philippe de Fruyt voudrait faire du data center l’un des sujets de la campagne. Cyrille Telman, lui, constate que le sujet « ne vient pas dans la bouche des gens. Quand on fait du porte-à-porte, ils nous parlent du quotidien, de la crèche, mais pas de CyrusOne. » La question, finalement, porte peut-être plus auprès d’organisations implantées au niveau national.
Ce 30 janvier, la ministre déléguée chargée de l’intelligence artificielle et du numérique Anne le Hénanff saluait ainsi l’identification de 63 sites adaptés à l’implantation de centres de données, dont plus du tiers (26) sont d’ores et déjà alloués à un porteur de projet. Au total, indiquent les services du ministère de l’Économie, la « puissance électrique recherchée atteint 28,6 GW ». Alors qu’elle quitte un Wissous enneigé, Lou Welgryn, elle, se demande : « Pourquoi est-ce qu’on a besoin d’autant de puissance de calcul ? » Et d’espérer que « l’exemple concret et local » du centre de données installé à Wissous permette d’ouvrir le débat. Rendez-vous à la date de l’audience, le 19 mars, pour continuer la discussion.
Alors que des contestations émergent autour de plusieurs projets de centres de données en France et ailleurs, des associations tentent de se saisir de ces occasions de visibilisation de l’infrastructure numérique pour ouvrir un débat sur la trajectoire technologique.
« Méga datacenter, incinérateur, c’est non ! » À Vitry-sur-Seine, dans le Val-de-Marne, le remplacement d’un dépôt pétrolier inutilisé depuis 15 ans par un centre de données fait partie des deux grands sujets que la liste Vitry Unie et populaire (divers gauche) veut mettre au cœur des débats en amont des municipales.
« Un tel centre de données, ça a une énorme emprise territoriale, ça implique énormément de consommation d’eau, d’électricité, ça crée très peu d’emplois », liste Merlin Gautier-Marchand, du collectif Pour une écologie populaire et sociale (PEPS), auprès de Next.
Ce 15 février, les collectifs de défense de l’environnement 3R, Pour une écologie populaire et sociale (PEPS) et Soulèvements de la Terre se mêlaient à Vitry Unie et populaire pour protester contre deux projets industriels perçus comme similaires.
« L’incinérateur, il va permettre de chauffer les Parisiens, mais créer de la pollution pour Vitry, continue Merlin Gautier-Marchand. Dans les deux cas, il s’agit de bâtiments qui vont servir la capitale, c’est-à-dire servir des intérêts qui n’ont rien à voir avec ceux des Vitriotes. »
La préoccupation résonne avec celle d’habitantes de Fouju, village de Seine-et-Marne où doit s’installer Campus IA, le plus gros projet français de centre de données. « On a l’impression d’être les poubelles de Paris, déclarait en novembre une riveraine,Christine Scialom. D’abord on se prend les centres d’enfouissement, ensuite les entrepôts de logistique, et maintenant les data centers. »
Elle résonne, aussi, avec des mobilisations qui s’organisent ailleurs en France, comme dans le monde. Au Chili, aux États-Unis, au Brésil, en Inde et ailleurs, portées tantôt par des collectifs locaux, tantôt par des associations nationales, de défense de l’environnement ou des droits numériques, voire par des représentants politiques, des contestations émergent autour de la création de nouveaux centres de données.
Oppositions territorialisées
Next a étudié ce phénomène en partenariat avec l’Environmental Reporting Collective (ERC), un collectif international d’enquête sur les enjeux environnementaux. Derrière ces protestations apparaissent régulièrement des questionnements sur la trajectoire générale de l’industrie technologique et de celle de l’intelligence artificielle. En France, le sujet est porté tantôt par des collectifs locaux, tantôt par des organisations nationales.
Ils s’appellent Le nuage était sous nos pieds du côté de Marseille, Data for Good à Paris, deux collectifs à l’appétence particulière pour les enjeux du numérique. À l’instar de PEPS, des Soulèvements de la Terre, d’Attac ou d’Alsace Nature, ils sont aussi issus de groupes préoccupés avant tout par les questions environnementales. Dans certains cas, comme à Vitry, des groupements politiques s’emparent aussi du sujet. Ainsi des Écologistes face aux projets de Data One à Eybens et Villefontaine (Isère) ou de La France Insoumise face à celui de Google, à Châteauroux (Indre), entre autres exemples.
Pour autant, ces combats restent « très territorialisés » estime le sociologue Irénée Regnauld, co-auteur de Technologie partout, démocratie nulle part, Plaidoyer pour que les choix technologiques deviennent l’affaire de tous (FYP, 2020). L’expansion de l’industrie de l’intelligence artificielle, et celle des centres de données qui permettent d’en faire tourner les serveurs et stocker les données, a beau être planétaire, « il faut être très proche » d’un centre en particulier, « ou très nerd », pour vraiment s’intéresser au sujet.
Du côté d’InfraNum, qui fédère des acteurs de toute la chaîne de valeur de l’infrastructure numérique, « le maillage du territoire, y compris avec des centres de données de toute petite taille » est même un but en soi, explique sa présidente Ilham Djehaïch. L’idée est d’être « proche des clients, que ceux-ci soient des collectivités, des TPE, des PME ou autre », ce qui implique d’avoir « beaucoup de bâtiments, très intégrés dans le paysage ».
Cette intégration explique certainement que dans la majorité des cas recensés par le collectif Le Nuage était sous nos pieds, la cohabitation se passe correctement. Même dans les lieux où elle est plus complexe, comme à Wissous, ville de 7 000 habitants aux prises avec un projet porté par l’américain CyrusOne, le sujet « ne vient pas dans la bouche des gens » pendant les échanges en prévision des élections municipales, explique le maire sortant Cyrille Telman. Une situation un peu différente de ce qui commence à percer aux États-Unis, où l’acceptabilité des centres de données est quelquefois qualifiée de « grand unificateur », dans la mesure où des soutiens de Donald Trump et des électeurs démocrates s’allient pour s’opposer à certains projets.
Rendre visible l’infrastructure numérique
À Marseille, cela dit, c’est précisément parce qu’« il nous semblait que l’enjeu de la territorialisation des data centers était assez peu interrogée » que le collectif Le Nuage était sous nos pieds s’est formé, explique Antoine, l’un de ses membres. La ville phocéenne a ceci de stratégique qu’elle sert de point d’arrivée à 18 câbles sous-marins et permet, au nord, de les relier aux FLAP, l’acronyme utilisé dans l’industrie pour désigner Francfort, Londres, Amsterdam et Paris.
« Le travail du collectif, c’est vraiment de rendre matérielles ces infrastructures numériques qui sont devenues des espèces d’appendices de nos vies, explique Lena, une autre membre du collectif, dans un épisode de notre podcast Entre la chaise et le clavier. Aujourd’hui, en particulier avec l’IA, ce sont des choses qui se développent énormément, mais dans la plus grande opacité pour le grand public. »
« L’idée, c’est de donner des clés aux citoyens », abonde la coprésidente de Data for Good Lou Welgryn. À défaut, la population découvre souvent les projets « quand il commence à y avoir des pelleteuses », illustre Irénée Regnauld, ce qui empêche toute possibilité de réel débat.
Loin d’être propre à la France, cette logique se retrouve par exemple en Thaïlande, où la population de la province de Chonburi, déjà en concurrence avec certains acteurs industriels pour l’accès à l’eau, a peu d’informations sur les projets de centres de données qui viendront, eux aussi, pomper dans les réserves disponibles.
Selon le décompte de nos partenaires, la région abrite déjà quatre centres de données et 11 projets ont été signés. Les agriculteurs locaux, eux, témoignent déjà des difficultés à maintenir leurs activités pendant les longs étés caniculaires.
Au Brésil, le projet de complexe de data center « AI City », dans la ville d’Eldorado do Sul, a été validé par le ministère de la mine et de l’énergie, qui prévoit une augmentation de 20 % de la demande électrique actuelle en période de pointe dans la région Sud. Interrogés par nos partenaires de l’ERC, des habitants qui découvrent le projet le qualifient de « terrible », dans la mesure où ils subissent déjà de fréquentes coupures d’électricité.
À Marseille, des élus écologistes ont demandé un moratoire sur les nouveaux bâtiments : leur réservation d’électricité freine d’autres travaux, comme celui de l’électrification des quais du port, qui permettrait de réduire la pollution émise par les ferries.
L’enjeu, pour des associations comme PEPS, est aussi de sensibiliser à ce que l’ensemble de la chaîne de production provoque. « On organise beaucoup la mobilisation autour du Congo, explique Merlin Gautier-Marchand, parce que la construction des serveurs exige beaucoup d’or et de coltan », des matériaux extraits dans des conditions dramatiques – en 2023, Amnesty International calculait qu’environ 40 000 enfants travaillaient dans les mines de Cobalt, notamment autour de la ville de Kolwezi.
La trajectoire technologique générale répond pour le moment à « des choix du capitalisme numérique, qui y a vu une manière de faire du profit », résume Antoine du Nuage était sous nos pieds, notamment en multipliant les fermes de serveurs. « Mais cela aurait pu se passer autrement, c’est pourquoi il nous semble important de faire émerger les conditions d’un débat sur notre modèle numérique. »
Alors que des contestations émergent autour de plusieurs projets de centres de données en France et ailleurs, des associations tentent de se saisir de ces occasions de visibilisation de l’infrastructure numérique pour ouvrir un débat sur la trajectoire technologique.
« Méga datacenter, incinérateur, c’est non ! » À Vitry-sur-Seine, dans le Val-de-Marne, le remplacement d’un dépôt pétrolier inutilisé depuis 15 ans par un centre de données fait partie des deux grands sujets que la liste Vitry Unie et populaire (divers gauche) veut mettre au cœur des débats en amont des municipales.
« Un tel centre de données, ça a une énorme emprise territoriale, ça implique énormément de consommation d’eau, d’électricité, ça crée très peu d’emplois », liste Merlin Gautier-Marchand, du collectif Pour une écologie populaire et sociale (PEPS), auprès de Next.
Ce 15 février, les collectifs de défense de l’environnement 3R, Pour une écologie populaire et sociale (PEPS) et Soulèvements de la Terre se mêlaient à Vitry Unie et populaire pour protester contre deux projets industriels perçus comme similaires.
« L’incinérateur, il va permettre de chauffer les Parisiens, mais créer de la pollution pour Vitry, continue Merlin Gautier-Marchand. Dans les deux cas, il s’agit de bâtiments qui vont servir la capitale, c’est-à-dire servir des intérêts qui n’ont rien à voir avec ceux des Vitriotes. »
La préoccupation résonne avec celle d’habitantes de Fouju, village de Seine-et-Marne où doit s’installer Campus IA, le plus gros projet français de centre de données. « On a l’impression d’être les poubelles de Paris, déclarait en novembre une riveraine,Christine Scialom. D’abord on se prend les centres d’enfouissement, ensuite les entrepôts de logistique, et maintenant les data centers. »
Elle résonne, aussi, avec des mobilisations qui s’organisent ailleurs en France, comme dans le monde. Au Chili, aux États-Unis, au Brésil, en Inde et ailleurs, portées tantôt par des collectifs locaux, tantôt par des associations nationales, de défense de l’environnement ou des droits numériques, voire par des représentants politiques, des contestations émergent autour de la création de nouveaux centres de données.
Oppositions territorialisées
Next a étudié ce phénomène en partenariat avec l’Environmental Reporting Collective (ERC), un collectif international d’enquête sur les enjeux environnementaux. Derrière ces protestations apparaissent régulièrement des questionnements sur la trajectoire générale de l’industrie technologique et de celle de l’intelligence artificielle. En France, le sujet est porté tantôt par des collectifs locaux, tantôt par des organisations nationales.
Ils s’appellent Le nuage était sous nos pieds du côté de Marseille, Data for Good à Paris, deux collectifs à l’appétence particulière pour les enjeux du numérique. À l’instar de PEPS, des Soulèvements de la Terre, d’Attac ou d’Alsace Nature, ils sont aussi issus de groupes préoccupés avant tout par les questions environnementales. Dans certains cas, comme à Vitry, des groupements politiques s’emparent aussi du sujet. Ainsi des Écologistes face aux projets de Data One à Eybens et Villefontaine (Isère) ou de La France Insoumise face à celui de Google, à Châteauroux (Indre), entre autres exemples.
Pour autant, ces combats restent « très territorialisés » estime le sociologue Irénée Regnauld, co-auteur de Technologie partout, démocratie nulle part, Plaidoyer pour que les choix technologiques deviennent l’affaire de tous (FYP, 2020). L’expansion de l’industrie de l’intelligence artificielle, et celle des centres de données qui permettent d’en faire tourner les serveurs et stocker les données, a beau être planétaire, « il faut être très proche » d’un centre en particulier, « ou très nerd », pour vraiment s’intéresser au sujet.
Du côté d’InfraNum, qui fédère des acteurs de toute la chaîne de valeur de l’infrastructure numérique, « le maillage du territoire, y compris avec des centres de données de toute petite taille » est même un but en soi, explique sa présidente Ilham Djehaïch. L’idée est d’être « proche des clients, que ceux-ci soient des collectivités, des TPE, des PME ou autre », ce qui implique d’avoir « beaucoup de bâtiments, très intégrés dans le paysage ».
Cette intégration explique certainement que dans la majorité des cas recensés par le collectif Le Nuage était sous nos pieds, la cohabitation se passe correctement. Même dans les lieux où elle est plus complexe, comme à Wissous, ville de 7 000 habitants aux prises avec un projet porté par l’américain CyrusOne, le sujet « ne vient pas dans la bouche des gens » pendant les échanges en prévision des élections municipales, explique le maire sortant Cyrille Telman. Une situation un peu différente de ce qui commence à percer aux États-Unis, où l’acceptabilité des centres de données est quelquefois qualifiée de « grand unificateur », dans la mesure où des soutiens de Donald Trump et des électeurs démocrates s’allient pour s’opposer à certains projets.
Rendre visible l’infrastructure numérique
À Marseille, cela dit, c’est précisément parce qu’« il nous semblait que l’enjeu de la territorialisation des data centers était assez peu interrogée » que le collectif Le Nuage était sous nos pieds s’est formé, explique Antoine, l’un de ses membres. La ville phocéenne a ceci de stratégique qu’elle sert de point d’arrivée à 18 câbles sous-marins et permet, au nord, de les relier aux FLAP, l’acronyme utilisé dans l’industrie pour désigner Francfort, Londres, Amsterdam et Paris.
« Le travail du collectif, c’est vraiment de rendre matérielles ces infrastructures numériques qui sont devenues des espèces d’appendices de nos vies, explique Lena, une autre membre du collectif, dans un épisode de notre podcast Entre la chaise et le clavier. Aujourd’hui, en particulier avec l’IA, ce sont des choses qui se développent énormément, mais dans la plus grande opacité pour le grand public. »
« L’idée, c’est de donner des clés aux citoyens », abonde la coprésidente de Data for Good Lou Welgryn. À défaut, la population découvre souvent les projets « quand il commence à y avoir des pelleteuses », illustre Irénée Regnauld, ce qui empêche toute possibilité de réel débat.
Loin d’être propre à la France, cette logique se retrouve par exemple en Thaïlande, où la population de la province de Chonburi, déjà en concurrence avec certains acteurs industriels pour l’accès à l’eau, a peu d’informations sur les projets de centres de données qui viendront, eux aussi, pomper dans les réserves disponibles.
Selon le décompte de nos partenaires, la région abrite déjà quatre centres de données et 11 projets ont été signés. Les agriculteurs locaux, eux, témoignent déjà des difficultés à maintenir leurs activités pendant les longs étés caniculaires.
Au Brésil, le projet de complexe de data center « AI City », dans la ville d’Eldorado do Sul, a été validé par le ministère de la mine et de l’énergie, qui prévoit une augmentation de 20 % de la demande électrique actuelle en période de pointe dans la région Sud. Interrogés par nos partenaires de l’ERC, des habitants qui découvrent le projet le qualifient de « terrible », dans la mesure où ils subissent déjà de fréquentes coupures d’électricité.
À Marseille, des élus écologistes ont demandé un moratoire sur les nouveaux bâtiments : leur réservation d’électricité freine d’autres travaux, comme celui de l’électrification des quais du port, qui permettrait de réduire la pollution émise par les ferries.
L’enjeu, pour des associations comme PEPS, est aussi de sensibiliser à ce que l’ensemble de la chaîne de production provoque. « On organise beaucoup la mobilisation autour du Congo, explique Merlin Gautier-Marchand, parce que la construction des serveurs exige beaucoup d’or et de coltan », des matériaux extraits dans des conditions dramatiques – en 2023, Amnesty International calculait qu’environ 40 000 enfants travaillaient dans les mines de Cobalt, notamment autour de la ville de Kolwezi.
La trajectoire technologique générale répond pour le moment à « des choix du capitalisme numérique, qui y a vu une manière de faire du profit », résume Antoine du Nuage était sous nos pieds, notamment en multipliant les fermes de serveurs. « Mais cela aurait pu se passer autrement, c’est pourquoi il nous semble important de faire émerger les conditions d’un débat sur notre modèle numérique. »