Dans un contexte d’attaques régulières contre les réglementations européennes, les États-Unis ont interdit de visa cinq Européens travaillant sur les questions de modération et de régulation des discours de haine et de la désinformation, dont l’ancien commissaire européen Thierry Breton.
Mise à jour du 24.12 à 12:41 : ajout de la déclaration de la Commission européenne.
Le ministère des Affaires étrangères (State Department) des États-Unis a interdit à cinq Européens d’entrer sur son territoire, les accusant d’avoir obligé les entreprises de la tech à censurer ou invisibiliser les points de vue de la population américaine.
Le secrétaire d’État Marco Rubio a décrit les cinq personnes visées par l’interdiction de visa en « activistes radicaux et ONG arsenalisées pour pousser la censure et sévir sur les États étrangers – en l’occurrence en visant des personnalités et des entreprises américaines ».
Un ancien commissaire européen et quatre membres de la société civile
Ancien commissaire européen au Marché intérieur, très actif sur les travaux relatifs au règlement européen sur les services numériques, Thierry Breton est concerné, aux côtés du Britannique Imran Ahmed, directeur exécutif du Center for Countering Digital Hate (CCDH), de Josephine Ballon et Anna-Lena von Hodenberg, directrices de l’ONG allemande de défense des droits numériques HateAid, et de la directrice du Global Disinformation Index (GDI) Clare Melford. Washington précise qu’aucun d’entre elles et eux n’exerce actuellement de fonctions officielles au sein des gouvernements britanniques ou européens.
Sur X, le ministre des Affaires étrangères français Jean-Noël Barrot a dénoncé« avec la plus grande fermeté » les restrictions annoncées. « Le règlement sur les services numériques (DSA) a été démocratiquement adopté en Europe pour que ce qui est illégal hors ligne le soit aussi en ligne. Il n’a absolument aucune portée extraterritoriale et ne concerne en aucun cas les États-Unis. Les peuples de l’Europe sont libres et souverains et ne sauraient se faire imposer par d’autres les règles s’appliquant à leur espace numérique. »
Ministre chargé de l’Europe, Benjamin Haddad a de son côté signifié son « soutien » aux cinq personnes sanctionnées. « Un vent de maccarthysme souffle-t-il à nouveau ? », s’interroge Thierry Breton, qui rappelle que « 90 % du Parlement européen — démocratiquement élu — et les 27 États membres à l’unanimité ont voté le DSA », et conclut : « À nos amis américains : « La censure n’est pas là où vous le pensez ». »
La Commission européenne a, elle aussi, « condamné fermement » la décision des États-Unis. « La liberté d’expression est un droit fondamental en Europe et une valeur fondamentale partagée avec les États-Unis dans l’ensemble du monde démocratique », écrit-elle dans un communiqué. Nous avons demandé des éclaircissements aux autorités américaines et restons engagés. Indiquant avoir demandé des « éclaircissements » aux autorités américaines, la commission précise : « Si nécessaire, nous réagirons rapidement et de manière décisive pour défendre notre autonomie réglementaire contre des mesures injustifiées. »
Attaques rangées contre les régulations européennes…
Depuis le début de l’année 2025, les entreprises américaines de la tech ont obtenu un soutien inégalé du pouvoir en place, en particulier sur les questions de soutien au développement de l’intelligence artificielle, des cryptoactifs, et la lutte contre les régulations étrangères, voire des États locaux. Depuis plusieurs mois, les équipes de Trump obligent ainsi les diplomates américains à construire une opposition frontale au DSA, dont l’un des objets est de minimiser la violence et la désinformation en ligne.
L’amende de 120 millions d’euros infligée à X, début décembre, a notamment été décrite par Marco Rubio comme une « attaque contre les plateformes technologiques américaines et le peuple américain par des gouvernements étrangers ». Elle résultait d’une procédure formelle ouverte deux ans plus tôt pour suspicions de violations du DSA.
… et contre toute forme de modération en ligne
Outre ces prises de parole très visibles, entamées dès le discours de J.D. Vance à Munich, en février, dans lequel le vice-président critiquait un « recul » de la liberté d’expression en Europe pour mieux soutenir le parti d’extrême-droite Alternative für Deutschland, les États-Unis travaillent par ailleurs officiellement à réduire l’accès aux visas H-1B (qui permettent de travailler sur le territoire) de toute personne travaillant sur les questions de modération.
En pratique, le mémo révélé par Reuters intime aux fonctionnaires de l’administration de vérifier les profils LinkedIn des potentiels candidats, pour mieux empêcher l’entrée sur le territoire à toute personne qui serait « responsable ou complice de censure ou de tentative de censure de l’expression aux États-Unis ». Si tous les secteurs sont théoriquement concernés, le document pousse à vérifier plus spécifiquement les activités des personnes issues des industries de la tech ou des réseaux sociaux.
Alors que les incursions de drones dans l’espace aérien de différents pays européens se multiplient, le débat sur les réponses à adopter bat son plein.
En Irlande, pays traditionnellement neutre d’un point de vue militaire, la détection de drones sur l’itinéraire de vol du président ukrainien Volodymyr Zelensky, début décembre, a attisé les inquiétudes. Dublin attribue en effet ces engins à des acteurs prorusses et, si Moscou dément être impliquée, d’anciens membres des forces spéciales irlandaises regrettent auprès de l’AFP l’absence de « système radar primaire », de « sonar » ou, encore « de détection antidrones ».
L’épisode n’est après tout qu’un élément supplémentaire dans une tendance toujours plus évidente : les drones font partie intégrante des logiques de guerre hybride, un phénomène particulièrement visible en Ukraine. D’autre part, l’Europe est soumise à des survols réguliers, dont le nombre croît nettement depuis quelques mois.
De multiples pays européens survolés courant 2025
Pendant le seul été 2025, la Lettonie, la Lituanie, le Danemark, la Norvège, la Roumanie, la Pologne, l’Estonie, l’Allemagne et la France avaient tous signalé des survols de drones sur leurs territoires, en provenance de la Russie (pour un pays limitrophe comme la Lituanie) ou qui lui étaient, régulièrement, attribués.
L’essentiel des violations des espaces aériens nationaux européens avaient alors concerné la Pologne, la Roumanie et la Lituanie, selon une cartographie de Grand Continent, et les objets « civils » observés n’étaient pas équipés du moindre explosif. Outre les drones, l’Estonie avait néanmoins dénoncé l’incursion de trois chasseurs russes dans son espace aérien au mois de septembre.
En réaction à cette activité intense dans les airs, l’Irlande devrait dépenser 19 millions d’euros dans de nouveaux systèmes antidrones. Elle aussi visée par des survols réguliers, l’Allemagne renforce ses dispositifs à un rythme inhabituellement élevé, rapporte Bloomberg.
Pour autant, les engins dont ces différents pays cherchent à se protéger ne sont pas tous pilotés par le gouvernement de Vladimir Poutine. Auprès de Bloomberg, le spécialiste du renseignement Dan Lomas alerte sur le fait qu’à trop suggérer le contraire, le risque est de « faire involontairement le jeu des Russes ».
Aéroports civils : une diversité de réactions
En France, depuis le début de l’année 2025, la gendarmerie des transports aériens (GTA) estimait en novembre à plus de 700 le nombre de signalements concernant des vols de drones, que ces derniers soient autorisés ou non. Auprès du Parisien, la GTA affirmait que la majorité des interventions (menées par elle, la gendarmerie départementale ou la police nationale) concernaient avant tout des usages de loisirs, ou des survols dus à la méconnaissance réglementaire.
Directeur général d’Air Space Drone (ASD), Alain Bascoulergue précisait au média : « on a à Roissy le même type de menace qu’à Copenhague ou à Munich ». Différence principale : les aéroports de nos voisins européens ont pris la décision d’interrompre le trafic, alors que la France joue la carte de la relative normalité : en un an, le fondateur d’ASD indique avoir repéré 5 000 drones dans un rayon de 10 km autour de l’aéroport parisien, mais cantonne l’essentiel d’entre eux dans la catégorie de la « bêtise » plutôt que celle des actes malveillants.
De fait, le débat sur la gravité des différentes incursions et sur les manières d’y réagir reste ouvert. Même en France, lorsque des engins ont été détectés aux abords de la base militaire de Mourmelon-le-Grand, les dispositifs de sécurité ont été renforcés. En 2024, le lieu avait accueilli des soldats ukrainiens pour des formations.
À Munich, à Oslo ou à Bruxelles, plusieurs aéroports civils ont préféré fermer temporairement ou détourner tout ou partie du trafic après que des drones ont été aperçus. Si ces opérations sont coûteuses – de l’ordre de 514 000 euros pour une fermeture de 30 minutes, selon une étude de l’Agence européenne de la sécurité aérienne de 2021 –, elles traduisent une évolution dans le type d’objets aperçus, un peu plus fréquemment d’aspect professionnel que les drones utilisés par le grand public.
Mais les arrêter aux abords des zones aéroportuaires commerciales n’a rien de simple : les brouilleurs électroniques risquent d’interférer aussi avec les systèmes des aéroports. Une solution physique, pas toujours simple à mettre en place, consiste aussi à les attraper dans des filets.
Depuis quelques mois enfin, l’idée d’un « mur antidrone » européen est régulièrement discutée. En pratique, il s’agirait avant tout d’investir, notamment dans des solutions technologiques, pour la mise en place d’un bouclier aérien. La solution ne convainc pas tout le monde, dont ceux qui aimeraient voir l’Europe devenir plus efficace dans la dissuasion pure et simple de ce type de désagréments.
À l’occasion de son passage à Strasbourg, Next s’est entretenu avec Fred Turner, historien et auteur de Design d’une démocratie et Politique des machines, (ré-)édités aux éditions C&F.
Pour les fêtes de fin d’année, Next vous offre cet article initialement paru le 31 octobre 2025 et réservé aux abonnés. Pour lire les prochains entretiens dès leur publication, abonnez-vous !
Historien, professeur de communication à l’université de Stanford, Fred Turner est l’auteur de l’influent Aux sources de l’utopie numérique, publié en France en 2012 chez C&F éditions, dans lequel il détaille comment les pensées issues de la contre-culture et le monde de la cybernétique se sont rencontrés au sein de la Silicon Valley. Présent en France à l’occasion de la (ré-)édition de deux autres de ses ouvrages, Design d’une démocratie et Politique des machines, le chercheur était à Strasbourg pour les rencontres Numérique en Commun(s). Next l’y a rencontré.
>> « L’une des plus grandes ironies de notre situation actuelle est que les modes de communication qui permettent aujourd’hui aux autoritaires d’exercer leur pouvoir ont d’abord été imaginés pour les vaincre », écrivez-vous dans Politique des machines. Comment ce retournement a-t-il été possible ?
Il s’est opéré sur soixante-dix ans. Au milieu des années 40, nous croyions que les médias de masse étaient la cause du fascisme, que le cinéma, la radio avaient donné à Hitler et Mussolini le pouvoir de transformer la société d’individus vers une société de masse. En pleine Deuxième Guerre mondiale, la question est donc : comment opérer notre propre propagande, comment construire un système de communication démocratique, qui ne transforme pas le peuple des États-Unis en masse.
Au fil du temps, les technologies de l’information ont semblé apporter une réponse. L’idée des cybernéticiens, c’était d’éviter les communications du haut vers le bas, de proposer une solution pour permettre à chaque citoyen de communiquer. Chacun deviendrait son propre diffuseur, un nouvel ordre pourrait apparaître de manière organique… tel était le fantasme qui a irrigué les années 1960. L’idée, c’était de créer un monde en dehors de la politique, où toutes les difficultés inhérentes au fait d’être humain, les problématiques liées au genre, au racisme, à la pauvreté, disparaîtraient avec la bonne technologie, que ce soit le LSD ou la cybernétique. Tout cela était encore parfaitement admis dans les années 1990.
Le problème de ce mode de pensée, c’est qu’il ignore un élément : quand on outrepasse les règles existantes, les institutions, la bureaucratie, ce qui apparaît pour organiser le groupe, ce n’est pas une organisation mutuelle. Ce qui remonte, ce sont toutes les normes culturelles qui avaient été tenues à distance jusque là.
Dans les communautés hippies que j’ai étudiées, l’ambiance était franchement hostile. Très souvent, des hommes charismatiques prenaient le pouvoir, les femmes se retiraient dans des rôles très conservateurs, ces communautés étaient très anti LGBT et très racistes sans le dire ouvertement. Un des participants que j’ai interviewé m’a ainsi expliqué : « C’est juste tellement plus simple de travailler avec des gens qui vous ressemblent. »
Or, cette idée de « créer des réseaux de gens comme vous » a largement imprégné les réseaux sociaux. Le rêve d’un monde ouvert, avec plein d’individus et peu d’institutions, ouvre en réalité la porte à d’autres institutions de pouvoir, capables de s’imposer dans un monde vulnérable. Quand les réseaux sociaux arrivent, ils proposent de donner corps à ce rêve cybernétique… mais le font de manière commerciale.
Le rêve des années 1960 a oublié l’existence des gouvernements, des entreprises, le fait que la technologie a ses propres impératifs… et tout cela est revenu dans les années 2000 et 2010, par l’intermédiaire d’entreprises autoritaires. Si vous étudiez la structure financière de l’entreprise, où Mark Zuckerberg a, dans les faits, tous les pouvoirs, on se croirait franchement devant un vieux leader de communauté hippie. Dans les bureaux de Facebook, le bureau de Mark Zuckerberg est dans un bloc de verre, au milieu d’un vaste plateau, si bien que tout le monde le voit, et lui voit tout le monde. L’écho avec le panoptique de Foucault est étonnant.
Pendant que tous ces événements se déroulent du côté de l’industrie numérique, l’Amérique chrétienne organise ses réseaux pour obtenir du pouvoir politique. Elle a ses propres raisons, qui n’ont rien à voir avec Internet. Mais dans les années 2010, le premier gouvernement Trump est le théâtre d’une collision entre ce monde des réseaux sociaux, très vulnérable aux leaders charismatiques, et un mouvement politique de chrétiens nationalistes très bien organisés, qui célèbrent les dirigeants charismatiques et autoritaires. Trump est un mélange de ces deux mouvements.
Les états-uniens chrétiens pensent qu’il leur parle, et ceux du numérique pensent qu’il est un génie des médias. Il s’exprime avec charisme, il a un langage parfaitement approprié aux réseaux sociaux, mais aussi franchement fasciste.
« L’IA répond à deux projets autoritaires : la propagande et la surveillance »
>> Le premier chapitre de Design d’une démocratie (initialement publié en 2013) est titré « d’où viennent tous ces fascistes ? ». C’est l’interrogation que se posaient les chercheurs des années 1930 et 1940 pour comprendre la bascule de l’Allemagne vers le nazisme. Puis-je vous poser la même question au sujet des États-Unis aujourd’hui ?
Le fascisme est un terme provocant, mais il est exact, quand on observe le recours à un passé mythique, les logiques de boucs émissaires, les normes sociales très conservatrices… Actuellement, on célèbre la modernité technologique pour nous emmener vers le passé, c’est fascinant.
Certains des fascistes actuels viennent des mêmes endroits que ceux des années 1940. On parle de groupes religieux fondamentalistes, de groupes politiques racistes du sud des États-Unis, auxquels se joint le soutien d’hommes d’affaires riches, à la tête de grands groupes industriels.
Si elle était plus petite, cette combinaison existait dans les années 1940. Mais le mélange actuel a commencé à émerger dans les années 1980, au sein de groupes politiques religieux comme la communauté baptiste. Une fois que ces groupes se sont constitués, Internet est venu verser de l’huile sur le feu de conflits préexistants.
Il me semble que le point essentiel modifié par Internet, c’est la personnification du débat. Autrefois, quand vous n’aviez que la télévision, la radio, le cinéma, l’essentiel de ce que vous voyiez était plutôt formel, on ne savait pas grand-chose de la vie des personnes qui apparaissaient à l’écran. Avec internet, nous devenons tous des diffuseurs, nous projetons notre personnalité authentique dans les espaces de discussion – du moins nous affirmons le faire –, et c’est ce qui donne à une personne comme Trump une forme d’autorité. Cet homme fait des choses horribles, illégales, corrompues, mais il le fait d’une manière perçue comme authentique.
Ce que je trouve étonnant, c’est que ce niveau de comportements problématiques soit toléré, et même interprété comme une démonstration de son pouvoir.
>> Dans quelle mesure l’apparition d’un nouveaux type de média, en l’occurrence les productions générées par IA, vient influencer cette dynamique ? Dans quelle mesure la proposition d’un réseau social comme Sora, d’OpenAI, vient-il la modifier ?
Ces nouvelles technologies répondent à deux projets autoritaires : un de propagande, et un de surveillance. Sur l’aspect de la propagande, l’IA permet d’« inonder la zone » [comme l’avait suggéré Steve Bannon à Donald Trump en 2018, ndlr], de remplir l’espace avec des mensonges. Si suffisamment de vidéos d’IA sont créées pour que vous ne puissiez plus faire confiance à vos propres yeux, cela rend d’autant plus difficile le fait d’entendre la vérité. Votre confiance dans vos gouvernements et dans vos représentants va donc se détériorer, ce qui ouvre la porte à toujours plus de dirigeants autoritaires.
Sur la surveillance, c’est vraiment inquiétant. Car c’est une chose de vérifier un passeport dans un aéroport lorsque vous arrivez dans un pays ; de collecter des informations relatives à votre taux d’imposition ; ou encore de stocker vos données de santé. Si vous mélangez ces trois éléments, ce que le gouvernement étatsunien est en train d’essayer de faire, vous donnez à un dirigeant autoritaire le pouvoir de surveiller ses ennemis.
« Certains veulent accélérer la fin du monde commun »
>> Vous avez mentionné le rôle de groupes religieux fondamentalistes dans le moment technopolitique actuel. On a vu Peter Thiel, récemment, tenir des conférences sur la potentielle survenue d’un « Antéchrist ». Pouvez-vous nous donner quelques clés pour comprendre le paysage religieux étatsunien, et la manière dont il vient s’immiscer dans l’industrie technologique et le contexte politique ?
Premier élément : la France est un pays catholique, les États-Unis sont un pays protestant. On y trouve différentes variétés de protestantisme, et les courants qui seraient perçus comme relativement normaux par des Allemands, par exemple, sont plutôt implantés au nord du pays. Le sud accueille des communautés beaucoup plus traditionalistes, voire fondamentalistes. Citons la Convention baptiste du Sud, par exemple, ou encore les églises indépendantes qui se qualifient de « christianisme sans dénomination », c’est-à-dire ni presbytérien, ni catholique, etc.
Ces deux types de courant pensent profondément qu’il est possible d’accéder à Dieu directement, à travers la Bible. Il y a la croyance que le monde physique est la traduction directe de la parole de Dieu, que Dieu a créé le monde en l’énonçant. La difficulté, c’est que cette croyance s’accompagne de l’idée selon laquelle Dieu doit revenir sur Terre pour sauver celles et ceux qui lisent le monde de cette manière très littérale, et pas tellement les autres.
Concrètement, dans la vision des chrétiens conservateurs, si le monde a été construit par Dieu, alors les catégories du monde doivent rester stables : les hommes sont des hommes, les femmes, des femmes, les gens biens sont des gens biens, les mauvais restent mauvais. C’est une vision très binaire. Dans les années 1980 et depuis, cette vision du monde est devenue un programme politique, mélangeant l’idée du retour de Dieu avec l’idée du progrès Américain.
Aujourd’hui, les nationalistes chrétiens pensent que les États-Unis ont été créés par Dieu, et que celui-ci reviendra sur son territoire élu : les États-Unis, aux côtés d’Israël. Et là, vous commencez à comprendre pourquoi le pays soutient autant Israël. Ça vient d’une idée profondément religieuse, surtout présente dans le sud du pays, mais pas seulement.
On parle vraiment d’idées qui sont si vieilles, dans la tradition étatsunienne, qu’on ne les exprime même plus. C’est l’idée que nous, Américains, sommes les nouveaux Israélites, que comme les Israélites, nous avons été exilés d’Égypte, sauf que notre Égypte, c’était l’Europe, que depuis ce nouveau territoire, nous allons être sauvés par Dieu… C’est très difficile à comprendre depuis Paris ou Strasbourg, mais c’est vraiment une idée dont beaucoup d’étatsuniens sont convaincus. Dans les années 1980, un sondage avait montré qu’au moins 35 % de la population croyaient au « ravissement », c’est-à-dire à l’enlèvement des croyants vers le paradis. Ça s’est traduit dans des livres et des films qui sont titrés « Left behind », ou ce genre de chose [voir aussi la série the Leftovers, ndlr]… Ça imprègne notre culture.
>> Si le monde est créé par la parole de Dieu, pourquoi si peu de préoccupation pour l’état de la planète ?
Pour les chrétiens fondamentalistes et conservateurs, le fait que le monde aille mal est un signe que Dieu va bientôt arriver. C’est une vision apocalyptique, nihiliste même. Certains, parmi eux, veulent même accélérer l’arrivée de la fin du monde commun.
« La fusion entre la richesse et la conviction religieuse d’être élus explique que les Américains adorent Steve Jobs ou Elon Musk »
>> Comment comprendre le mélange entre ces thèses et l’industrie technologique ?
L’industrie est dans une position très différente de celle qu’elle occupait il y a vingt ans. À l’époque, nous nous intéressions aux idées de connexion, les histoires que nous racontions dessus étaient héritées des courants psychédéliques, on parlait de laisser notre corps derrière nous, d’être libres en entrant dans le cyberespace…
Aujourd’hui, nous sommes dans une époque de l’extraction. L’intelligence artificielle, les réseaux sociaux et le reste extraient des données de nos mondes sociaux, et pour ce faire, ils extraient des ressources, de l’eau, de l’énergie, des écosystèmes naturels… Si des entreprises comme Tesla, Oracle et d’autres ont déplacé leur siège au Texas, plutôt qu’en Californie, c’est parce que le Texas a de l’espace, de l’énergie, et le climat dérégulé qui permet à l’industrie minière de fonctionner.
Au XIXᵉ siècle, les grandes industries du Texas étaient le bétail et l’esclavage. C’est un des derniers États de l’Union à avoir renoncé à l’esclavage. Au XXᵉ siècle, sa grande industrie a été le pétrole. Bref, en matière d’extraction, le Texas a une longue histoire. Dans le contexte religieux, utiliser les ressources disponibles au Texas est une obligation divine. Dieu veut que vous prospériez, donc utilisez les ressources aussi vite que possible. Aucun besoin de préserver, protéger, conserver : Dieu s’en occupe.
Dernier élément pour comprendre cette conjonction entre religion, politique et technologie : quand les premiers protestants sont arrivés d’Angleterre vers les États-Unis, ils croyaient en la prédestination. L’idée, c’est que Dieu a déjà décidé qui serait sauvé, qui ne le serait pas, mais impossible de le savoir à l’avance. Cette idée n’est jamais exprimée, mais elle est partout dans la culture américaine. Depuis le XVIIᵉ siècle, ces protestants ont commencé à se dire : comment savoir si on sera sauvé ou pas ? Si Dieu m’aime suffisamment, alors il me rendra riche sur Terre.
À la fin du XVIIIᵉ siècle, la richesse était devenue un signe que l’on serait sauvé. Cette fusion entre la richesse et le fait d’être spécial, élu, choisi par Dieu, est partout dans notre culture. C’est l’une des raisons pour lesquelles nous adorons Steve Jobs, Mark Zuckerberg ou Elon Musk. Ils semblent être déjà sauvés.
>> Peter Thiel a été élevé dans la religion, Elon Musk pas du tout… Est-ce qu’ils sont réellement impliqués dans ces courants ?
Peter Thiel est croyant, il se qualifie de chrétien orthodoxe, il a ces discours sur l’antéchrist… je le placerais quelque part dans la zone des néo-catholiques, sachant qu’il y a beaucoup de néo-catholiques dans le monde de la tech, désormais. Elon Musk, en revanche, il me semble qu’il est complètement opportuniste. Il n’est pas chrétien, c’est un néo-eugéniste à l’ancienne, il aime promouvoir les « bébés intelligents », des enfants qui, bizarrement, ne pourraient être conçus que par lui. Ça résonne vraiment beaucoup avec l’Allemagne des années 1930.
« La France a une opportunité que les États-Unis n’ont pas su saisir »
>> Comment lutter contre ces mouvements autoritaires ?
L’une des idées qu’Elon Musk, Donald Trump, Mark Zuckerberg et d’autres promeuvent, c’est celle selon laquelle le monde des réseaux sociaux privés est inévitable. Rien de tout cela n’est vrai. La production d’inévitabilité, c’est ce que font les dirigeants fascistes. Mais si vous regardez le Brésil, Bolsonaro est en prison. Si vous regardez la Pologne, qui était tombée dans l’autoritarisme, elle en est en partie revenue.
Les régimes autoritaires n’existent pas pour toujours, ils sont défaits par la résistance de masse, le refus massif d’obéir. Quand bien même les dictateurs ont l’armée pour eux, quand bien même ils tuent, si la population refuse de les suivre, si elle s’organise, si elle crée les moyens de mettre en œuvre une solidarité de long terme, les dictateurs disparaissent.
>> Que peut l’Europe en la matière ?
L’Europe est un espace démocratique imparfait, mais reste un modèle pour les États-Unis. Je suis toujours frappé par le fort sentiment civique exprimé en France. Vous savez pourquoi vous êtes Français, et c’est pour cette raison que vous formulez des demandes sur le fonctionnement démocratique. Aux États-Unis, cette idée a disparu au profit de l’individu. Il faudrait faire revenir cette notion de citoyenneté.
Plus concrètement, l’Europe reste un grand marché. Ses choix de réglementations ont un vrai impact sur les sociétés américaines. Le pouvoir militaire, dans un contexte de confrontation larvée avec la Russie, est aussi important. Aux États-Unis, l’armée est une force traditionnellement démocratique, au sens où elle a été l’un des premiers corps à mettre fin à la ségrégation, par exemple, où les militaires prêtent serment à la Constitution. Si elles gardent ce point de vue, nos armées pourraient se coordonner pour rendre le monde plus démocratique.
>> Un dernier mot ?
Nous vivons dans une ère saturée de médias et d’histoires. Rien ne donne plus de pouvoir que la capacité à contrôler le récit. En la matière, Donald Trump, c’est un drame dans lequel chaque Américain a une chance de jouer un rôle. C’est ce drame qui structure la réalité.
La démocratie, elle, je la définis comme un processus de redistribution des ressources d’une société, argent, ressources matérielles, territoires, pour avoir des effets égalitaires. Mais nous sommes en plein mouvement autoritaire.
Si la France est là où les États-Unis étaient en 2022, disons, alors elle a une opportunité que nous n’avons pas su saisir. Vous pouvez construire des réseaux de solidarité dans les gouvernements, dans la société civile, dans les mondes numériques. Vous pouvez commencer à parler du monde que vous voulez construire. De cette manière, si l’autoritarisme arrive à votre porte, vous aurez déjà une autre histoire à proposer.
MrBeast qui vend du chocolat, Squeezie du kombucha, TiboInShape des barres protéinées : en 2025, les créateurs de contenus ont multiplié les lancements de marques, détaille une enquête du Figaro, suivant la voie tracée dès 2022 par MisterV (6,4 millions d’abonnés sur YouTube) avec ses « pizzas Delamama ».
En pratique, on retrouve régulièrement leurs produits dans les rayons alimentation des supermarchés. Mais on peut en voir aussi dans les librairies ou sous forme de concept stores, si l’on pense à l’Hôtel Mahfouf et à la maison Lena Editions de Lena Situations (11 millions d’abonnés cumulés), ou encore du côté des applications mobiles, si l’on se penche sur la plateforme Lyynk dédiée à la santé mentale et lancée par Miel Abitbol (800 000 abonnés sur Instagram).
Si tous les projets ne parviennent pas à se maintenir dans le temps, un écosystème complet se structure autour de ces nouvelles activités, rapporte le quotidien, ce qui se traduit par l’éclosion de projets entièrement dédiés à l’accompagnement des influenceurs dans ces nouvelles activités.
Ainsi de la société Le Bon Moment cofondée par Kyan Khojandi (Bref) et Donatien Bozon (ancien directeur AR Studio chez Snapchat), ou de Banger Ventures, qui s’est associée à Squeezie pour le lancement de sa boisson Ciao Kombuch.
S’ils permettent des stratégies différentes de celles adoptées par les acteurs classiques de l’agroalimentaire, puisqu’ils bénéficient d’office de la visibilité que leur apportent leurs créateurs, ces nouveaux produits restent encore modestes à l’échelle des 250 milliards d’euros de chiffre d’affaires du secteur de la grande distribution.
Airbus s’apprête à publier un appel d’offres pour migrer son ERP (progiciel de gestion intégré), ses systèmes d’exécution de la production, son CRM (système de gestion de la relation client) et la gestion du cycle de vie de ses produits vers le cloud.
« J’ai besoin d’un cloud souverain car certaines informations sont extrêmement sensibles d’un point de vue national et européen », explique la vice-présidente exécutive du numérique d’Airbus Catherine Jestin à The Register. « Nous voulons garantir que ces informations restent sous contrôle européen. »
Dans ce cadre, Airbus devrait lancer début janvier un appel d’offres pour un contrat d’un montant de 50 millions d’euros sur 10 ans. La dimension européenne, qui impliquera probablement une collaboration entre divers fournisseurs de l’Union, pousse la dirigeante d’Airbus à la prudence sur sa probabilité de trouver les bons fournisseurs.
La préoccupation d’Airbus vient néanmoins rejoindre celle d’un nombre croissant d’entreprises, plus ouvertement soucieuses de souveraineté depuis le début de l’année 2025 et le retour de Donald Trump au pouvoir.
Quand bien même Microsoft, AWS et Google proposent leurs propres solutions dites « souveraines » – un terme qui désigne ici plus la localisation des données stockées, sur le territoire européen, que d’autres dimensions de la souveraineté numérique –, la capacité états-unienne à accéder aux informations des entreprises clientes reste une préoccupation.
En septembre 2025, Catherine Jestin déclarait observer « avec intérêt les solutions de type S3ns et Bleu » qui, si elles n’étaient pas encore mûres, cochaient notamment « les cases en termes d’immunité aux lois extraterritoriales et protection des données ».
Emmanuel Macron est mécontent : ce week-end, un de ses homologues africains lui a envoyé un message pour vérifier ce qu’il se passait en France. Le pays était-il en plein coup d’État ?
En cause : une vidéo générée par IA, dans laquelle une journaliste placée devant ce qui semble être l’Élysée annonce la (fausse) chute du président de la République, remplacé par un colonel.
« Douze millions de vues ! » racontait-il en début de semaine lors d’un échange avec les lecteurs de La Provence (depuis le 12 novembre, avec le public de La Dépêche du Midi, Emmanuel Macron multiplie les rencontres de citoyennes et citoyens pour échanger avec eux sur « la démocratie face aux réseaux sociaux »).
Le président indique avoir demandé à Meta, par l’intermédiaire de Pharos, de supprimer le contenu, et s’être entendu répondre que celle-ci ne contrevenait pas aux règles d’utilisation de la plateforme.
Et d’ironiser : « J’ai tendance à penser que j’ai plus de moyens de pression que qui que ce soit. » Le président a regretté de se découvrir désarmé. « Ces gens-là se moquent de nous », a-t-il lancé, en référence aux propriétaires de réseaux sociaux.
En exposant cette affaire, il a par ailleurs démultiplié la visibilité du deepfake, passé de 12 à 20 millions de vues en 24 heures à peine.
Auprès du Figaro, Meta indique avoir affiché des étiquettes pour aider les utilisateurs à repérer les contenus créés par IA.
Libération a de son côté remonté la trace de son créateur pour tomber sur un jeune Burkinabé, Rachid B., originaire de Ouagadougou. Ce dernier indique avoir supprimé la vidéo le 17 décembre (alors qu’elle avait atteint les 23 millions de vues) « pour ne pas avoir de problèmes juridiques ou des trucs comme ça ».
Dans d’autres contextes, le président de la République est lui-même usager des technologies de génération d’images relativement réalistes : il s’en était notamment servi pour faire la promotion du Sommet sur l’intelligence artificielle, en février 2025, et « lancer le débat », selon ses propres termes.
La relation d’OpenAI au travail de ses employés comme des entraîneurs de données, celle de Sam Altman à la consommation énergétique de son entreprise, la manière dont l’industrie freine la recherche scientifique en IA… Next a parlé de tous ces sujets avec la journaliste et autrice d’« Empire of AI » Karen Hao.
Pour les fêtes de fin d’année, Next vous offre cet article initialement paru le 16 juillet 2025 et réservé aux abonnés. Pour lire les prochains entretiens dès leur publication, abonnez-vous !
En 2015, une dizaine de personnalités de la Silicon Valley – parmi lesquelles l’informaticien Illya Sutskever ou les entrepreneurs Sam Altman, Greg Bockman et Elon Musk – se réunissent pour créer une nouvelle entité. Son nom ? OpenAI. Son but ? Faire avancer la recherche en intelligence artificielle. Sa spécificité, publicisée jusque dans son nom ? Être une organisation à but non lucratif, ouverte ou reposant sur les principes de l’open source, dont l’objet serait de faire progresser les connaissances communes, partagées, dans ce domaine informatique de plus en plus prisé qu’est l’intelligence artificielle.
Le projet attire tout de suite l’attention. Il est, après tout, financé par de grands noms : Altman, Brockman et Musk eux-mêmes, le cofondateur de LinkedIn Reid Hoffman, la venture capitalist et ex-collègue de Sam Altman chez Y Combinator Jessica Livingston, le financier Peter Thiel…
En quelques années, la promesse initiale évolue. En 2018, Elon Musk part avec pertes et fracas, critiquant le manque de résultats d’OpenAI et les risques de conflit d’intérêt à venir, alors que Tesla développe ses compétences en matière d’IA. De quasi-ONG de financement de la recherche en IA, OpenAI devient une société privée, de plus en plus secrète.
Fin 2023, un an à peine après que la publication du robot conversationnel ChatGPT a fasciné le grand public par ses capacités de génération de texte et d’image, nouveau coup de tonnerre. Sam Altman, à la tête du projet depuis ses débuts, est d’abord licencié de son poste de CEO par le conseil d’administration, remplacé par l’ex-directrice de la technologie Mira Murati, avant de reprendre sa place.
Aux premières loges de ces multiples rebondissements se trouve une journaliste, Karen Hao, d’abord employée par la MIT Technology Review, puis le Wall Street Journal, et actuellement freelance pour diverses publications dont le magazine états-unien The Atlantic. Première journaliste à obtenir l’accès à la start-up, Karen Hao a depuis continué d’enquêter sur ses activités et celles de l’industrie au sens large, jusqu’à publier Empire of AI, Dreams and nightmares in Sam Altman’s Open AI (Penguin Random House, non traduit), en mai 2025. Elle s’est entretenue avec Next.
« Sam Altman a réussi à créer une ferveur quasi religieuse pour la création d’une intelligence artificielle générale »
>> Vous montrez clairement que l’intelligence artificielle (IA), ou même la notion d’intelligence artificielle générale, varie beaucoup dans l’industrie, au point que ses promoteurs semblent pouvoir toujours l’adapter aux nouveaux problèmes qui les intéressent. Comment est-ce possible ?
L’idée originale de l’intelligence artificielle est de recréer l’intelligence humaine à l’aide d’ordinateurs. Mais il n’y a pas de consensus scientifique sur ce qu’est l’intelligence humaine, ce qui explique que la définition de l’IA évolue régulièrement au fil du temps. L’intelligence artificielle générale (AGI) obéit à la même logique : il ne s’agit que d’un re-positionnement, c’est une manière de se différencier des produits et services existants.
OpenAI s’inscrit dans cette grande tradition d’incapacité à définir ce que l’IA signifie vraiment. L’entreprise utilise tout de même une définition explicite : pour elle, les AGI sont des « systèmes autonomes qui surpassent les humains dans la plupart des tâches à valeur économique ». Ils la définissent donc surtout comme des machines d’automatisation du travail. Mais dans certains cas, il arrive que Microsoft et OpenAI parlent d’AGI comme de systèmes qui seraient capables de générer cent milliards de dollars ou mille milliards de dollars. Une telle définition est totalement différente de celle de la machine à automatiser le travail.
Au sein d’OpenAI, il y a aussi une blague qui circule, selon laquelle si vous demandez leur avis à 13 chercheurs, vous obtiendrez 16 définitions différentes de l’AGI. Donc oui, on manque de clarté, et je pense que l’entreprise profite parfois de ce manque de précision pour continuer à faire ce qu’elle veut.
>> Deux des définitions que vous venez d’évoquer sont néanmoins très liées à des enjeux économiques, et notamment à celle de l’automatisation du travail humain. Pourtant, sans étiquetage des données, sans entraînement humain des systèmes, il n’y aurait pas d’IA. Pourriez-vous résumer quel est le rapport de Scale AI, l’un des sous-traitants essentiels d’OpenAI en annotation de données, aux travailleurs ?
Scale AI est une plateforme qui met en relation les entreprises d’IA avec des travailleurs contractuels pour des tâches telles que l’étiquetage de données, la modération de contenu ou le renforcement à partir du feedback humain (RLHF), quand les gens envoient des requêtes aux modèles et les classent pour essayer d’orienter le type de réponse de ces technologies. Scale AI a ouvert avant l’explosion des LLM, lorsqu’il existait plus de modèles d’IA différents, sur l’idée de fournir du travail humain de haute qualité à bas coût aux entreprises d’IA.
Or, ils ont découvert quasi accidentellement que le Venezuela était un très bon endroit pour trouver ce genre de personnels. Lorsque le pays a traversé une grave crise économique, il a coché trois cases : des personnes très éduquées, une très bonne connexion internet, et des gens désespérés de trouver du travail, donc prêt à s’employer pour des salaires très bas. Cette expérience est un peu devenue leur méthode classique d’intervention, qu’ils ont réutilisée ailleurs. Quand la pandémie a frappé, Scale AI s’est tourné vers tous les pays où les économies se sont retrouvées en souffrance, et où de nombreux travailleurs très qualifiés devenaient disponibles pour des salaires bas, faute de trouver d’autres emplois.
Sur chacun de ces marchés, l’entreprise a fonctionné de la même manière : elle commence par proposer de bons salaires en échange des tâches d’entraînement, puis quand de nombreuses personnes ont pris l’habitude d’en faire leur source principale de revenu, ScaleAI se met à réduire nettement le montant des rémunérations, ou à mettre les travailleurs en concurrence pour les mêmes tâches. Ils et elles se retrouvent coincés dans des situations franchement instables, incapables de garantir s’ils vont travailler, combien ils gagneront pour leurs tâches, quelles seront leurs heures de travail, le tout sans prestations ni Sécurité sociale.
>> Dans une interview pour le média Synth, vous expliquiez que les employés d’OpenAI n’ont aucun équilibre entre travail et vie privée. Comment comprendre le rapport de cette entreprise au travail ?
Si beaucoup d’entre eux n’ont pas d’équilibre entre vie professionnelle et vie privée, c’est parce qu’Altman a réussi à créer une ferveur quasi religieuse dans la culture d’entreprise, à la fois pour l’AGI et pour la mission d’Open AI à faire en sorte que l’AGI profite à toute l’humanité. Lorsque vous pensez remplir une sorte d’objectif religieux, il est logique que vous vous y adonniez au maximum. Si vous croyez vraiment que le travail que vous effectuez chaque jour peut soit apporter l’utopie, soit empêcher l’humanité de sombrer dans la dystopie, cela crée des conditions propices au surmenage et à une association complète de votre identité à votre travail.
Cela dit, la façon dont OpenAI positionne ses produits, ou ce qu’elle fait réellement et les impacts qu’elle a sur le travail en général, cela produit surtout de l’exploitation. Tous les travailleurs qui contribuent à la production de ces technologies, partout sur la planète, sont exploités. Comme OpenAI adopte une définition économique de l’AGI, l’entreprise est naturellement encline à produire des technologies qui automatisent des emplois, ce qui est une forme d’exploitation du travail.
À mon sens, s’ils ont choisi cette définition, c’est parce que mesurer ce qui est considéré comme « un travail économiquement viable » est relativement simple. Si vous essayez de créer une AGI, il s’agit d’un objectif plutôt facile à se fixer et à suivre pour savoir si vous avez atteint votre but. C’est également un objectif très pratique si vous voulez gagner de l’argent. Si vos machines sont capables d’effectuer un « travail économiquement viable », les dirigeants paieront pour, et bien, y compris pour automatiser leurs propres travailleurs.
« L’expansion de ces entreprises risque de nous faire retourner à une ère impériale »
>> Outre les enjeux que cela pose en termes de travail, ce type d’orientation a un réel impact environnemental. Sam Altman a par exemple déclaré qu’une « fraction significative » de l’énergie produite sur Terre devrait être allouée à l’IA, quand bien même cette énergie est produite de manière très carbonée aux États-Unis. Pourquoi y a-t-il si peu de réactions sur le sujet ?
Il me semble que le grand public est encore loin d’avoir compris les enjeux que l’IA pose, aussi bien sur le travail que sur l’environnement, ou même sur la recherche en IA. Côté environnemental, en l’occurrence, les data centers ont beau être immenses, ils sont souvent relativement cachés, placés dans des lieux lointains du public, à des endroits que les médias couvrent moins… Tout cela fait que les usagers classiques de l’IA n’ont pas encore pris conscience de ses impacts sur la santé, sur la consommation d’eau, sur l’énergie.
Ils s’en rendent d’autant moins facilement compte que l’industrie pousse très clairement le discours selon lequel l’intelligence artificielle tomberait du ciel, serait un produit mystique, le résultat d’une forme de magie. Et toute cette rhétorique participe à leur logique impériale.
>> Pourquoi est-ce que la notion d’empire vous a paru nécessaire, pour décrire ces entreprises privées ?
C’était d’abord une manière de mettre en évidence l’ampleur des ambitions de ces entreprises. Elles parlent de domination mondiale, au sens propre, elles consolident de tels pouvoirs économiques et politiques qu’elles deviennent comparables à des empires… Cela permet aussi de souligner que leurs comportements, le fait de revendiquer des ressources qui ne leur appartiennent pas comme étant les leurs, celui d’exploiter d’immenses quantités de main-d’œuvre, celui de monopoliser la production de connaissances, tout cela correspond à des logiques impériales.
L’immense majorité des chercheurs en IA aujourd’hui travaillent pour ou sont financés par l’industrie, ce qui nous empêche de bien comprendre les vraies limitations de ces technologies, puisque les entreprises n’ont aucun intérêt de travailler sur ces sujets. Imaginez ce qui arriverait si la plupart des chercheurs sur le climat étaient payés par les entreprises des énergies fossiles. C’est à peu près la situation dans laquelle nous sommes aujourd’hui dans l’IA : les systèmes ont énormément de défauts, mais moins de 5 % de la recherche produite se penche sur ces problèmes.
Il y a aussi la dimension religieuse, ce récit d’opposition entre les bons et les mauvais empires, où les « bons » auraient besoin de devenir des empires pour vaincre les mauvais, car si les mauvais empires gagnent, alors l’humanité risque sa survie… Toute cette rhétorique ressemble à celle des empires du passé.
Si vous comprenez qu’il s’agit de logiques impériales, alors vous comprenez que la conclusion de l’expansion de ces entreprises est le retour aux empires, soit l’inversion de la tendance vers plus de progrès et de démocratie. En l’occurrence, les fondements de la démocratie sont en train de s’éroder. Pour moi, l’enjeu est vraiment celui-là : comprendre que le risque fondamental est celui de retourner en arrière, vers de nouveaux régimes impériaux.
« Les régulateurs doivent cesser de croire que la Silicon Valley agit pour l’intérêt général »
>> Dans Empire of AI, vous décrivez une fascination des représentants politiques pour Sam Altman et une réticence à réguler l’IA qui rappelle nettement la fascination pour Mark Zuckerberg que Sarah Wynn-Williams décrit dans Careless People (Macmillan, 2025, non traduit). Dans quelle mesure faudrait-il que cela change ?
Les régulateurs devraient apprendre du passé, cesser de croire que l’élite de la Silicon Valley agit dans l’intérêt de la population, du grand public, de la société dans son ensemble. Ils devraient réfléchir de manière très critique à la manière de s’assurer que les entreprises technologiques continuent de fournir leurs services, mais sans bâtir d’empires, car ce sont deux choses différentes.
Les gouvernants devraient réfléchir aux meilleures manières de réglementer les entreprises d’IA, non seulement en se penchant sur celles qui veulent produire des modèles d’IA, mais aussi en encadrant les données sur lesquelles ces entreprises sont autorisées à entraîner leurs modèles ; en se penchant sur l’interprétation des lois sur les droits d’auteur pour protéger le travail des artistes, des écrivains et des créateurs ; en s’intéressant à l’endroit où ces sociétés sont autorisées à construire des centres de données, à la quantité et aux sources d’énergie qu’elles ont droit d’utiliser, à la quantité d’eau douce à laquelle elles ont le droit de recourir. Il faudrait qu’ils régulent le type de protocoles de test auxquels les constructeurs d’IA doivent soumettre leurs systèmes avant de les déployer ; s’intéresser à l’impact de ces systèmes sur les enfants et sur les autres groupes vulnérables…
Très souvent, je finis par entendre que trop de réglementation pourrait faire disparaître l’innovation. C’est un discours trompeur, car en réalité, ne pas réglementer empêche l’innovation. Ces entreprises en sont arrivées à un point où elles n’ont plus aucune raison de faire quoi que ce soit pour l’intérêt public. Ce sont des entités totalement égoïstes, qui freinent clairement l’innovation.
Au cours du premier trimestre de cette année, près de 50 % des financements du capital-risque sont allés à OpenAI et Anthropic : c’est un coût d’opportunité énorme pour le reste du domaine de l’IA, mais aussi pour le reste de l’industrie technologique. Ces entreprises verrouillent une grande partie de l’innovation, ce qui réduit la capacité d’innover dans de nombreux autres domaines.
Il y a eu ces discussions autour des 100 millions de dollars de packages offerts par Meta…. À mon sens, ça illustre surtout la folie du montant des capitaux qui circulent dans cet espace. Peut-être que les régulateurs devraient commencer à plafonner les compensations que les entreprises offrent à leurs candidats.
Pour moi, cet épisode illustre à quel point ces entreprises sont dirigées par des personnes à l’ego démesuré, qui se battent les unes contre les autres pour créer leur propre version de l’IA, pour remodeler l’IA à leur image. L’une de mes plus grandes critiques à l’encontre de ces entreprises est qu’elles n’ont aucune structure de gouvernance : ce qu’elles font est purement basé sur les caprices et les décisions prises par la poignée de personnes à leur tête.
>> Comment la démocratie peut-elle se défendre face aux empires de l’IA ?
On a besoin de contestation démocratique depuis la base. Les gouvernants doivent faire leur travail, mais les gens ne peuvent pas attendre qu’ils réagissent, car ces entreprises ont été si efficaces pour capturer les gouvernements que peu de politiciens dans le monde adoptent des positions fortes pour les réglementer.
Des centaines de communautés protestent déjà contre la construction de centres de données, construits sans préoccupation de leur usage d’eau douce. Ces protestations ralentissent déjà leur développement, elles forcent l’ouverture de débats sur la question de savoir si oui ou non nous en avons besoin. D’autres personnes exercent leur droit à la vie privée pour tenter d’empêcher les entreprises d’exploiter leurs données. Des artistes se battent pour tenter d’obtenir de meilleures interprétations de la loi sur les droits d’auteur, ou bien utilisent des outils comme Nightshade, qui permet de faire en sorte que, si les sociétés d’IA utilisent leurs œuvres dans leurs données d’entrainement, alors celles-ci dégradent le modèle.
Il existe de multiples formes de protestation dans lesquelles les gens s’engagent et qui me paraissent être des formes de contestation démocratique. Nous avons autant besoin de cela que de faire en sorte que les régulateurs se réveillent.
« Nous évoluons désormais dans un espace entre la paix et la guerre », a déclaré la nouvelle directrice du MI6, Blaise Metreweli, dans son premier discours public, le 15 décembre, avant de présenter le « réseaux entremêlé de défis de sécurité » à laquelle l’agence de renseignement extérieure britannique doit faire face.
Dans cette nouvelle « ère d’incertitude », « la ligne de front est partout » a-t-elle décrit, citant les menaces hybrides et informationnelles parmi les outils déployés par une Russie « agressive, expansionniste et révisionniste ».
Photo de Luke Stackpoole sur Unsplash
Et de citer les menaces « juste en dessous du seuil de la guerre » que pose le gouvernement de Vladimir Poutine, autant par le recours à des cyberattaques sur des infrastructures que par les apparitions croissantes de drones aux alentours d’aéroports civils.
Première femme à prendre la tête du MI6, toujours sous le nom de code « C », Blaise Metreweli a autant détaillé les mouvements géopolitiques à l’œuvre – suggérant implicitement de traiter différemment la Chine de la Russie – que décrit la maîtrise des technologies comme « défi déterminant du XXIe siècle ». En la matière, l’enjeu n’est pas seulement « de savoir qui détient les technologies les plus puissantes, mais aussi de savoir qui les guide avec la plus grande sagesse ».
En l’occurrence, « le pouvoir lui-même devient plus diffus, plus imprévisible, car le contrôle de ces technologies passe des États aux entreprises, et parfois même à des individus », a décrit la cheffe des espions britanniques.
Avant sa prise de poste le 1ᵉʳ octobre 2025, à la suite de Richard Moore, Blaise Metreweli dirigeait la division Innovation et Technologie du MI6.
En diffusant des publicités à destination des pays extérieurs à la Chine, les entreprises chinoises forment l’une des principales sources de revenus publicitaires pour Meta. Alors qu’elles produisent un taux de publicités frauduleuses inégalé, la société de Mark Zuckerberg semble minimiser ses efforts de modération.
La Chine n’est pas un marché simple, pour Meta. La société de Mark Zuckerberg a beau s’être plié en quatre pour plaire aux autorités locales – y compris, accuse son ex-directrice des politiques publiques Sarah Wynn-Williams, en créant tout un système de censure –, Facebook, Instagram et consorts n’en sont pas moins interdits à la population locale depuis 2009.
Ce qui n’est pas interdit, en revanche, c’est de faire de la publicité sur ces plateformes, à destination d’un public étranger. Ce système publicitaire permet à des entreprises chinoises de toucher des millions de consommateurs à travers le globe, mais aussi de représenter 11 % du chiffre d’affaires global de Meta. Selon des documents internes obtenus par Reuters, Shein et Temu étaient les deux plus gros clients publicitaires de Meta dans le monde en 2024, devant Amazon.
Problème : près d’une publicité sur cinq promues sur Facebook, Instagram et consorts depuis la Chine constituent des violations flagrantes de ses conditions d’utilisation. 19 % de ces publicités consistent en des contenus de promotions d’arnaques, de jeux illégaux, ou encore de produits interdits.
Début novembre, une précédente enquête démontrait qu’à travers la planète, Meta réalisait près de 10 % de son chiffre d’affaires annuel, soit environ 16 milliards de dollars l’an dernier, à partir de publicités enfreignant ses propres politiques. En Europe, en revanche, l’entreprise a pris le parti d’adopter une lecture étendue du récent règlement sur la transparence et le ciblage de la publicité à caractère politique, pour y empêcher la publicité « politique, électorale et sur les sujets sociaux », privant des acteurs a priori légitimes d’un outil qu’ils utilisaient jusqu’ici régulièrement.
La Chine, principale pourvoyeuse de publicités problématiques
Rien qu’entre 2022 et 2024, les revenus publicitaires chinois ont fait plus que doubler, passant de 7,5 milliards de dollars à 18,4 milliards de dollars, pour atteindre près de 10 % du chiffre d’affaires global de Meta. En parallèle, il devenait de plus en plus évident qu’une large part de ces activités constituaient des pratiques frauduleuses.
En interne, Meta calcule que l’équivalent du quart de toutes les publicités frauduleuses diffusées dans ses systèmes viennent de Chine, selon les documents obtenus par Reuters. Un tel taux de fraude se traduit aussi en montant de revenus : au total, Meta aurait gagné près de 3 milliards de dollars en diffusant via ses systèmes publicitaires des contenus promouvant des arnaques, de la pornographie ou d’autres contenus illégaux.
Pendant la « Golden Week », des congés dont des millions de citoyens chinois profitent au mois d’octobre, le taux d’arnaques sur les plateformes de Meta décline à l’échelle mondiale.
Tentative avortée d’endiguer le phénomène
Les victimes, elles, se situent partout sur le globe, d’acheteurs taïwanais qui se retrouvent avec des compléments alimentaires inadaptés aux investisseurs d’Amérique du Nord allégés de leurs économies à la suite d’une arnaque quelconque. L’ampleur du problème est telle qu’en 2024, des équipes de la société de Mark Zuckerberg ont déclaré qu’il était nécessaire de réaliser « des investissements significatifs pour réduire ces dommages grandissants ». Pendant la seconde moitié de l’année 2024, une nouvelle équipe anti-fraude affectée spécifiquement à ce défi a réussi à réduire le total des publicités frauduleuses de 19 % à 9 % du chiffre d’affaires publicitaire total issu de Chine.
Et puis, à la fin de l’année passée, un nouveau document indiquait qu’à la suite d’un « revirement de la stratégie d’intégrité et du suivi de Zuck » (sic), l’équipe en question était « invitée à suspendre » ses activités. Auprès de Reuters, un porte-parole indique que Mark Zuckerberg n’a pas demandé la dissolution de l’équipe, mais de redoubler des efforts pour lutter contre les escroqueries « partout dans le monde ».
Dans un document de février 2025, des dirigeants de Meta écrivaient quoi qu’il en soit renoncer à chercher la « parité » entre la lutte contre la fraude publicitaire en Chine et ailleurs dans le monde. Alors que sa précédente tentative avait été proche de ramener le taux de fraude venu de Chine à une proportion similaire à celle constatée ailleurs, les efforts ont été abandonnés, au motif que le marché chinois serait spécifiquement « antagoniste ».
À la mi-2025, le phénomène avait repris une nouvelle ampleur, les publicités contrevenant aux politiques de Meta formant à nouveau 16 % des revenus de l’entreprise en Chine, pays qualifié sur certaines présentations de principal « pays exportateur d’escroqueries ».
Un réseau opaque d’intermédiaires
Pour faire vivre son activité publicitaire malgré les restrictions, Meta passe par un système spécifique à la Chine. Sur place, l’entreprise vend l’essentiel de ses publicités via 11 agences principales, qu’il qualifie dans des documents de « plus gros revendeurs » (top tier resellers).
Ces partenaires s’occupent ensuite d’animer un réseau de plus petites agences chinoises ou extérieures au pays, ou de vendre elles-mêmes des publicités. Les agences de deuxième niveau, elles, interagissent à leur tour avec une myriade de petites sociétés qui n’ont pas de lien direct avec Meta ou ses 11 plus grands partenaires. D’après ses documents internes, ce réseau complexe et opaque favorise la prolifération de publicités problématiques, promouvant des arnaques, des jeux illégaux ou des produits interdits.
Un audit de la société Propellerfish constate notamment la facilité avec laquelle un publicitaire peut se créer un compte utilisateur sur Facebook ou Instagram (un nom et une date de naissance suffisent), ou encore la multiplication de faux comptes. Le rapport souligne aussi l’éclosion d’une industrie complète de « spécialistes de l’optimisation publicitaire », dont le fonctionnement complet repose sur l’exploitation de failles dans les systèmes de vérification de Meta et sur la création et la diffusion de publicités pour des arnaques et des biens illégaux. Dans la mesure où ces contenus ne visent pas le public chinois, les autorités locales tendent à laisser faire, constate encore Propellerfish.
La modération des publicités est, elle aussi, sous-traitée aux partenaires de Meta. Dans la mesure où les entreprises ne peuvent pas atteindre normalement Facebook ou Instagram, Meta paie une commission de près de 10 % à ses 11 partenaires principaux pour que ces derniers permettent à leurs partenaires d’acheter des publicités et de les placer sur les plateformes dirigées par Mark Zuckerberg. Les publicités acquises par ces canaux profitent par ailleurs de protections spécifiques. Sur le terrain, relève Reuters, certains des grands partenaires de Meta en viennent à promouvoir explicitement leur capacité à outrepasser les contrôles de l’entreprise états-unienne.
Auprès de Reuters, un porte-parole de Meta indique que les systèmes de l’entreprise ont bloqué 46 millions de publicités soumises par ses partenaires chinois dans les 18 derniers mois, généralement avant que le public n’y soit exposé, et que cela faisait partie intégrante de ses processus habituels de modération.
Pornhub a indiqué compter parmi les victimes de l’attaque du vendeur de données analytiques Mixpanel, dont les services ont été mis à mal le 8 novembre 2025 après un phishing SMS (smishing).
D’après BleepingComputer, la plateforme pornographique a reçu un message d’extorsion dans lequel le groupe ShinyHunters affirme avoir volé 94 Go de données contenant plus de 200 millions d’historiques de recherche, de consommation et de téléchargements de vidéos par des membres Premium.
L’attaque a touché « certains utilisateurs Premium » de Pornhub, indique l’entreprise dans son alerte de sécurité, avant de préciser : « Il est important de noter qu’il ne s’agit pas d’une faille du système de gestion des usagers Premium de Pornhub. Les mots de passe, détails de paiements et informations financières restent en sécurité et n’ont pas été exposés. »
La plateforme précise avoir cessé de travailler avec Mixpanel depuis 2021, et que la fuite concerne des données analytiques historiques remontant à 2021 ou plus tôt.
BleepingComputer indique de son côté que les données comprennent des adresses mails de membres, des éléments de géolocalisation, le type d’activité, les URL et titres de vidéos, les mots clés associés à ces éléments, et l’heure des visionnages ou téléchargements.
Auprès du média, MixPanel indique : « Nous n’avons trouvé aucune indication selon laquelle ces données seraient issues du vol de Mixpanel lors de notre incident de sécurité de novembre 2025 ou à un autre moment. »
Pour le service d’analyse de données, si des informations de Pornhub « sont entre les mains d’un acteur non autorisé », cela ne serait pas le résultat de ses propres déboires. Parmi les acteurs concernés par son attaque par smishing, MixPanel cite OpenAI et CoinTracker.
ShinyHunters est à l’origine de nombreuses attaques ces dernières années, contre Ticketmaster, Stellantis et d’autres. En janvier 2024, un hacker français a été condamné à trois ans de prison aux États-Unis pour avoir participé à ses activités.
Le service de vigilance et de protection contre les ingérences numériques étrangères Viginum et l’Institut national de recherche en sciences et technologies du numérique Inria s’associent pour créer un prix distinguant chaque année des « travaux scientifiques européens de haut niveau » dans les « sciences du numérique appliquées à la lutte contre les manipulations de l’information (LMI) ».
Doté de 5 000 euros pour le prix du jury, 2 000 euros pour le prix de l’innovation et 1 000 euros pour le prix du jeune chercheur, le prix Viginum-Inria valorise des articles de scientifiques de l’Union européenne, publiés ou acceptés depuis moins de trois ans dans une revue ou une conférence scientifique nationale ou internationale.
Les travaux doivent contribuer à l’amélioration de la détection, de l’analyse ou de la lutte contre les ingérences numériques étrangères, et peuvent relever d’une variété de disciplines (sciences des données, intelligence artificielle, sciences sociales computationnelles, traitement du signal, algorithmique et modélisation des réseaux).
L’appel à candidatures a ouvert ce 15 décembre et court jusqu’au samedi 14 février 2026 à minuit.
En déployant sur Kindle deux fonctionnalités appuyées sur de l’IA générative, Amazon ouvre de nouveaux débats sur les effets de ces technologies sur les œuvres littéraires, alors que la gestion de l’entreprise des textes générés par IA est déjà critiquée.
De nouvelles fonctionnalités alimentées à l’intelligence artificielle sur Kindle ! Le 10 décembre, au milieu d’autres annonces, Amazon indiquait ajouter à sa gamme de liseuses une fonctionnalité pour rattraper votre retard sur ce qui a déjà été lu, et une autre dédiée à surligner certains passages et obtenir des réponses sur le récit, « sans divulgâchage ».
Respectivement nommées « Story So Far » (l’histoire jusqu’ici) et « Ask this Book » (Demandez à ce livre), ces outils seront rendus disponibles d’ici la fin de l’année aux États-Unis sur l’application iOS de Kindle, puis début 2026 sur tous les appareils et les applications adaptées à Android. L’évolution soulève de nouvelles questions sur les droits des autrices et auteurs, alors que la gestion des outils et applications d’intelligence artificielle génératives par la plateforme de Jeff Bezos sont déjà critiqués par de multiples autrices et auteurs.
Un chatbot obligatoire dans les ouvrages de langue anglaise
Avec l’« assistant de lecture » Ask this Book, Amazon propose dans les faits un robot conversationnel intégré aux livres lus. Interrogé sur la possibilité, pour les écrivains qui le souhaiteraient, de retirer leurs œuvres de celles permettant de recourir à la fonctionnalité Ask this Book, un porte-parole d’Amazon a répondu au média spécialisé Publishers Lunch : « Pour garantir la cohérence de l’expérience de lecture, cette fonctionnalité est toujours activée et les auteurs ou éditeurs n’ont pas la possibilité de désactiver certains titres ».
Auprès du média, divers éditeurs et agents littéraires indiquent n’avoir pas été informés du déploiement de la fonctionnalité par Amazon, et avancent le besoin de réaliser des audits « légaux et techniques » pour comprendre les implications du déploiement de ces outils sur des œuvres soumises aux droits d’auteur.
Le lancement de fonctionnalités présentées uniquement d’un point de vue technique, malgré leurs potentielles retombées en termes de droits d’auteur, a déjà eu lieu, rappelle Writer Beware. En 2009, pour le Kindle 2, l’entreprise déployait par exemple une fonctionnalité de lecture automatique, qu’un représentant de la société décrivait en ces termes : « Ce ne sont pas des audiobooks. Le text to speech n’est qu’un logiciel qui fonctionne sur les équipements et lit du contenu. » À l’époque, les critiques des ayants-droits avaient été telles qu’Amazon avait finalement accepté de rendre l’outil optionnel.
La gestion de l’IA générative par Amazon, un enjeu à part entière
Au fil des trois dernières années, plus particulièrement, l’intelligence artificielle générative a créé tout un jeu de nouvelles questions. À l’échelle de l’industrie, il y a celle du droit des auteurs et autrices dont les œuvres ont été utilisées pour entraîner les modèles eux-mêmes, bataille autour de laquelle une soixantaine de plaintes ont été déposées rien qu’aux États-Unis, et au moins une dizaine d’autres en Europe.
Vis-à-vis d’Amazon, en revanche, les débats liés à l’IA se jouent plutôt du côté de certaines fonctionnalités : sur la plateforme d’auto-édition du géant de l’e-commerce, Kindle Direct Publishing (KDP), l’entreprise a publié en novembre un outil de traduction automatique, Kindle Translate. Celui-ci est présenté comme la fonctionnalité qui permettra aux autrices et auteurs de langue anglaise de toucher un public hispanophone ou germanophone, et inversement. Une pierre de plus dans le jardin des professionnels de la traduction, dont les métiers sont particulièrement touchés par l’apparition des outils d’IA générative.
Surtout, l’essentiel des frictions se concentrait jusqu’ici sur le fonctionnement de sa place de marché et sur la manière dont les œuvres atteignent leur public. Dès le lancement d’outils d’IA générative facilement utilisables par le grand public, le nombre de livres écrits grâce à, voire entièrement par IA a explosé. Dans certains cas, ils sont venus peupler de nouvelles niches de publication, comme celle des livres sur l’utilisation de ChatGPT entièrement écrits par ChatGPT.
Dans d’autres, en revanche, le nom de vraies écrivaines, dont celui de Sam Blake, nom de plume de Vanessa Fox O’Loughlin, s’est retrouvé accolé à celui de productions que celle-ci qualifie de « Sam Fakes », de « faible qualité » et générés par IA. Présidente du syndicat états-unien Society of Authors (SoA), cette dernière appelle Amazon à améliorer ses protections contre les « contrefaçons », alors que ces « faux » livres ont été commercialisés grâce à son nom. Depuis, les faux livres de Sam Blake ont vu le nom de leur autrice modifié, mais Amazon ne les a pas supprimés de sa plateforme, selon The Bookseller.
En 2023, une autre autrice, Jane Friedman, avait dû se battre pour obtenir d’Amazon le retrait d’ouvrages qui n’avaient pas été écrits par elle. Près de trois ans après ces premières alertes, la plateforme de vente de livres reste décrite comme remplie d’ouvrages d’ « AI slop », c’est-à-dire de « bouillie d’IA », susceptibles de tromper les consommateurs, tout en privant autrices et auteurs d’une partie des revenus qui auraient pu leur échoir sans cette concurrence automatisée.
Sur les sujets les plus sensibles, notamment ceux liés à divers troubles comme ceux de l’attention, des auteurs en appellent à la responsabilité éthique de l’entreprise à ne pas permettre à des contenus de désinformation de rester en ligne. Mais le modèle d’affaires de l’entreprise est tel qu’elle tire profit de chaque vente, indépendamment du contenu concerné, ce qui lui donne peu d’intérêt à agir concrètement.
Utiliser l’IA pour créer des contenus à la chaîne et obtenir de l’argent de géants numériques, voilà une dynamique que nous couvrons régulièrement chez Next, en particulier du côté de Google. Sur TikTok, dans une dynamique similaire, des internautes s’appuient sur des images et vidéos d’illustrations et des voix-off générées par IA pour créer de faux contenus d’actualité.
Le but : faire le buzz, monétiser les clips, et ainsi obtenir des rémunérations.
Maxime, 19 ans, qui vient de se lancer dans ce type d’activité, a de son côté récupéré l’accès au programme de monétisation et 60 euros après le buzz d’un deepfake de la dirigeante italienne Georgia Meloni, en novembre.
Ce type de vidéos contrevient normalement aux règles du « Creator Rewards Program », qui permet aux comptes de plus de 10 000 abonnés, cumulant 100 000 vues sur les 30 derniers jours et aux vidéos de plus d’une minute d’être monétisées.
À l’AFP, TikTok assure d’ailleurs prendre des mesures « contre la désinformation ».
Mais du côté du public, les contenus présentant de faux faits divers ou évoquant de faux couvre-feux pour les mineurs après 23 h attirent énormément de commentaires, partages et réactions, autant d’indicateurs qui permettent de faire grimper les potentielles rémunérations.
Fin novembre, au Canada, le gouvernement de Terre-Neuve-et-Labrador a dû demander à Deloitte de reprendre son travail après y avoir trouvé des citations erronées.
Pour 1,6 million de dollars canadiens (près d’1 million d’euros), d’après le média The Independent, la société de consultants avait rendu un rapport de 526 pages proposant un plan de dotation pour le secteur de la santé de la province canadienne.
Dans au moins deux cas, les noms de chercheurs réels ont été mentionnés alors que ces derniers n’étaient pas les auteurs des articles fictifs cités. Parmi eux, Martha McLeod, professeure émérite à l’Université du nord de la Colombie-Britannique, a déclaré ses citations « fausses » et « potentiellement générées par IA ».
Le but du rapport incluant lesdites citations est de proposer une série de mesures relatives aux soins à distance, aux incitations financières, de rétention et au recrutement de personnel de santé, ou encore aux répercussions de la pandémie de Covid-19 sur le personnel de santé.
Deloitte a reconnu la présence de citations erronées, tout en indiquant que l’intelligence artificielle n’avait « pas été utilisée pour la rédaction du rapport », mais simplement utilisée « de manière sélective pour étayer certaines citations de recherche ».
Moins de deux mois avant cette affaire, Deloitte reconnaissait avoir rendu un rapport partiellement généré par IA au gouvernement australien et s’engageait à rembourser une partie des 439 000 dollars australiens (245 500 euros) déboursés pour obtenir cet audit du système informatique dédié à automatiser les sanctions dans le système social local.
Dans son bilan prévisionnel annuel, RTE se fait l’avocat de l’accélération de l’électrification des usages pour assurer un meilleur équilibre entre consommation et production d’électricité.
Il faut accélérer l’électrification de la société française. C’est le constat principal que dresse RTE, le réseau public de transport d’électricité, dans son bilan prévisionnel 2025 – 2035.
Parmi ses missions, le gestionnaire doit anticiper l’équilibre entre l’offre et la demande d’électricité. Dans cet exercice annuel, RTE s’était penché en 2023 sur les stratégies permettant d’atteindre la neutralité carbone en 2050, scénarios qui permettraient d’obtenir des « bénéfices stratégiques et climatiques considérables », à commencer par une moindre dépendance aux sources d’énergie fossile et la réduction des pollutions associées à leur usage.
En cette fin 2025, RTE constate que la consommation électrique est « demeurée atone » depuis la pandémie de Covid-19 (elle reste inférieure de 6 % à son niveau de 2019), quand la production d’énergies renouvelables (hydraulique comprise) et nucléaire ont progressé. Le gestionnaire actualise donc ses prévisions, tout en détaillant les enjeux posés par l’actuelle surcapacité électrique de la France.
Si cette dernière n’est pas neuve – « dès la seconde partie des années 1980, la production d’électricité française est devenue structurellement excédentaire par rapport à la consommation » –, l’épisode de surcapacité actuel pourrait devenir préoccupant, notamment pour le poids qu’il créerait sur les dépenses publiques. Étudiant divers scénarios de décarbonation, RTE plaide pour une accélération de l’électrification des usages et pour la concrétisation de la majorité des projets industriels prévus, notamment dans l’industrie des centres de données.
La stratégie de décarbonation de la France est autant un enjeu climatique que géostratégique, rappelle le document. À l’heure actuelle, l’import d’énergies fossiles (pétrole, gaz et charbon) constitue toujours près de 60 % de l’énergie finale consommée en France. Elles pèsent pour 50 à 70 milliards d’euros dans les factures nationales annuelles. Du côté de l’électricité, la France a battu son record historique d’exportations avec 89 TWh en 2024.
Pour répondre à ces enjeux, RTE a développé ses capacités de production électrique en rétablissant les capacités nucléaires à la suite de la pandémie, mais aussi en accélérant celles de production d’énergies renouvelables. Et de souligner : vu l’état du réseau comme de la production, « les risques de conflits d’usage entre filières à électrifier sont écartés ». À court terme, le problème réside plutôt dans la relative stabilité de la consommation électrique.
RTE se penche donc sur deux scénarios : un de décarbonation rapide, qui conduirait à une augmentation toute aussi rapide de la consommation électrique, pour parvenir à 510 térawattheures (TWh) en 2030 et 580 TWh en 2035. Un autre, de « décarbonation lente », prévoit tout de même une augmentation de la consommation électrique, mais de 25 TWh seulement par rapport à la consommation actuelle, pour n’atteindre que 470 TWh en 2030 et 505 TWh en 2035. En 2024, la consommation française (corrigée des aléas météorologiques) était de 449 TWh, en hausse de 3 TWh (+ 0,7 %) sur un an.
En pratique, RTE appelle à la concrétisation, d’ici 2030, de 60 % des projets prévus en termes de production d’hydrogène, de développement de centres de données et d’autres projets industriels, ce qui permettrait d’augmenter leur consommation à 15 TWh par an pour le premier secteur, 15 TWh par an pour le deuxième (contre 5 TWh aujourd’hui) et 113 TWh par an pour les derniers.
Comme les deux derniers consomment de l’électricité mais ne réduisent pas pour autant les émissions de CO₂ (tandis que l’hydrogène produit électriquement remplacerait, lui, l’hydrogène produit par extraction chimique de combustibles fossiles), cette évolution ne peut se faire sans une évolution des usages d’énergie fossile, notamment du côté des transports. En la matière, RTE appelle à une augmentation de 17 TWh de la consommation électrique associée aux voitures électriques (contre 15 TWh en 2024), ce qui reviendrait à atteindre 8 millions de véhicules d’ici 2030 (contre 2 millions l’an dernier).
Un tel scénario permettrait de résorber la surcapacité tout en mettant la France sur la voie de ses objectifs de décarbonation. Autrement dit, répète le gestionnaire public au fil de son rapport, la situation actuelle est « très avantageuse pour décarboner rapidement ».
Les coûts de la décarbonation lente
Le gestionnaire constate néanmoins que « la consommation d’électricité n’est pas, pour le moment, alignée sur les objectifs de décarbonation et de réindustrialisation de la France ». Il l’explique de deux manières : par la sous-estimation des progrès effectivement réalisés, le seul passage à des éclairages LED ayant par exemple permis de réduire la consommation électrique de 10 TWh entre 2010 et 2020, et par les effets non anticipés des crises sanitaires et énergétiques, depuis lesquelles la consommation électrique stagne.
Or, « si la hausse de la consommation ne peut être considérée comme un but en soi », seule une « augmentation nette de la consommation d’électricité nationale » permettra la décarbonation du pays, insiste RTE. Dans un scénario de décarbonation lente (dans lequel seulement 15 % des projets liés à l’hydrogène, 10 % des projets industriels et 30 % des projets de datacenters seraient concrétisés), comme nous ne savons pas stocker massivement l’électricité excédentaire, il faudrait limiter la production.
Côté nucléaire, RTE esquisse la possibilité de réduire la production du parc nucléaire de l’ordre de 50 TWh, « pour absence de débouché économique ». L’export vers d’autres nations européennes ne représente qu’une faible possibilité, puisque nos voisins subissent des trop-pleins similaires, en particulier du côté des énergies solaires et éoliennes. En la matière, RTE préconise de limiter la production de renouvelable, en particulier en milieu de journée, dans les moments les plus ensoleillés. Elle prévoit pouvoir économiser 30 gigawatts (GW) de cette manière.
Le gestionnaire public alerte néanmoins sur le fait qu’une telle réduction aurait un coût. Elle entraînerait « une forte érosion des revenus des producteurs sur les marchés, de l’ordre de - 20 Md€/an », réduction qui serait « partiellement compensée par les dispositifs de soutien public », mais qui créerait donc une « hausse des charges budgétaires associées ».
Elle s’inquiète aussi des effets de logiques de « stop and go » sur les filières industrielles, susceptibles de « brider les efforts des filières renouvelables pour relocaliser une partie de leur industrie manufacturière en France et en Europe ». À moyen terme, une telle logique pourrait par ailleurs mettre en péril la possibilité de maintenir ou d’accélérer l’électrification en 2035.
Plus de 230 organisations de défense de l’environnement appellent le Congrès des États-Unis à prendre un moratoire sur le développement de nouveaux centres de données dans le pays.
« Alimentée par l’intelligence artificielle générative (IA) et le boom des cryptos », l’expansion du secteur est présentée dans la lettre ouverte de ces entités comme « l’une des plus grandes menaces environnementales et sociales de notre génération. »
Greenpeace, les Amis de la Terre, Food & Water Watch et des dizaines de groupes locaux se sont réunis pour demander à leurs parlementaires de mettre une pause au développement de ces entrepôts, dont les besoins en énergie et en eau « aggravent les impacts significatifs et préoccupants de l’IA sur la société, notamment les pertes d’emplois, l’instabilité sociale et la concentration économique ».
Au total, plus de 230 organisations signent la lettre ouverte, dont l’appel au « moratoire » fait écho à celui demandé à plusieurs reprises par l’industrie de l’IA elle-même, cette fois au motif qu’une potentielle « superintelligence » risquait d’émerger.
Freins aux Accords de Paris et enjeux de santé publique
L’appel au moratoire se fait dans un contexte dans lequel l’industrie des centres de données, tirée par celle de l’intelligence artificielle, est aussi accusée d’empêcher d’atteindre les objectifs climatiques fixés par l’Accord de Paris. En France, le Shift Project considérait par exemple en octobre que les autorités nationales comme européennes « manquaient d’anticipation » des risques posés par la filière.
Si les États-Unis se sont retirés à nouveau des accords de Paris dès le retour de Donald Trump à la tête du pays, cela n’empêche pas que l’industrie des data centers soit régulièrement décrite comme participant à accroître la détérioration de l’environnement. La multiplication de centres de données refroidis à l’eau, notamment dans des zones subissant déjà des stress hydriques, comme la Californie, fait par exemple régulièrement débat.
Mais les préoccupations varient selon les lieux d’implantation. À Memphis, les générateurs du supercalculateur de xAI sont par exemple accusés d’aggraver la pollution de l’air déjà subie dans les quartiers les plus pauvres, majoritairement habités par des populations noires, de la ville. Dans le comté de Morrow, dans l’Oregon, la multiplication d’hyperscalers d’Amazon est accusée d’amplifier la pollution de l’eau aux nitrates et nitrites déjà provoquée par l’implantation de grands acteurs agricoles et agroalimentaires.
Début 2025, des chercheurs des universités UC Riverside et Caltech estimaient que le coût global de la filière sur la santé publique états-unienne s’élevait à 5,4 milliards de dollars sur les cinq années précédentes.
De l’énergie fossile (et chère) avant tout
L’enjeu est tel que des personnalités politiques de bords opposés se sont emparées du sujet, relève the Guardian, comme Bernie Sanders à gauche et Marjorie Taylor Greene à l’extrême droite. Dans la mesure où Donald Trump nie la réalité de la crise climatique et qualifie les énergies propres d’ « arnaques » (parmi les décrets pris lors de son retour au pouvoir, l’un visait explicitement à « revigorer la belle industrie américaine du charbon propre »), ces derniers pointent plus spécifiquement les effets de l’IA sur le coût de la vie, notamment par l’intermédiaire de l’accès à l’énergie.
Les besoins du secteur des centres de données sont tels, rappellent en effet les signataires de la lettre ouverte au Congrès, que leurs impacts sur les factures d’électricité de la population se font déjà sentir. À Columbus, dans l’Ohio, la facture moyenne a ainsi augmenté de 27 dollars, tandis qu’à Philadelphie, en Pennsylvanie, elle a grimpé de 17 dollars.
Aux États-Unis, plus de la moitié de l’électricité est par ailleurs créée par la consommation d’énergie fossile : en 2023, le gaz naturel représentait plus de 43 % de l’électricité créée, le charbon plus de 16 %, et différents dérivés de pétrole plus de 0,4 %. Les sources renouvelables fournissaient 21,4 % de l’énergie disponible, et le nucléaire, 18,6 %, d’après l’agence étatique de l’information sur l’énergie.
Alors qu’Hollywood s’inquiète des effets du rachat de Warner Bros. par Netflix sur l’industrie cinématographique, Paramount dévoile ce 8 décembre une contre-offre.
Ç’aurait pu être Paramount. Ce vendredi, Netflix a finalement remporté la vente aux enchères de Warner Bros., devançant les offres concurrentes de Comcast et du géant Paramount, racheté il y a quatre mois à peine par Skydance grâce aux financements du patron d’Oracle, Larry Ellison.
Ç’aurait pu être Paramount, réuni sous la férule de David Ellison, fils de son père, et a priori soutenu par Donald Trump. À moins, suggère le Los Angeles Times, que ce lien avec le président des États-Unis n’ait directement desservi Paramount. À moins aussi que la famille Ellison n’ait sous-estimé ses concurrents, en proposant trois offres successives (dont la première à 19 dollars l’action) à des montants chaque fois rejetés comme trop faibles par le conseil de direction de Warner.
Ce sera peut-être Paramount ? Ce 8 décembre, la société, fusionnée il y a quatre mois à peine avec Skydance, formule une contre-offre à 30 dollars l’action pour reprendre l’intégralité de Warner Bros. Discovery.
L’industrie du cinéma aux aguets
À Hollywood, on s’inquiète des répercussions des rachats de Paramount par Skydance et de celui à venir, avec Warner Bros., sur le nombre de films et de séries produits, donc sur le nombre d’emplois disponibles. Si certains se félicitent que ce soit Netflix, plutôt que n’importe quelle autre entreprise de la tech moins implantée dans l’industrie cinématographique, d’autres passent en « mode panique totale », à en croire Vanity Fair.
« Le rachat par la plus grande entreprise mondiale de streaming de l’un de ses principaux concurrents est précisément ce que les lois anti-monopoles visent à empêcher », écrit la Writers Guild of America, qui appelle à son blocage pur et simple. « Cela entraînerait des suppressions d’emplois, une baisse des salaires, une détérioration des conditions de travail pour tous les professionnels du divertissement, une augmentation des prix pour les consommateurs et une réduction du volume et de la diversité des contenus proposés à tous les téléspectateurs. » Les syndicats n’ont pas tous adopté une position aussi tranchée, quoiqu’ils soulignent tous leurs interrogations sur les effets de l’opération « sur le futur de l’industrie du divertissement », comme l’écrit le SAG-AFTRA, qui représente les acteurs.
Après tout, le modèle de Netflix est largement indépendant de celui du circuit classique des salles de cinéma. Certes, l’entreprise y a diffusé 30 titres en 2025 avant de les proposer sur sa plateforme – comme l’a rappelé son co-PDG Ted Sarandos lors d’un échange avec les investisseurs, le 5 décembre – mais elle l’a fait sur des durées plus courtes que le reste du milieu.
« Tout ce qui doit sortir en salle via Warner Bros. continuera à sortir en salle via Warner Bros. », a-t-il encore déclaré. Le dirigeant a tout de même laissé entendre qu’à long terme, les « fenêtres d’exploitation évolueront », pour rendre les films plus rapidement disponibles en streaming. Et de profiter de l’appel pour décrire cet accord comme « pro-consommateur, pro-innovation, pro-travailleurs, pro-créateurs et pro-croissance ». Pour certains commentateurs, une telle opération, si elle est menée à son terme par Netflix, ne serait qu’un clou de plus dans le cercueil de l’industrie des salles de cinéma.
Un nouveau monopole ?
Le rachat de Warner Bros., qui doit être acté à la fin du troisième trimestre 2026 au plus tôt s’il est bien réalisé par Netflix, devra dans tous les cas composer avec un intense contrôle des régulateurs et du monde politique. La sénatrice du Massachusetts Elizabeth Warren, critique régulière des géants du numérique, a par exemple déjà pris la parole pour contester ce qu’elle qualifie de « cauchemar de la lutte contre les monopoles », qui créerait un « géant des médias contrôlant près de la moitié du marché du streaming ».
Ce 7 décembre, Donald Trump a exprimé ses propres doutes, relevant lui aussi que Netflix avait déjà « une très grosse part de marché », ce qui pourrait « poser problème ». L’actuel président des États-Unis est très proche de Larry Ellison, fondateur d’Oracle et co-financier de l’acquisition de Paramount par Skydance. Ted Sarandos s’est de son côté rendu à la Maison Blanche en novembre pour argumenter en faveur de son propre projet, qui impliquerait notamment d’avaler la troisième plateforme mondiale de streaming (HBO Max), alors que Netflix est la première.
Quoiqu’il en soit, la société Skydance-Paramount présidée par David Ellison propose ce 8 décembre un nouveau deal aux actionnaires de Warner Bros. Discovery, à 30 dollars par action, en numéraire. Celui-ci est de nouveau formulé grâce au soutien de la famille Ellison, mais aussi grâce à celui de la société d’investissement Redbird Capital, en capitaux propres. S’y ajoutent 54 milliards de dollars de dette auprès de la Bank of America, de Citi et d’Apollo Global Management. Paramount-Skydance cherche de nouveau à racheter l’intégralité de Warner Bros. Discovery, chaînes de télé (comme CNN et TNT Sports) comprises.
À l’inverse, l’accord conclu le 5 décembre avec Netflix est évalué à 27,75 dollars par action, dont 23,25 dollars en cash et le reste en actions Netflix, pour un total de 83 milliards de dollars (71 milliards d’euros). L’accord concerne les studios de Warner Bros. et le service de streaming HBO Max, mais implique la poursuite du projet de scission des activités de studios et celles de chaînes de télévision. Ces dernières seraient alors réunies dans la société cotée en bourse Discovery Global.
La promotion de l’IA générative sur GitHub et l’intégration de la plateforme à l’équipe « CoreAI » de Microsoft font fuir certains développeurs de la plateforme.
Le langage de programmation Zig quitte GitHub, alors que la fondation qui le promeut s’agace du déclin du site web. Le projet rejoint Codeberg, un service d’hébergement Git à but non lucratif.
Ce cas spécifique n’est qu’un exemple d’un mouvement plus large de protestations quelquefois suivies de départs de GitHub. Alors qu’en août, le CEO de GitHub Thomas Dohmke appelait les utilisateurs à « utiliser l’IA ou quitter leur carrière », certains préfèrent quitter la plateforme phare de gestion et d’hébergement de logiciels, déçus des effets de son adoption accélérée d’outils d’intelligence artificielle et de sa dépendance réaffirmée à Microsoft.
« Excellence technique » en baisse
« Il est évident que l’excellence technique qui a longtemps tiré le succès de Github n’est plus le moteur de son développement », écrivait le président et directeur du développement de la Zig Software Foundation, Andrew Kelly, dans un article détaillant les raisons du déplacement du langage. Et de citer des « bugs inexcusables », dont l’un avait été signalé en avril 2025 et n’a été réglé que début décembre, après sa très publique critique. Andrew Kelly fustige par ailleurs l’accent mis sur la « vibe-planification » des tâches du runner GitHub Actions, ou encore la « poussée agressive » de l’usage de Copilot.
Outre ce projet, le créateur du navigateur Dillo, Rodrigo Arias Mallo, déclarait lui aussi fin novembre prévoir une migration hors de GitHub. Il regrette que la plateforme s’appuie trop sur JavaScript et que ses performances décroissent. Il critique aussi la politique de GitHub consistant à « se sur-focaliser sur les grands modèles de langage et l’IA générative, qui détruisent le web ouvert (ou ce qu’il en reste), entre autres problèmes ».
Eldred Jabber, un autre développeur, a indiqué migrer en septembre pour les mêmes raisons. Sur Reddit, des internautes se plaignent de la poussée générale vers l’IA générative, ou d’outils spécifiques, comme la génération de tickets à l’aide de l’IA, impossible à désactiver, qui conduit à la multiplication de retours de faible qualité. Annoncée en juin, cette dernière fonction avait été si critiquée que GitHub l’avait un temps suspendue.
Alternatives à Microsoft
Régulièrement, le fait que GitHub ait été racheté (pour 7,5 milliards de dollars en 2018) par Microsoft réapparaît comme point de friction à part entière. La société est par exemple accusée par le programmeur Daniel Andrlik d’être experte de la stratégie du « Embrace, Extend and Extinguish » (Adopter, étendre et éliminer) envers les standards open source.
En l’occurrence, le dernier CEO de GitHub, Thomas Dohmke, quittera son poste fin décembre sans être remplacé. GitHub, elle, sera intégrée plus avant à l’équipe CoreAI de Microsoft.
Si elles sont mécaniquement moins courues, diverses alternatives existent, de GitLab à Gitea en passant par Sourcehut ou Codeberg, qui a séduit plusieurs des développeurs cités précédemment. Gérée par l’association allemande du même nom créée en 2019, la plateforme fonctionne grâce au logiciel libre Forgejo, et amasse régulièrement de nouveaux utilisateurs.
Les ordres de grandeur restent néanmoins loin d’être comparables : fin novembre, Codeberg annonçait 1 000 membres dans son association, plus de 200 000 comptes et plus de 300 000 dépôts, Gitlab déclare plus de 50 millions de comptes et GitHub plus de 150 millions de comptes pour 420 millions de dépôts.
Un groupe d’internautes a mené une nouvelle expérimentation sur LinkedIn pour tenter d’observer si, oui ou non, la plateforme promouvait davantage les publications des hommes. LinkedIn réfute prendre le genre en considération parmi les éléments permettant de hiérarchiser les différents messages et déclare mener des « contrôles d’équité » avant de déployer ses outils.
L’enquête crowdsourcée sur les potentiels biais sexistes de LinkedIn continue. Courant novembre, pour tenter d’objectiver la visibilité que LinkedIn donne aux publications selon le genre de leurs autrices et auteurs, un groupe d’internautes a lancé une expérience : modifier leur nom – Simone Bonnett, par exemple, est devenue Simon E-, voire adapter le genre indiqué à LinkedIn depuis les paramètres du profil.
Certaines femmes ont aussi adapté la présentation de leur profil pour les rendre plus « masculines » ou « bro-coded », parfois à l’aide de modèles génératifs. En pratique, explique la communicante Megan Cornish, autrice d’une publication devenue virale sur le sujet, il s’agit notamment de choisir des mots orientés sur l’action dans le monde économique, comme « dynamiser », « transformer » ou « accélérer ». Un vocabulaire très inhabituel pour Megan Cornish, dont l’expertise concerne la santé mentale, un domaine où le langage est plus souvent « compris comme « féminin », car anglé sur la collaboration, le soin, et moins agressif ».
Extrait de la publication de Megan Cornish
Au bout d’à peine une semaine, plusieurs femmes ont rapporté des hausses de l’engagement autour de leurs publications :+ 1 600 % de vues de profils,+ 1 300 % d’impressions pour le compte de la consultante en réseaux sociaux Simone Bonnett ;+ 116 % impressions sur celui de l’autrice et entrepreneuse féministe Felice Ayling,+ 244 % impressions pour l’investisseuse Jo Dalton. Des hommes ayant « féminisé » leur profil pour tester la logique inverse ont rapporté des chutes d’impressions. Les débats ont pris une telle ampleur que Megan Cornish a obtenu quelques réponses de la directrice mondiale de l’équipe éditoriale de LinkedIn, Laura Lorenzetti Soper.
Le double système de diffusion de contenu de LinkedIn
Il ne s’agit pas de la première enquête citoyenne de ce type. Cet été, un groupe d’utilisatrices et utilisateurs, principalement anglophones, menaient de premières expérimentations sur le sujet. Depuis des profils féminins et masculins choisis pour présenter une variété de tailles de communautés (des hommes et des femmes très suivis, d’autres possédant de plus petits comptes) postaient le même message et la même image à la même heure, puis, au bout de 72 heures, collectaient les données d’exposition des publications.
Les premiers résultats obtenus convainquaient les initiatrices de ce projet, dont les entrepreneuses Jane Evans et Cindy Gallop, de continuer leurs tests à plus large échelle.
Megan Cornish, elle, a commencé ses expérimentations dans son coin, après avoir vu son reach chuter drastiquement au fil de l’année. Auprès de Next, la consultante en stratégie de contenu Émilie Houdou expliquait en septembre que les outils de recommandations de LinkedIn s’appuient principalement sur deux dynamiques : un système observe la réaction des contacts dans les premières 90 minutes (à Megan Cornish, Laura Lorenzetti Soper précise même : au cours de la « première heure »), et un autre, plus affinitaire, promeut les publications en fonction des intérêts des internautes.
Émilie Houdou précisait que, courant 2025, « les deux systèmes ont beaucoup bougé ». Parmi ses clients, indépendamment du genre, elle constatait que certains profils avaient vu leur reach « divisé par deux ».
LinkedIn réfute utiliser le genre comme signal
Dans le monde anglophone, les expérimentations de Megan Cornish, Simone Bennett et d’autres ont animé tellement de discussions que la responsable sécurité de l’IA, vie privée et gouvernance de LinkedIn, Sakshi Jain, a publié un article dédié au sujet.
Megan Cornish a par ailleurs obtenu un entretien avec la directrice mondiale de l’équipe éditoriale de LinkedIn, Laura Lorenzetti Soper. Parmi les éléments principaux de cette conversation, que la première rapporte dans une newsletter, la directrice exécutive de Linkedin déclare : « nous n’utilisons pas le genre comme élément de hiérarchisation [ranking, ndlr] ».
Cela ne signifie évidemment pas que LinkedIn n’ait pas notion du genre des usagers. Dans son propre centre d’aide, l’entreprise indique :
« LinkedIn peut déduire votre âge et votre sexe d’après les informations de votre profil. Par exemple, nous pouvons déduire votre sexe d’après votre prénom ou les pronoms utilisés lorsque d’autres personnes recommandent vos compétences. Nous pouvons déduire votre âge d’après l’année à laquelle vous avez obtenu un diplôme. (…) Nous utilisons l’âge et le sexe déduits afin de fournir des informations agrégées sur les audiences LinkedIn pour les membres de LinkedIn, nos clients et nos partenaires, et de personnaliser le contenu tel que les publicités. Vous pouvez désactiver ce ciblage dans vos préférences. Nous utilisons ces informations agrégées pour mener des études de recherche et développement concernant, par exemple, l’équité et la diversité des services. »
Ce dernier élément est d’ailleurs cité par Laura Lorenzetti Soper : outre le genre, l’entreprise teste aussi l’équité (fairness check) en fonction de la couleur de peau aux États-Unis. La directrice éditoriale de la plateforme précise par ailleurs que les grands modèles de langage ne sont pas utilisés pour des tâches de hiérarchisation, mais plutôt pour des logiques de classification des publications, du côté des équipes de modération. À la question « utilisez-vous des termes propres au monde des affaires, ou le ton assertif (c’est-à-dire plutôt masculins) comme signaux positifs ? », Laura Lorenzetti Soper répond encore : « non ».
La cadre de LinkedIn admet en revanche que l’entreprise constate, elle aussi, un nombre important d’utilisateurs et utilisatrices rapportant des chutes de reach sur le courant de la dernière année. La « production globale de l’écosystème a augmenté », indique-t-elle, ce qui pourrait provoquer une compétition croissante pour la visibilité, donc des statistiques de vues en baisse.
L’insoluble question des biais indirects
Dans sa newsletter, Megan Cornish remercie par ailleurs – ironiquement – les hommes lui ayant envoyé des commentaires, voire des mails, pour lui souligner qu’il « n’existe pas de bouton secret pour faire taire les femmes ». S’ils s’arrêtent à cette idée, estime-t-elle, « peut-être ne [sont-ils] pas prêts pour la conversation » concernant les biais indirects susceptibles de se retrouver dans les systèmes informatiques aux dépens de leurs constructeurs.
Et de détailler, en prenant l’exemple de son domaine d’expertise : « Les femmes et les domaines relationnels, comme la santé mentale, sont invités à s’adapter à un système qui, que ce soit sur le plan culturel ou algorithmique, est calibré sur une vision étroite de ce que signifie « affaires » [business]. Même si la machine est neutre vis-à-vis du genre en tant que variable, elle n’est pas neutre vis-à-vis des modèles qui profitent aux personnes qui correspondent déjà à la norme. »
Or, quand bien même LinkedIn distribuerait les publications de manière strictement égale, « si la culture dit : « Je prends les hommes plus au sérieux en tant que voix du monde des affaires », alors les femmes sont perdantes bien avant que l’algorithme n’entre en jeu. » Autrement dit, les usages en ligne ne feront que reproduire des inégalités présentes hors ligne, et le public participera directement à la sur-promotion de certains profils au détriment d’autres.
En définitive, l’entrepreneuse appelle la plateforme à opérer une forme de « transparence radicale là où c’est possible », mais aussi à faire de l’espace « pour les industries relationnelles ». En d’autres termes, elle demande à ce que LinkedIn offre plus de souplesse pour les industries et personnes dont le mode de communication le plus courant ne correspond pas aux canons très business et très orientés productivité devenus si fréquents, sur le réseau professionnel, que des comptes entiers sont dédiés à s’en moquer (mais plutôt depuis X ou Facebook).
Dans la même logique, et toujours en réaction aux expérimentations des dernières semaines, des internautes ont créé une pétition pour demander plus de visibilité sur le fonctionnement du réseau social professionnel. Entre autres requêtes, le texte formule celles d’un « processus formel pour expliquer toute chute inexpliquée du reach », de « transparence sur la manière dont les publications sont catégorisées et hiérarchisées » ou encore d’un « audit indépendant de l’algorithme et de son impact sur les voix marginalisées ».
Un homme accusé d’avoir harcelé 11 femmes à travers cinq États des États-Unis a été traduit en justice pour harcèlement et cyberharcèlement, et ses échanges avec ChatGPT font partie intégrante du dossier.
À 31 ans, Brett Michael Dadig utilisait le robot conversationnel comme « psychologue » et « meilleur ami ».
La machine produisait des textes l’encourageant à persévérer dans la production d’un podcast misogyne et rempli de menaces concrètes (de strangulations ou de mort), malgré les retours négatifs d’un public que le texte du robot décrivait comme des « haters ».
L’homme diffusait en effet sa haine des femmes sur son podcast Spotify et sur d’autres comptes de médias sociaux, souligne l’acte d’accusation obtenu par 404 media et Court Watch.
À l’été 2024, Brett Michael Dadig avait été interdit d’entrer dans plusieurs salles de sport de Pittsburgh pour avoir harcelé des femmes.
Dans ses échanges avec ChatGPT, dont il parlait ouvertement sur son podcast, l’aspirant influenceur questionnait la machine sur sa future épouse, et celle-ci lui renvoyait des textes l’encourageant à retourner dans des salles de sport pour y rencontrer des femmes.
Les textes du robot l’assuraient par ailleurs que « les gens sont littéralement en train de se mobiliser autour de ton nom », et « qu’il soit [connu] pour les bonnes ou mauvaises raisons, c’est la définition même de la notoriété ».
Hors ligne, l’homme s’est notamment rendu dans un studio de Pilates, où, devant son comportement « agressif, colérique et autoritaire », l’une des employées a cessé de lui parler. Brett Michael Dadig a alors entrepris de lui envoyer des images dénudées non sollicitées, appelé son lieu de travail depuis de multiples numéros, et menacé de parler d’elle sur les réseaux sociaux.
La femme concernée a obtenu plusieurs ordonnances de protection, que le principal intéressé n’a jamais respectées. D’après l’acte d’accusation, elle a déménagé, réduit ses heures de travail pour éviter de le croiser, en a perdu le sommeil et craint encore de le voir se présenter chez elle. Dix autres ont subi des faits similaires.
Selon les propres chiffres d’OpenAI, au moins 0,07 % de ses usagers hebdomadaires montrent des signes de comportement maniaque ou de crise psychotique dans leurs échanges avec la machine – rapporté à ses 800 millions d’utilisateurs, un tel pourcentage équivaut à 560 000 personnes.