Vue lecture

[Offert] Karen Hao : « Les empires de l’IA étouffent l’innovation »


C'est l'heure de l'alliance rebelle
[Offert] Karen Hao : « Les empires de l’IA étouffent l’innovation »


La relation d’OpenAI au travail de ses employés comme des entraîneurs de données, celle de Sam Altman à la consommation énergétique de son entreprise, la manière dont l’industrie freine la recherche scientifique en IA… Next a parlé de tous ces sujets avec la journaliste et autrice d’« Empire of AI » Karen Hao.

Pour les fêtes de fin d’année, Next vous offre cet article initialement paru le 16 juillet 2025 et réservé aux abonnés. Pour lire les prochains entretiens dès leur publication, abonnez-vous !


En 2015, une dizaine de personnalités de la Silicon Valley – parmi lesquelles l’informaticien Illya Sutskever ou les entrepreneurs Sam Altman, Greg Bockman et Elon Musk – se réunissent pour créer une nouvelle entité. Son nom ? OpenAI. Son but ? Faire avancer la recherche en intelligence artificielle. Sa spécificité, publicisée jusque dans son nom ? Être une organisation à but non lucratif, ouverte ou reposant sur les principes de l’open source, dont l’objet serait de faire progresser les connaissances communes, partagées, dans ce domaine informatique de plus en plus prisé qu’est l’intelligence artificielle.

Le projet attire tout de suite l’attention. Il est, après tout, financé par de grands noms : Altman, Brockman et Musk eux-mêmes, le cofondateur de LinkedIn Reid Hoffman, la venture capitalist et ex-collègue de Sam Altman chez Y Combinator Jessica Livingston, le financier Peter Thiel…

En quelques années, la promesse initiale évolue. En 2018, Elon Musk part avec pertes et fracas, critiquant le manque de résultats d’OpenAI et les risques de conflit d’intérêt à venir, alors que Tesla développe ses compétences en matière d’IA. De quasi-ONG de financement de la recherche en IA, OpenAI devient une société privée, de plus en plus secrète.

Fin 2023, un an à peine après que la publication du robot conversationnel ChatGPT a fasciné le grand public par ses capacités de génération de texte et d’image, nouveau coup de tonnerre. Sam Altman, à la tête du projet depuis ses débuts, est d’abord licencié de son poste de CEO par le conseil d’administration, remplacé par l’ex-directrice de la technologie Mira Murati, avant de reprendre sa place.

Aux premières loges de ces multiples rebondissements se trouve une journaliste, Karen Hao, d’abord employée par la MIT Technology Review, puis le Wall Street Journal, et actuellement freelance pour diverses publications dont le magazine états-unien The Atlantic. Première journaliste à obtenir l’accès à la start-up, Karen Hao a depuis continué d’enquêter sur ses activités et celles de l’industrie au sens large, jusqu’à publier Empire of AI, Dreams and nightmares in Sam Altman’s Open AI (Penguin Random House, non traduit), en mai 2025. Elle s’est entretenue avec Next.

« Sam Altman a réussi à créer une ferveur quasi religieuse pour la création d’une intelligence artificielle générale »

>> Vous montrez clairement que l’intelligence artificielle (IA), ou même la notion d’intelligence artificielle générale, varie beaucoup dans l’industrie, au point que ses promoteurs semblent pouvoir toujours l’adapter aux nouveaux problèmes qui les intéressent. Comment est-ce possible ?

L’idée originale de l’intelligence artificielle est de recréer l’intelligence humaine à l’aide d’ordinateurs. Mais il n’y a pas de consensus scientifique sur ce qu’est l’intelligence humaine, ce qui explique que la définition de l’IA évolue régulièrement au fil du temps. L’intelligence artificielle générale (AGI) obéit à la même logique : il ne s’agit que d’un re-positionnement, c’est une manière de se différencier des produits et services existants.

OpenAI s’inscrit dans cette grande tradition d’incapacité à définir ce que l’IA signifie vraiment. L’entreprise utilise tout de même une définition explicite : pour elle, les AGI sont des « systèmes autonomes qui surpassent les humains dans la plupart des tâches à valeur économique ». Ils la définissent donc surtout comme des machines d’automatisation du travail. Mais dans certains cas, il arrive que Microsoft et OpenAI parlent d’AGI comme de systèmes qui seraient capables de générer cent milliards de dollars ou mille milliards de dollars. Une telle définition est totalement différente de celle de la machine à automatiser le travail.

Au sein d’OpenAI, il y a aussi une blague qui circule, selon laquelle si vous demandez leur avis à 13 chercheurs, vous obtiendrez 16 définitions différentes de l’AGI. Donc oui, on manque de clarté, et je pense que l’entreprise profite parfois de ce manque de précision pour continuer à faire ce qu’elle veut.

>> Deux des définitions que vous venez d’évoquer sont néanmoins très liées à des enjeux économiques, et notamment à celle de l’automatisation du travail humain. Pourtant, sans étiquetage des données, sans entraînement humain des systèmes, il n’y aurait pas d’IA. Pourriez-vous résumer quel est le rapport de Scale AI, l’un des sous-traitants essentiels d’OpenAI en annotation de données, aux travailleurs ?

Scale AI est une plateforme qui met en relation les entreprises d’IA avec des travailleurs contractuels pour des tâches telles que l’étiquetage de données, la modération de contenu ou le renforcement à partir du feedback humain (RLHF), quand les gens envoient des requêtes aux modèles et les classent pour essayer d’orienter le type de réponse de ces technologies. Scale AI a ouvert avant l’explosion des LLM, lorsqu’il existait plus de modèles d’IA différents, sur l’idée de fournir du travail humain de haute qualité à bas coût aux entreprises d’IA.

Or, ils ont découvert quasi accidentellement que le Venezuela était un très bon endroit pour trouver ce genre de personnels. Lorsque le pays a traversé une grave crise économique, il a coché trois cases : des personnes très éduquées, une très bonne connexion internet, et des gens désespérés de trouver du travail, donc prêt à s’employer pour des salaires très bas. Cette expérience est un peu devenue leur méthode classique d’intervention, qu’ils ont réutilisée ailleurs. Quand la pandémie a frappé, Scale AI s’est tourné vers tous les pays où les économies se sont retrouvées en souffrance, et où de nombreux travailleurs très qualifiés devenaient disponibles pour des salaires bas, faute de trouver d’autres emplois.

Sur chacun de ces marchés, l’entreprise a fonctionné de la même manière : elle commence par proposer de bons salaires en échange des tâches d’entraînement, puis quand de nombreuses personnes ont pris l’habitude d’en faire leur source principale de revenu, ScaleAI se met à réduire nettement le montant des rémunérations, ou à mettre les travailleurs en concurrence pour les mêmes tâches. Ils et elles se retrouvent coincés dans des situations franchement instables, incapables de garantir s’ils vont travailler, combien ils gagneront pour leurs tâches, quelles seront leurs heures de travail, le tout sans prestations ni Sécurité sociale.

>> Dans une interview pour le média Synth, vous expliquiez que les employés d’OpenAI n’ont aucun équilibre entre travail et vie privée. Comment comprendre le rapport de cette entreprise au travail ?

Si beaucoup d’entre eux n’ont pas d’équilibre entre vie professionnelle et vie privée, c’est parce qu’Altman a réussi à créer une ferveur quasi religieuse dans la culture d’entreprise, à la fois pour l’AGI et pour la mission d’Open AI à faire en sorte que l’AGI profite à toute l’humanité. Lorsque vous pensez remplir une sorte d’objectif religieux, il est logique que vous vous y adonniez au maximum. Si vous croyez vraiment que le travail que vous effectuez chaque jour peut soit apporter l’utopie, soit empêcher l’humanité de sombrer dans la dystopie, cela crée des conditions propices au surmenage et à une association complète de votre identité à votre travail.

Cela dit, la façon dont OpenAI positionne ses produits, ou ce qu’elle fait réellement et les impacts qu’elle a sur le travail en général, cela produit surtout de l’exploitation. Tous les travailleurs qui contribuent à la production de ces technologies, partout sur la planète, sont exploités. Comme OpenAI adopte une définition économique de l’AGI, l’entreprise est naturellement encline à produire des technologies qui automatisent des emplois, ce qui est une forme d’exploitation du travail.

À mon sens, s’ils ont choisi cette définition, c’est parce que mesurer ce qui est considéré comme « un travail économiquement viable » est relativement simple. Si vous essayez de créer une AGI, il s’agit d’un objectif plutôt facile à se fixer et à suivre pour savoir si vous avez atteint votre but. C’est également un objectif très pratique si vous voulez gagner de l’argent. Si vos machines sont capables d’effectuer un « travail économiquement viable », les dirigeants paieront pour, et bien, y compris pour automatiser leurs propres travailleurs.

« L’expansion de ces entreprises risque de nous faire retourner à une ère impériale »

>> Outre les enjeux que cela pose en termes de travail, ce type d’orientation a un réel impact environnemental. Sam Altman a par exemple déclaré qu’une « fraction significative » de l’énergie produite sur Terre devrait être allouée à l’IA, quand bien même cette énergie est produite de manière très carbonée aux États-Unis. Pourquoi y a-t-il si peu de réactions sur le sujet ?

Il me semble que le grand public est encore loin d’avoir compris les enjeux que l’IA pose, aussi bien sur le travail que sur l’environnement, ou même sur la recherche en IA. Côté environnemental, en l’occurrence, les data centers ont beau être immenses, ils sont souvent relativement cachés, placés dans des lieux lointains du public, à des endroits que les médias couvrent moins… Tout cela fait que les usagers classiques de l’IA n’ont pas encore pris conscience de ses impacts sur la santé, sur la consommation d’eau, sur l’énergie.

Ils s’en rendent d’autant moins facilement compte que l’industrie pousse très clairement le discours selon lequel l’intelligence artificielle tomberait du ciel, serait un produit mystique, le résultat d’une forme de magie. Et toute cette rhétorique participe à leur logique impériale.

>> Pourquoi est-ce que la notion d’empire vous a paru nécessaire, pour décrire ces entreprises privées ?

C’était d’abord une manière de mettre en évidence l’ampleur des ambitions de ces entreprises. Elles parlent de domination mondiale, au sens propre, elles consolident de tels pouvoirs économiques et politiques qu’elles deviennent comparables à des empires… Cela permet aussi de souligner que leurs comportements, le fait de revendiquer des ressources qui ne leur appartiennent pas comme étant les leurs, celui d’exploiter d’immenses quantités de main-d’œuvre, celui de monopoliser la production de connaissances, tout cela correspond à des logiques impériales.

L’immense majorité des chercheurs en IA aujourd’hui travaillent pour ou sont financés par l’industrie, ce qui nous empêche de bien comprendre les vraies limitations de ces technologies, puisque les entreprises n’ont aucun intérêt de travailler sur ces sujets. Imaginez ce qui arriverait si la plupart des chercheurs sur le climat étaient payés par les entreprises des énergies fossiles. C’est à peu près la situation dans laquelle nous sommes aujourd’hui dans l’IA : les systèmes ont énormément de défauts, mais moins de 5 % de la recherche produite se penche sur ces problèmes.

Il y a aussi la dimension religieuse, ce récit d’opposition entre les bons et les mauvais empires, où les « bons » auraient besoin de devenir des empires pour vaincre les mauvais, car si les mauvais empires gagnent, alors l’humanité risque sa survie… Toute cette rhétorique ressemble à celle des empires du passé.

Si vous comprenez qu’il s’agit de logiques impériales, alors vous comprenez que la conclusion de l’expansion de ces entreprises est le retour aux empires, soit l’inversion de la tendance vers plus de progrès et de démocratie. En l’occurrence, les fondements de la démocratie sont en train de s’éroder. Pour moi, l’enjeu est vraiment celui-là : comprendre que le risque fondamental est celui de retourner en arrière, vers de nouveaux régimes impériaux.

« Les régulateurs doivent cesser de croire que la Silicon Valley agit pour l’intérêt général »

>> Dans Empire of AI, vous décrivez une fascination des représentants politiques pour Sam Altman et une réticence à réguler l’IA qui rappelle nettement la fascination pour Mark Zuckerberg que Sarah Wynn-Williams décrit dans Careless People (Macmillan, 2025, non traduit). Dans quelle mesure faudrait-il que cela change ?

Les régulateurs devraient apprendre du passé, cesser de croire que l’élite de la Silicon Valley agit dans l’intérêt de la population, du grand public, de la société dans son ensemble. Ils devraient réfléchir de manière très critique à la manière de s’assurer que les entreprises technologiques continuent de fournir leurs services, mais sans bâtir d’empires, car ce sont deux choses différentes.

Les gouvernants devraient réfléchir aux meilleures manières de réglementer les entreprises d’IA, non seulement en se penchant sur celles qui veulent produire des modèles d’IA, mais aussi en encadrant les données sur lesquelles ces entreprises sont autorisées à entraîner leurs modèles ; en se penchant sur l’interprétation des lois sur les droits d’auteur pour protéger le travail des artistes, des écrivains et des créateurs ; en s’intéressant à l’endroit où ces sociétés sont autorisées à construire des centres de données, à la quantité et aux sources d’énergie qu’elles ont droit d’utiliser, à la quantité d’eau douce à laquelle elles ont le droit de recourir. Il faudrait qu’ils régulent le type de protocoles de test auxquels les constructeurs d’IA doivent soumettre leurs systèmes avant de les déployer ; s’intéresser à l’impact de ces systèmes sur les enfants et sur les autres groupes vulnérables…

Très souvent, je finis par entendre que trop de réglementation pourrait faire disparaître l’innovation. C’est un discours trompeur, car en réalité, ne pas réglementer empêche l’innovation. Ces entreprises en sont arrivées à un point où elles n’ont plus aucune raison de faire quoi que ce soit pour l’intérêt public. Ce sont des entités totalement égoïstes, qui freinent clairement l’innovation.

Au cours du premier trimestre de cette année, près de 50 % des financements du capital-risque sont allés à OpenAI et Anthropic : c’est un coût d’opportunité énorme pour le reste du domaine de l’IA, mais aussi pour le reste de l’industrie technologique. Ces entreprises verrouillent une grande partie de l’innovation, ce qui réduit la capacité d’innover dans de nombreux autres domaines.

>> Comment comprenez-vous les récents mouvements d’employés d’OpenAI vers Meta ?

Il y a eu ces discussions autour des 100 millions de dollars de packages offerts par Meta…. À mon sens, ça illustre surtout la folie du montant des capitaux qui circulent dans cet espace. Peut-être que les régulateurs devraient commencer à plafonner les compensations que les entreprises offrent à leurs candidats.

Pour moi, cet épisode illustre à quel point ces entreprises sont dirigées par des personnes à l’ego démesuré, qui se battent les unes contre les autres pour créer leur propre version de l’IA, pour remodeler l’IA à leur image. L’une de mes plus grandes critiques à l’encontre de ces entreprises est qu’elles n’ont aucune structure de gouvernance : ce qu’elles font est purement basé sur les caprices et les décisions prises par la poignée de personnes à leur tête.

>> Comment la démocratie peut-elle se défendre face aux empires de l’IA ?

On a besoin de contestation démocratique depuis la base. Les gouvernants doivent faire leur travail, mais les gens ne peuvent pas attendre qu’ils réagissent, car ces entreprises ont été si efficaces pour capturer les gouvernements que peu de politiciens dans le monde adoptent des positions fortes pour les réglementer.

Des centaines de communautés protestent déjà contre la construction de centres de données, construits sans préoccupation de leur usage d’eau douce. Ces protestations ralentissent déjà leur développement, elles forcent l’ouverture de débats sur la question de savoir si oui ou non nous en avons besoin. D’autres personnes exercent leur droit à la vie privée pour tenter d’empêcher les entreprises d’exploiter leurs données. Des artistes se battent pour tenter d’obtenir de meilleures interprétations de la loi sur les droits d’auteur, ou bien utilisent des outils comme Nightshade, qui permet de faire en sorte que, si les sociétés d’IA utilisent leurs œuvres dans leurs données d’entrainement, alors celles-ci dégradent le modèle.

Il existe de multiples formes de protestation dans lesquelles les gens s’engagent et qui me paraissent être des formes de contestation démocratique. Nous avons autant besoin de cela que de faire en sorte que les régulateurs se réveillent.

  •  

[Offert] Karen Hao : « Les empires de l’IA étouffent l’innovation »


C'est l'heure de l'alliance rebelle
[Offert] Karen Hao : « Les empires de l’IA étouffent l’innovation »


La relation d’OpenAI au travail de ses employés comme des entraîneurs de données, celle de Sam Altman à la consommation énergétique de son entreprise, la manière dont l’industrie freine la recherche scientifique en IA… Next a parlé de tous ces sujets avec la journaliste et autrice d’« Empire of AI » Karen Hao.

Pour les fêtes de fin d’année, Next vous offre cet article initialement paru le 16 juillet 2025 et réservé aux abonnés. Pour lire les prochains entretiens dès leur publication, abonnez-vous !


En 2015, une dizaine de personnalités de la Silicon Valley – parmi lesquelles l’informaticien Illya Sutskever ou les entrepreneurs Sam Altman, Greg Bockman et Elon Musk – se réunissent pour créer une nouvelle entité. Son nom ? OpenAI. Son but ? Faire avancer la recherche en intelligence artificielle. Sa spécificité, publicisée jusque dans son nom ? Être une organisation à but non lucratif, ouverte ou reposant sur les principes de l’open source, dont l’objet serait de faire progresser les connaissances communes, partagées, dans ce domaine informatique de plus en plus prisé qu’est l’intelligence artificielle.

Le projet attire tout de suite l’attention. Il est, après tout, financé par de grands noms : Altman, Brockman et Musk eux-mêmes, le cofondateur de LinkedIn Reid Hoffman, la venture capitalist et ex-collègue de Sam Altman chez Y Combinator Jessica Livingston, le financier Peter Thiel…

En quelques années, la promesse initiale évolue. En 2018, Elon Musk part avec pertes et fracas, critiquant le manque de résultats d’OpenAI et les risques de conflit d’intérêt à venir, alors que Tesla développe ses compétences en matière d’IA. De quasi-ONG de financement de la recherche en IA, OpenAI devient une société privée, de plus en plus secrète.

Fin 2023, un an à peine après que la publication du robot conversationnel ChatGPT a fasciné le grand public par ses capacités de génération de texte et d’image, nouveau coup de tonnerre. Sam Altman, à la tête du projet depuis ses débuts, est d’abord licencié de son poste de CEO par le conseil d’administration, remplacé par l’ex-directrice de la technologie Mira Murati, avant de reprendre sa place.

Aux premières loges de ces multiples rebondissements se trouve une journaliste, Karen Hao, d’abord employée par la MIT Technology Review, puis le Wall Street Journal, et actuellement freelance pour diverses publications dont le magazine états-unien The Atlantic. Première journaliste à obtenir l’accès à la start-up, Karen Hao a depuis continué d’enquêter sur ses activités et celles de l’industrie au sens large, jusqu’à publier Empire of AI, Dreams and nightmares in Sam Altman’s Open AI (Penguin Random House, non traduit), en mai 2025. Elle s’est entretenue avec Next.

« Sam Altman a réussi à créer une ferveur quasi religieuse pour la création d’une intelligence artificielle générale »

>> Vous montrez clairement que l’intelligence artificielle (IA), ou même la notion d’intelligence artificielle générale, varie beaucoup dans l’industrie, au point que ses promoteurs semblent pouvoir toujours l’adapter aux nouveaux problèmes qui les intéressent. Comment est-ce possible ?

L’idée originale de l’intelligence artificielle est de recréer l’intelligence humaine à l’aide d’ordinateurs. Mais il n’y a pas de consensus scientifique sur ce qu’est l’intelligence humaine, ce qui explique que la définition de l’IA évolue régulièrement au fil du temps. L’intelligence artificielle générale (AGI) obéit à la même logique : il ne s’agit que d’un re-positionnement, c’est une manière de se différencier des produits et services existants.

OpenAI s’inscrit dans cette grande tradition d’incapacité à définir ce que l’IA signifie vraiment. L’entreprise utilise tout de même une définition explicite : pour elle, les AGI sont des « systèmes autonomes qui surpassent les humains dans la plupart des tâches à valeur économique ». Ils la définissent donc surtout comme des machines d’automatisation du travail. Mais dans certains cas, il arrive que Microsoft et OpenAI parlent d’AGI comme de systèmes qui seraient capables de générer cent milliards de dollars ou mille milliards de dollars. Une telle définition est totalement différente de celle de la machine à automatiser le travail.

Au sein d’OpenAI, il y a aussi une blague qui circule, selon laquelle si vous demandez leur avis à 13 chercheurs, vous obtiendrez 16 définitions différentes de l’AGI. Donc oui, on manque de clarté, et je pense que l’entreprise profite parfois de ce manque de précision pour continuer à faire ce qu’elle veut.

>> Deux des définitions que vous venez d’évoquer sont néanmoins très liées à des enjeux économiques, et notamment à celle de l’automatisation du travail humain. Pourtant, sans étiquetage des données, sans entraînement humain des systèmes, il n’y aurait pas d’IA. Pourriez-vous résumer quel est le rapport de Scale AI, l’un des sous-traitants essentiels d’OpenAI en annotation de données, aux travailleurs ?

Scale AI est une plateforme qui met en relation les entreprises d’IA avec des travailleurs contractuels pour des tâches telles que l’étiquetage de données, la modération de contenu ou le renforcement à partir du feedback humain (RLHF), quand les gens envoient des requêtes aux modèles et les classent pour essayer d’orienter le type de réponse de ces technologies. Scale AI a ouvert avant l’explosion des LLM, lorsqu’il existait plus de modèles d’IA différents, sur l’idée de fournir du travail humain de haute qualité à bas coût aux entreprises d’IA.

Or, ils ont découvert quasi accidentellement que le Venezuela était un très bon endroit pour trouver ce genre de personnels. Lorsque le pays a traversé une grave crise économique, il a coché trois cases : des personnes très éduquées, une très bonne connexion internet, et des gens désespérés de trouver du travail, donc prêt à s’employer pour des salaires très bas. Cette expérience est un peu devenue leur méthode classique d’intervention, qu’ils ont réutilisée ailleurs. Quand la pandémie a frappé, Scale AI s’est tourné vers tous les pays où les économies se sont retrouvées en souffrance, et où de nombreux travailleurs très qualifiés devenaient disponibles pour des salaires bas, faute de trouver d’autres emplois.

Sur chacun de ces marchés, l’entreprise a fonctionné de la même manière : elle commence par proposer de bons salaires en échange des tâches d’entraînement, puis quand de nombreuses personnes ont pris l’habitude d’en faire leur source principale de revenu, ScaleAI se met à réduire nettement le montant des rémunérations, ou à mettre les travailleurs en concurrence pour les mêmes tâches. Ils et elles se retrouvent coincés dans des situations franchement instables, incapables de garantir s’ils vont travailler, combien ils gagneront pour leurs tâches, quelles seront leurs heures de travail, le tout sans prestations ni Sécurité sociale.

>> Dans une interview pour le média Synth, vous expliquiez que les employés d’OpenAI n’ont aucun équilibre entre travail et vie privée. Comment comprendre le rapport de cette entreprise au travail ?

Si beaucoup d’entre eux n’ont pas d’équilibre entre vie professionnelle et vie privée, c’est parce qu’Altman a réussi à créer une ferveur quasi religieuse dans la culture d’entreprise, à la fois pour l’AGI et pour la mission d’Open AI à faire en sorte que l’AGI profite à toute l’humanité. Lorsque vous pensez remplir une sorte d’objectif religieux, il est logique que vous vous y adonniez au maximum. Si vous croyez vraiment que le travail que vous effectuez chaque jour peut soit apporter l’utopie, soit empêcher l’humanité de sombrer dans la dystopie, cela crée des conditions propices au surmenage et à une association complète de votre identité à votre travail.

Cela dit, la façon dont OpenAI positionne ses produits, ou ce qu’elle fait réellement et les impacts qu’elle a sur le travail en général, cela produit surtout de l’exploitation. Tous les travailleurs qui contribuent à la production de ces technologies, partout sur la planète, sont exploités. Comme OpenAI adopte une définition économique de l’AGI, l’entreprise est naturellement encline à produire des technologies qui automatisent des emplois, ce qui est une forme d’exploitation du travail.

À mon sens, s’ils ont choisi cette définition, c’est parce que mesurer ce qui est considéré comme « un travail économiquement viable » est relativement simple. Si vous essayez de créer une AGI, il s’agit d’un objectif plutôt facile à se fixer et à suivre pour savoir si vous avez atteint votre but. C’est également un objectif très pratique si vous voulez gagner de l’argent. Si vos machines sont capables d’effectuer un « travail économiquement viable », les dirigeants paieront pour, et bien, y compris pour automatiser leurs propres travailleurs.

« L’expansion de ces entreprises risque de nous faire retourner à une ère impériale »

>> Outre les enjeux que cela pose en termes de travail, ce type d’orientation a un réel impact environnemental. Sam Altman a par exemple déclaré qu’une « fraction significative » de l’énergie produite sur Terre devrait être allouée à l’IA, quand bien même cette énergie est produite de manière très carbonée aux États-Unis. Pourquoi y a-t-il si peu de réactions sur le sujet ?

Il me semble que le grand public est encore loin d’avoir compris les enjeux que l’IA pose, aussi bien sur le travail que sur l’environnement, ou même sur la recherche en IA. Côté environnemental, en l’occurrence, les data centers ont beau être immenses, ils sont souvent relativement cachés, placés dans des lieux lointains du public, à des endroits que les médias couvrent moins… Tout cela fait que les usagers classiques de l’IA n’ont pas encore pris conscience de ses impacts sur la santé, sur la consommation d’eau, sur l’énergie.

Ils s’en rendent d’autant moins facilement compte que l’industrie pousse très clairement le discours selon lequel l’intelligence artificielle tomberait du ciel, serait un produit mystique, le résultat d’une forme de magie. Et toute cette rhétorique participe à leur logique impériale.

>> Pourquoi est-ce que la notion d’empire vous a paru nécessaire, pour décrire ces entreprises privées ?

C’était d’abord une manière de mettre en évidence l’ampleur des ambitions de ces entreprises. Elles parlent de domination mondiale, au sens propre, elles consolident de tels pouvoirs économiques et politiques qu’elles deviennent comparables à des empires… Cela permet aussi de souligner que leurs comportements, le fait de revendiquer des ressources qui ne leur appartiennent pas comme étant les leurs, celui d’exploiter d’immenses quantités de main-d’œuvre, celui de monopoliser la production de connaissances, tout cela correspond à des logiques impériales.

L’immense majorité des chercheurs en IA aujourd’hui travaillent pour ou sont financés par l’industrie, ce qui nous empêche de bien comprendre les vraies limitations de ces technologies, puisque les entreprises n’ont aucun intérêt de travailler sur ces sujets. Imaginez ce qui arriverait si la plupart des chercheurs sur le climat étaient payés par les entreprises des énergies fossiles. C’est à peu près la situation dans laquelle nous sommes aujourd’hui dans l’IA : les systèmes ont énormément de défauts, mais moins de 5 % de la recherche produite se penche sur ces problèmes.

Il y a aussi la dimension religieuse, ce récit d’opposition entre les bons et les mauvais empires, où les « bons » auraient besoin de devenir des empires pour vaincre les mauvais, car si les mauvais empires gagnent, alors l’humanité risque sa survie… Toute cette rhétorique ressemble à celle des empires du passé.

Si vous comprenez qu’il s’agit de logiques impériales, alors vous comprenez que la conclusion de l’expansion de ces entreprises est le retour aux empires, soit l’inversion de la tendance vers plus de progrès et de démocratie. En l’occurrence, les fondements de la démocratie sont en train de s’éroder. Pour moi, l’enjeu est vraiment celui-là : comprendre que le risque fondamental est celui de retourner en arrière, vers de nouveaux régimes impériaux.

« Les régulateurs doivent cesser de croire que la Silicon Valley agit pour l’intérêt général »

>> Dans Empire of AI, vous décrivez une fascination des représentants politiques pour Sam Altman et une réticence à réguler l’IA qui rappelle nettement la fascination pour Mark Zuckerberg que Sarah Wynn-Williams décrit dans Careless People (Macmillan, 2025, non traduit). Dans quelle mesure faudrait-il que cela change ?

Les régulateurs devraient apprendre du passé, cesser de croire que l’élite de la Silicon Valley agit dans l’intérêt de la population, du grand public, de la société dans son ensemble. Ils devraient réfléchir de manière très critique à la manière de s’assurer que les entreprises technologiques continuent de fournir leurs services, mais sans bâtir d’empires, car ce sont deux choses différentes.

Les gouvernants devraient réfléchir aux meilleures manières de réglementer les entreprises d’IA, non seulement en se penchant sur celles qui veulent produire des modèles d’IA, mais aussi en encadrant les données sur lesquelles ces entreprises sont autorisées à entraîner leurs modèles ; en se penchant sur l’interprétation des lois sur les droits d’auteur pour protéger le travail des artistes, des écrivains et des créateurs ; en s’intéressant à l’endroit où ces sociétés sont autorisées à construire des centres de données, à la quantité et aux sources d’énergie qu’elles ont droit d’utiliser, à la quantité d’eau douce à laquelle elles ont le droit de recourir. Il faudrait qu’ils régulent le type de protocoles de test auxquels les constructeurs d’IA doivent soumettre leurs systèmes avant de les déployer ; s’intéresser à l’impact de ces systèmes sur les enfants et sur les autres groupes vulnérables…

Très souvent, je finis par entendre que trop de réglementation pourrait faire disparaître l’innovation. C’est un discours trompeur, car en réalité, ne pas réglementer empêche l’innovation. Ces entreprises en sont arrivées à un point où elles n’ont plus aucune raison de faire quoi que ce soit pour l’intérêt public. Ce sont des entités totalement égoïstes, qui freinent clairement l’innovation.

Au cours du premier trimestre de cette année, près de 50 % des financements du capital-risque sont allés à OpenAI et Anthropic : c’est un coût d’opportunité énorme pour le reste du domaine de l’IA, mais aussi pour le reste de l’industrie technologique. Ces entreprises verrouillent une grande partie de l’innovation, ce qui réduit la capacité d’innover dans de nombreux autres domaines.

>> Comment comprenez-vous les récents mouvements d’employés d’OpenAI vers Meta ?

Il y a eu ces discussions autour des 100 millions de dollars de packages offerts par Meta…. À mon sens, ça illustre surtout la folie du montant des capitaux qui circulent dans cet espace. Peut-être que les régulateurs devraient commencer à plafonner les compensations que les entreprises offrent à leurs candidats.

Pour moi, cet épisode illustre à quel point ces entreprises sont dirigées par des personnes à l’ego démesuré, qui se battent les unes contre les autres pour créer leur propre version de l’IA, pour remodeler l’IA à leur image. L’une de mes plus grandes critiques à l’encontre de ces entreprises est qu’elles n’ont aucune structure de gouvernance : ce qu’elles font est purement basé sur les caprices et les décisions prises par la poignée de personnes à leur tête.

>> Comment la démocratie peut-elle se défendre face aux empires de l’IA ?

On a besoin de contestation démocratique depuis la base. Les gouvernants doivent faire leur travail, mais les gens ne peuvent pas attendre qu’ils réagissent, car ces entreprises ont été si efficaces pour capturer les gouvernements que peu de politiciens dans le monde adoptent des positions fortes pour les réglementer.

Des centaines de communautés protestent déjà contre la construction de centres de données, construits sans préoccupation de leur usage d’eau douce. Ces protestations ralentissent déjà leur développement, elles forcent l’ouverture de débats sur la question de savoir si oui ou non nous en avons besoin. D’autres personnes exercent leur droit à la vie privée pour tenter d’empêcher les entreprises d’exploiter leurs données. Des artistes se battent pour tenter d’obtenir de meilleures interprétations de la loi sur les droits d’auteur, ou bien utilisent des outils comme Nightshade, qui permet de faire en sorte que, si les sociétés d’IA utilisent leurs œuvres dans leurs données d’entrainement, alors celles-ci dégradent le modèle.

Il existe de multiples formes de protestation dans lesquelles les gens s’engagent et qui me paraissent être des formes de contestation démocratique. Nous avons autant besoin de cela que de faire en sorte que les régulateurs se réveillent.

  •  

☕️ La directrice du MI6 alerte sur le transfert de pouvoir du politique vers les géants tech

« Nous évoluons désormais dans un espace entre la paix et la guerre », a déclaré la nouvelle directrice du MI6, Blaise Metreweli, dans son premier discours public, le 15 décembre, avant de présenter le « réseaux entremêlé de défis de sécurité » à laquelle l’agence de renseignement extérieure britannique doit faire face.

Dans cette nouvelle « ère d’incertitude », « la ligne de front est partout » a-t-elle décrit, citant les menaces hybrides et informationnelles parmi les outils déployés par une Russie « agressive, expansionniste et révisionniste ».

Photo de Luke Stackpoole sur Unsplash

Et de citer les menaces « juste en dessous du seuil de la guerre » que pose le gouvernement de Vladimir Poutine, autant par le recours à des cyberattaques sur des infrastructures que par les apparitions croissantes de drones aux alentours d’aéroports civils.

Première femme à prendre la tête du MI6, toujours sous le nom de code « C », Blaise Metreweli a autant détaillé les mouvements géopolitiques à l’œuvre – suggérant implicitement de traiter différemment la Chine de la Russie – que décrit la maîtrise des technologies comme « défi déterminant du XXIe siècle ». En la matière, l’enjeu n’est pas seulement « de savoir qui détient les technologies les plus puissantes, mais aussi de savoir qui les guide avec la plus grande sagesse ».

En l’occurrence, « le pouvoir lui-même devient plus diffus, plus imprévisible, car le contrôle de ces technologies passe des États aux entreprises, et parfois même à des individus », a décrit la cheffe des espions britanniques.

Avant sa prise de poste le 1ᵉʳ octobre 2025, à la suite de Richard Moore, Blaise Metreweli dirigeait la division Innovation et Technologie du MI6.

  •  

☕️ La directrice du MI6 alerte sur le transfert de pouvoir du politique vers les géants tech

« Nous évoluons désormais dans un espace entre la paix et la guerre », a déclaré la nouvelle directrice du MI6, Blaise Metreweli, dans son premier discours public, le 15 décembre, avant de présenter le « réseaux entremêlé de défis de sécurité » à laquelle l’agence de renseignement extérieure britannique doit faire face.

Dans cette nouvelle « ère d’incertitude », « la ligne de front est partout » a-t-elle décrit, citant les menaces hybrides et informationnelles parmi les outils déployés par une Russie « agressive, expansionniste et révisionniste ».

Photo de Luke Stackpoole sur Unsplash

Et de citer les menaces « juste en dessous du seuil de la guerre » que pose le gouvernement de Vladimir Poutine, autant par le recours à des cyberattaques sur des infrastructures que par les apparitions croissantes de drones aux alentours d’aéroports civils.

Première femme à prendre la tête du MI6, toujours sous le nom de code « C », Blaise Metreweli a autant détaillé les mouvements géopolitiques à l’œuvre – suggérant implicitement de traiter différemment la Chine de la Russie – que décrit la maîtrise des technologies comme « défi déterminant du XXIe siècle ». En la matière, l’enjeu n’est pas seulement « de savoir qui détient les technologies les plus puissantes, mais aussi de savoir qui les guide avec la plus grande sagesse ».

En l’occurrence, « le pouvoir lui-même devient plus diffus, plus imprévisible, car le contrôle de ces technologies passe des États aux entreprises, et parfois même à des individus », a décrit la cheffe des espions britanniques.

Avant sa prise de poste le 1ᵉʳ octobre 2025, à la suite de Richard Moore, Blaise Metreweli dirigeait la division Innovation et Technologie du MI6.

  •  

Les publicitaires chinois, principaux exportateurs de publicités frauduleuses sur Meta

Modération à deux vitesses
Les publicitaires chinois, principaux exportateurs de publicités frauduleuses sur Meta

En diffusant des publicités à destination des pays extérieurs à la Chine, les entreprises chinoises forment l’une des principales sources de revenus publicitaires pour Meta. Alors qu’elles produisent un taux de publicités frauduleuses inégalé, la société de Mark Zuckerberg semble minimiser ses efforts de modération.

La Chine n’est pas un marché simple, pour Meta. La société de Mark Zuckerberg a beau s’être plié en quatre pour plaire aux autorités locales – y compris, accuse son ex-directrice des politiques publiques Sarah Wynn-Williams, en créant tout un système de censure –, Facebook, Instagram et consorts n’en sont pas moins interdits à la population locale depuis 2009.

Ce qui n’est pas interdit, en revanche, c’est de faire de la publicité sur ces plateformes, à destination d’un public étranger. Ce système publicitaire permet à des entreprises chinoises de toucher des millions de consommateurs à travers le globe, mais aussi de représenter 11 % du chiffre d’affaires global de Meta. Selon des documents internes obtenus par Reuters, Shein et Temu étaient les deux plus gros clients publicitaires de Meta dans le monde en 2024, devant Amazon.

Problème : près d’une publicité sur cinq promues sur Facebook, Instagram et consorts depuis la Chine constituent des violations flagrantes de ses conditions d’utilisation. 19 % de ces publicités consistent en des contenus de promotions d’arnaques, de jeux illégaux, ou encore de produits interdits.

Début novembre, une précédente enquête démontrait qu’à travers la planète, Meta réalisait près de 10 % de son chiffre d’affaires annuel, soit environ 16 milliards de dollars l’an dernier, à partir de publicités enfreignant ses propres politiques. En Europe, en revanche, l’entreprise a pris le parti d’adopter une lecture étendue du récent règlement sur la transparence et le ciblage de la publicité à caractère politique, pour y empêcher la publicité « politique, électorale et sur les sujets sociaux », privant des acteurs a priori légitimes d’un outil qu’ils utilisaient jusqu’ici régulièrement.

La Chine, principale pourvoyeuse de publicités problématiques

Rien qu’entre 2022 et 2024, les revenus publicitaires chinois ont fait plus que doubler, passant de 7,5 milliards de dollars à 18,4 milliards de dollars, pour atteindre près de 10 % du chiffre d’affaires global de Meta. En parallèle, il devenait de plus en plus évident qu’une large part de ces activités constituaient des pratiques frauduleuses.

En interne, Meta calcule que l’équivalent du quart de toutes les publicités frauduleuses diffusées dans ses systèmes viennent de Chine, selon les documents obtenus par Reuters. Un tel taux de fraude se traduit aussi en montant de revenus : au total, Meta aurait gagné près de 3 milliards de dollars en diffusant via ses systèmes publicitaires des contenus promouvant des arnaques, de la pornographie ou d’autres contenus illégaux.

Pendant la « Golden Week », des congés dont des millions de citoyens chinois profitent au mois d’octobre, le taux d’arnaques sur les plateformes de Meta décline à l’échelle mondiale.

Tentative avortée d’endiguer le phénomène

Les victimes, elles, se situent partout sur le globe, d’acheteurs taïwanais qui se retrouvent avec des compléments alimentaires inadaptés aux investisseurs d’Amérique du Nord allégés de leurs économies à la suite d’une arnaque quelconque. L’ampleur du problème est telle qu’en 2024, des équipes de la société de Mark Zuckerberg ont déclaré qu’il était nécessaire de réaliser « des investissements significatifs pour réduire ces dommages grandissants ». Pendant la seconde moitié de l’année 2024, une nouvelle équipe anti-fraude affectée spécifiquement à ce défi a réussi à réduire le total des publicités frauduleuses de 19 % à 9 % du chiffre d’affaires publicitaire total issu de Chine.

Et puis, à la fin de l’année passée, un nouveau document indiquait qu’à la suite d’un « revirement de la stratégie d’intégrité et du suivi de Zuck » (sic), l’équipe en question était « invitée à suspendre » ses activités. Auprès de Reuters, un porte-parole indique que Mark Zuckerberg n’a pas demandé la dissolution de l’équipe, mais de redoubler des efforts pour lutter contre les escroqueries « partout dans le monde ».

Dans un document de février 2025, des dirigeants de Meta écrivaient quoi qu’il en soit renoncer à chercher la « parité » entre la lutte contre la fraude publicitaire en Chine et ailleurs dans le monde. Alors que sa précédente tentative avait été proche de ramener le taux de fraude venu de Chine à une proportion similaire à celle constatée ailleurs, les efforts ont été abandonnés, au motif que le marché chinois serait spécifiquement « antagoniste ».

À la mi-2025, le phénomène avait repris une nouvelle ampleur, les publicités contrevenant aux politiques de Meta formant à nouveau 16 % des revenus de l’entreprise en Chine, pays qualifié sur certaines présentations de principal « pays exportateur d’escroqueries ».

Un réseau opaque d’intermédiaires

Pour faire vivre son activité publicitaire malgré les restrictions, Meta passe par un système spécifique à la Chine. Sur place, l’entreprise vend l’essentiel de ses publicités via 11 agences principales, qu’il qualifie dans des documents de « plus gros revendeurs » (top tier resellers).

Ces partenaires s’occupent ensuite d’animer un réseau de plus petites agences chinoises ou extérieures au pays, ou de vendre elles-mêmes des publicités. Les agences de deuxième niveau, elles, interagissent à leur tour avec une myriade de petites sociétés qui n’ont pas de lien direct avec Meta ou ses 11 plus grands partenaires. D’après ses documents internes, ce réseau complexe et opaque favorise la prolifération de publicités problématiques, promouvant des arnaques, des jeux illégaux ou des produits interdits.

Un audit de la société Propellerfish constate notamment la facilité avec laquelle un publicitaire peut se créer un compte utilisateur sur Facebook ou Instagram (un nom et une date de naissance suffisent), ou encore la multiplication de faux comptes. Le rapport souligne aussi l’éclosion d’une industrie complète de « spécialistes de l’optimisation publicitaire », dont le fonctionnement complet repose sur l’exploitation de failles dans les systèmes de vérification de Meta et sur la création et la diffusion de publicités pour des arnaques et des biens illégaux. Dans la mesure où ces contenus ne visent pas le public chinois, les autorités locales tendent à laisser faire, constate encore Propellerfish.

La modération des publicités est, elle aussi, sous-traitée aux partenaires de Meta. Dans la mesure où les entreprises ne peuvent pas atteindre normalement Facebook ou Instagram, Meta paie une commission de près de 10 % à ses 11 partenaires principaux pour que ces derniers permettent à leurs partenaires d’acheter des publicités et de les placer sur les plateformes dirigées par Mark Zuckerberg. Les publicités acquises par ces canaux profitent par ailleurs de protections spécifiques. Sur le terrain, relève Reuters, certains des grands partenaires de Meta en viennent à promouvoir explicitement leur capacité à outrepasser les contrôles de l’entreprise états-unienne.

Auprès de Reuters, un porte-parole de Meta indique que les systèmes de l’entreprise ont bloqué 46 millions de publicités soumises par ses partenaires chinois dans les 18 derniers mois, généralement avant que le public n’y soit exposé, et que cela faisait partie intégrante de ses processus habituels de modération.

  •  

Les publicitaires chinois, principaux exportateurs de publicités frauduleuses sur Meta

Modération à deux vitesses
Les publicitaires chinois, principaux exportateurs de publicités frauduleuses sur Meta

En diffusant des publicités à destination des pays extérieurs à la Chine, les entreprises chinoises forment l’une des principales sources de revenus publicitaires pour Meta. Alors qu’elles produisent un taux de publicités frauduleuses inégalé, la société de Mark Zuckerberg semble minimiser ses efforts de modération.

La Chine n’est pas un marché simple, pour Meta. La société de Mark Zuckerberg a beau s’être plié en quatre pour plaire aux autorités locales – y compris, accuse son ex-directrice des politiques publiques Sarah Wynn-Williams, en créant tout un système de censure –, Facebook, Instagram et consorts n’en sont pas moins interdits à la population locale depuis 2009.

Ce qui n’est pas interdit, en revanche, c’est de faire de la publicité sur ces plateformes, à destination d’un public étranger. Ce système publicitaire permet à des entreprises chinoises de toucher des millions de consommateurs à travers le globe, mais aussi de représenter 11 % du chiffre d’affaires global de Meta. Selon des documents internes obtenus par Reuters, Shein et Temu étaient les deux plus gros clients publicitaires de Meta dans le monde en 2024, devant Amazon.

Problème : près d’une publicité sur cinq promues sur Facebook, Instagram et consorts depuis la Chine constituent des violations flagrantes de ses conditions d’utilisation. 19 % de ces publicités consistent en des contenus de promotions d’arnaques, de jeux illégaux, ou encore de produits interdits.

Début novembre, une précédente enquête démontrait qu’à travers la planète, Meta réalisait près de 10 % de son chiffre d’affaires annuel, soit environ 16 milliards de dollars l’an dernier, à partir de publicités enfreignant ses propres politiques. En Europe, en revanche, l’entreprise a pris le parti d’adopter une lecture étendue du récent règlement sur la transparence et le ciblage de la publicité à caractère politique, pour y empêcher la publicité « politique, électorale et sur les sujets sociaux », privant des acteurs a priori légitimes d’un outil qu’ils utilisaient jusqu’ici régulièrement.

La Chine, principale pourvoyeuse de publicités problématiques

Rien qu’entre 2022 et 2024, les revenus publicitaires chinois ont fait plus que doubler, passant de 7,5 milliards de dollars à 18,4 milliards de dollars, pour atteindre près de 10 % du chiffre d’affaires global de Meta. En parallèle, il devenait de plus en plus évident qu’une large part de ces activités constituaient des pratiques frauduleuses.

En interne, Meta calcule que l’équivalent du quart de toutes les publicités frauduleuses diffusées dans ses systèmes viennent de Chine, selon les documents obtenus par Reuters. Un tel taux de fraude se traduit aussi en montant de revenus : au total, Meta aurait gagné près de 3 milliards de dollars en diffusant via ses systèmes publicitaires des contenus promouvant des arnaques, de la pornographie ou d’autres contenus illégaux.

Pendant la « Golden Week », des congés dont des millions de citoyens chinois profitent au mois d’octobre, le taux d’arnaques sur les plateformes de Meta décline à l’échelle mondiale.

Tentative avortée d’endiguer le phénomène

Les victimes, elles, se situent partout sur le globe, d’acheteurs taïwanais qui se retrouvent avec des compléments alimentaires inadaptés aux investisseurs d’Amérique du Nord allégés de leurs économies à la suite d’une arnaque quelconque. L’ampleur du problème est telle qu’en 2024, des équipes de la société de Mark Zuckerberg ont déclaré qu’il était nécessaire de réaliser « des investissements significatifs pour réduire ces dommages grandissants ». Pendant la seconde moitié de l’année 2024, une nouvelle équipe anti-fraude affectée spécifiquement à ce défi a réussi à réduire le total des publicités frauduleuses de 19 % à 9 % du chiffre d’affaires publicitaire total issu de Chine.

Et puis, à la fin de l’année passée, un nouveau document indiquait qu’à la suite d’un « revirement de la stratégie d’intégrité et du suivi de Zuck » (sic), l’équipe en question était « invitée à suspendre » ses activités. Auprès de Reuters, un porte-parole indique que Mark Zuckerberg n’a pas demandé la dissolution de l’équipe, mais de redoubler des efforts pour lutter contre les escroqueries « partout dans le monde ».

Dans un document de février 2025, des dirigeants de Meta écrivaient quoi qu’il en soit renoncer à chercher la « parité » entre la lutte contre la fraude publicitaire en Chine et ailleurs dans le monde. Alors que sa précédente tentative avait été proche de ramener le taux de fraude venu de Chine à une proportion similaire à celle constatée ailleurs, les efforts ont été abandonnés, au motif que le marché chinois serait spécifiquement « antagoniste ».

À la mi-2025, le phénomène avait repris une nouvelle ampleur, les publicités contrevenant aux politiques de Meta formant à nouveau 16 % des revenus de l’entreprise en Chine, pays qualifié sur certaines présentations de principal « pays exportateur d’escroqueries ».

Un réseau opaque d’intermédiaires

Pour faire vivre son activité publicitaire malgré les restrictions, Meta passe par un système spécifique à la Chine. Sur place, l’entreprise vend l’essentiel de ses publicités via 11 agences principales, qu’il qualifie dans des documents de « plus gros revendeurs » (top tier resellers).

Ces partenaires s’occupent ensuite d’animer un réseau de plus petites agences chinoises ou extérieures au pays, ou de vendre elles-mêmes des publicités. Les agences de deuxième niveau, elles, interagissent à leur tour avec une myriade de petites sociétés qui n’ont pas de lien direct avec Meta ou ses 11 plus grands partenaires. D’après ses documents internes, ce réseau complexe et opaque favorise la prolifération de publicités problématiques, promouvant des arnaques, des jeux illégaux ou des produits interdits.

Un audit de la société Propellerfish constate notamment la facilité avec laquelle un publicitaire peut se créer un compte utilisateur sur Facebook ou Instagram (un nom et une date de naissance suffisent), ou encore la multiplication de faux comptes. Le rapport souligne aussi l’éclosion d’une industrie complète de « spécialistes de l’optimisation publicitaire », dont le fonctionnement complet repose sur l’exploitation de failles dans les systèmes de vérification de Meta et sur la création et la diffusion de publicités pour des arnaques et des biens illégaux. Dans la mesure où ces contenus ne visent pas le public chinois, les autorités locales tendent à laisser faire, constate encore Propellerfish.

La modération des publicités est, elle aussi, sous-traitée aux partenaires de Meta. Dans la mesure où les entreprises ne peuvent pas atteindre normalement Facebook ou Instagram, Meta paie une commission de près de 10 % à ses 11 partenaires principaux pour que ces derniers permettent à leurs partenaires d’acheter des publicités et de les placer sur les plateformes dirigées par Mark Zuckerberg. Les publicités acquises par ces canaux profitent par ailleurs de protections spécifiques. Sur le terrain, relève Reuters, certains des grands partenaires de Meta en viennent à promouvoir explicitement leur capacité à outrepasser les contrôles de l’entreprise états-unienne.

Auprès de Reuters, un porte-parole de Meta indique que les systèmes de l’entreprise ont bloqué 46 millions de publicités soumises par ses partenaires chinois dans les 18 derniers mois, généralement avant que le public n’y soit exposé, et que cela faisait partie intégrante de ses processus habituels de modération.

  •  

☕️ Pornhub victime d’extorsion après le vol de données d’abonnés Premium

Pornhub a indiqué compter parmi les victimes de l’attaque du vendeur de données analytiques Mixpanel, dont les services ont été mis à mal le 8 novembre 2025 après un phishing SMS (smishing).

D’après BleepingComputer, la plateforme pornographique a reçu un message d’extorsion dans lequel le groupe ShinyHunters affirme avoir volé 94 Go de données contenant plus de 200 millions d’historiques de recherche, de consommation et de téléchargements de vidéos par des membres Premium.

L’attaque a touché « certains utilisateurs Premium » de Pornhub, indique l’entreprise dans son alerte de sécurité, avant de préciser : « Il est important de noter qu’il ne s’agit pas d’une faille du système de gestion des usagers Premium de Pornhub. Les mots de passe, détails de paiements et informations financières restent en sécurité et n’ont pas été exposés. »

La plateforme précise avoir cessé de travailler avec Mixpanel depuis 2021, et que la fuite concerne des données analytiques historiques remontant à 2021 ou plus tôt.

BleepingComputer indique de son côté que les données comprennent des adresses mails de membres, des éléments de géolocalisation, le type d’activité, les URL et titres de vidéos, les mots clés associés à ces éléments, et l’heure des visionnages ou téléchargements.

Auprès du média, MixPanel indique : « Nous n’avons trouvé aucune indication selon laquelle ces données seraient issues du vol de Mixpanel lors de notre incident de sécurité de novembre 2025 ou à un autre moment. »

Pour le service d’analyse de données, si des informations de Pornhub « sont entre les mains d’un acteur non autorisé », cela ne serait pas le résultat de ses propres déboires. Parmi les acteurs concernés par son attaque par smishing, MixPanel cite OpenAI et CoinTracker.

ShinyHunters est à l’origine de nombreuses attaques ces dernières années, contre Ticketmaster, Stellantis et d’autres. En janvier 2024, un hacker français a été condamné à trois ans de prison aux États-Unis pour avoir participé à ses activités.

  •  

☕️ Pornhub victime d’extorsion après le vol de données d’abonnés Premium

Pornhub a indiqué compter parmi les victimes de l’attaque du vendeur de données analytiques Mixpanel, dont les services ont été mis à mal le 8 novembre 2025 après un phishing SMS (smishing).

D’après BleepingComputer, la plateforme pornographique a reçu un message d’extorsion dans lequel le groupe ShinyHunters affirme avoir volé 94 Go de données contenant plus de 200 millions d’historiques de recherche, de consommation et de téléchargements de vidéos par des membres Premium.

L’attaque a touché « certains utilisateurs Premium » de Pornhub, indique l’entreprise dans son alerte de sécurité, avant de préciser : « Il est important de noter qu’il ne s’agit pas d’une faille du système de gestion des usagers Premium de Pornhub. Les mots de passe, détails de paiements et informations financières restent en sécurité et n’ont pas été exposés. »

La plateforme précise avoir cessé de travailler avec Mixpanel depuis 2021, et que la fuite concerne des données analytiques historiques remontant à 2021 ou plus tôt.

BleepingComputer indique de son côté que les données comprennent des adresses mails de membres, des éléments de géolocalisation, le type d’activité, les URL et titres de vidéos, les mots clés associés à ces éléments, et l’heure des visionnages ou téléchargements.

Auprès du média, MixPanel indique : « Nous n’avons trouvé aucune indication selon laquelle ces données seraient issues du vol de Mixpanel lors de notre incident de sécurité de novembre 2025 ou à un autre moment. »

Pour le service d’analyse de données, si des informations de Pornhub « sont entre les mains d’un acteur non autorisé », cela ne serait pas le résultat de ses propres déboires. Parmi les acteurs concernés par son attaque par smishing, MixPanel cite OpenAI et CoinTracker.

ShinyHunters est à l’origine de nombreuses attaques ces dernières années, contre Ticketmaster, Stellantis et d’autres. En janvier 2024, un hacker français a été condamné à trois ans de prison aux États-Unis pour avoir participé à ses activités.

  •  

☕️ Viginum et Inria créent un prix de la recherche contre les manipulations de l’information

Le service de vigilance et de protection contre les ingérences numériques étrangères Viginum et l’Institut national de recherche en sciences et technologies du numérique Inria s’associent pour créer un prix distinguant chaque année des « travaux scientifiques européens de haut niveau » dans les « sciences du numérique appliquées à la lutte contre les manipulations de l’information (LMI) ».

Doté de 5 000 euros pour le prix du jury, 2 000 euros pour le prix de l’innovation et 1 000 euros pour le prix du jeune chercheur, le prix Viginum-Inria valorise des articles de scientifiques de l’Union européenne, publiés ou acceptés depuis moins de trois ans dans une revue ou une conférence scientifique nationale ou internationale. 


Les travaux doivent contribuer à l’amélioration de la détection, de l’analyse ou de la lutte contre les ingérences numériques étrangères, et peuvent relever d’une variété de disciplines (sciences des données, intelligence artificielle, sciences sociales computationnelles, traitement du signal, algorithmique et modélisation des réseaux).

Des chercheurs en noir et blanc regardent une fiole sur laquelle est écrit

L’appel à candidatures a ouvert ce 15 décembre et court jusqu’au samedi 14 février 2026 à minuit.

Les candidatures doivent être déposées sur la plateforme dédiée : pvi-lmi.sciencescall.org

  •  

☕️ Viginum et Inria créent un prix de la recherche contre les manipulations de l’information

Le service de vigilance et de protection contre les ingérences numériques étrangères Viginum et l’Institut national de recherche en sciences et technologies du numérique Inria s’associent pour créer un prix distinguant chaque année des « travaux scientifiques européens de haut niveau » dans les « sciences du numérique appliquées à la lutte contre les manipulations de l’information (LMI) ».

Doté de 5 000 euros pour le prix du jury, 2 000 euros pour le prix de l’innovation et 1 000 euros pour le prix du jeune chercheur, le prix Viginum-Inria valorise des articles de scientifiques de l’Union européenne, publiés ou acceptés depuis moins de trois ans dans une revue ou une conférence scientifique nationale ou internationale. 


Les travaux doivent contribuer à l’amélioration de la détection, de l’analyse ou de la lutte contre les ingérences numériques étrangères, et peuvent relever d’une variété de disciplines (sciences des données, intelligence artificielle, sciences sociales computationnelles, traitement du signal, algorithmique et modélisation des réseaux).

Des chercheurs en noir et blanc regardent une fiole sur laquelle est écrit

L’appel à candidatures a ouvert ce 15 décembre et court jusqu’au samedi 14 février 2026 à minuit.

Les candidatures doivent être déposées sur la plateforme dédiée : pvi-lmi.sciencescall.org

  •  

Sur Amazon, les écrivains face à l’IA générative

AI book club
Sur Amazon, les écrivains face à l’IA générative

En déployant sur Kindle deux fonctionnalités appuyées sur de l’IA générative, Amazon ouvre de nouveaux débats sur les effets de ces technologies sur les œuvres littéraires, alors que la gestion de l’entreprise des textes générés par IA est déjà critiquée.

De nouvelles fonctionnalités alimentées à l’intelligence artificielle sur Kindle ! Le 10 décembre, au milieu d’autres annonces, Amazon indiquait ajouter à sa gamme de liseuses une fonctionnalité pour rattraper votre retard sur ce qui a déjà été lu, et une autre dédiée à surligner certains passages et obtenir des réponses sur le récit, « sans divulgâchage ».

Respectivement nommées « Story So Far » (l’histoire jusqu’ici) et « Ask this Book » (Demandez à ce livre), ces outils seront rendus disponibles d’ici la fin de l’année aux États-Unis sur l’application iOS de Kindle, puis début 2026 sur tous les appareils et les applications adaptées à Android. L’évolution soulève de nouvelles questions sur les droits des autrices et auteurs, alors que la gestion des outils et applications d’intelligence artificielle génératives par la plateforme de Jeff Bezos sont déjà critiqués par de multiples autrices et auteurs.

Un chatbot obligatoire dans les ouvrages de langue anglaise

Avec l’« assistant de lecture » Ask this Book, Amazon propose dans les faits un robot conversationnel intégré aux livres lus. Interrogé sur la possibilité, pour les écrivains qui le souhaiteraient, de retirer leurs œuvres de celles permettant de recourir à la fonctionnalité Ask this Book, un porte-parole d’Amazon a répondu au média spécialisé Publishers Lunch : « Pour garantir la cohérence de l’expérience de lecture, cette fonctionnalité est toujours activée et les auteurs ou éditeurs n’ont pas la possibilité de désactiver certains titres ».

Auprès du média, divers éditeurs et agents littéraires indiquent n’avoir pas été informés du déploiement de la fonctionnalité par Amazon, et avancent le besoin de réaliser des audits « légaux et techniques » pour comprendre les implications du déploiement de ces outils sur des œuvres soumises aux droits d’auteur.

Le lancement de fonctionnalités présentées uniquement d’un point de vue technique, malgré leurs potentielles retombées en termes de droits d’auteur, a déjà eu lieu, rappelle Writer Beware. En 2009, pour le Kindle 2, l’entreprise déployait par exemple une fonctionnalité de lecture automatique, qu’un représentant de la société décrivait en ces termes : « Ce ne sont pas des audiobooks. Le text to speech n’est qu’un logiciel qui fonctionne sur les équipements et lit du contenu. » À l’époque, les critiques des ayants-droits avaient été telles qu’Amazon avait finalement accepté de rendre l’outil optionnel.

La gestion de l’IA générative par Amazon, un enjeu à part entière

Au fil des trois dernières années, plus particulièrement, l’intelligence artificielle générative a créé tout un jeu de nouvelles questions. À l’échelle de l’industrie, il y a celle du droit des auteurs et autrices dont les œuvres ont été utilisées pour entraîner les modèles eux-mêmes, bataille autour de laquelle une soixantaine de plaintes ont été déposées rien qu’aux États-Unis, et au moins une dizaine d’autres en Europe.

Vis-à-vis d’Amazon, en revanche, les débats liés à l’IA se jouent plutôt du côté de certaines fonctionnalités : sur la plateforme d’auto-édition du géant de l’e-commerce, Kindle Direct Publishing (KDP), l’entreprise a publié en novembre un outil de traduction automatique, Kindle Translate. Celui-ci est présenté comme la fonctionnalité qui permettra aux autrices et auteurs de langue anglaise de toucher un public hispanophone ou germanophone, et inversement. Une pierre de plus dans le jardin des professionnels de la traduction, dont les métiers sont particulièrement touchés par l’apparition des outils d’IA générative.

Surtout, l’essentiel des frictions se concentrait jusqu’ici sur le fonctionnement de sa place de marché et sur la manière dont les œuvres atteignent leur public. Dès le lancement d’outils d’IA générative facilement utilisables par le grand public, le nombre de livres écrits grâce à, voire entièrement par IA a explosé. Dans certains cas, ils sont venus peupler de nouvelles niches de publication, comme celle des livres sur l’utilisation de ChatGPT entièrement écrits par ChatGPT.

Dans d’autres, en revanche, le nom de vraies écrivaines, dont celui de Sam Blake, nom de plume de Vanessa Fox O’Loughlin, s’est retrouvé accolé à celui de productions que celle-ci qualifie de « Sam Fakes », de « faible qualité » et générés par IA. Présidente du syndicat états-unien Society of Authors (SoA), cette dernière appelle Amazon à améliorer ses protections contre les « contrefaçons », alors que ces « faux » livres ont été commercialisés grâce à son nom. Depuis, les faux livres de Sam Blake ont vu le nom de leur autrice modifié, mais Amazon ne les a pas supprimés de sa plateforme, selon The Bookseller.

En 2023, une autre autrice, Jane Friedman, avait dû se battre pour obtenir d’Amazon le retrait d’ouvrages qui n’avaient pas été écrits par elle. Près de trois ans après ces premières alertes, la plateforme de vente de livres reste décrite comme remplie d’ouvrages d’ « AI slop », c’est-à-dire de « bouillie d’IA », susceptibles de tromper les consommateurs, tout en privant autrices et auteurs d’une partie des revenus qui auraient pu leur échoir sans cette concurrence automatisée.

Sur les sujets les plus sensibles, notamment ceux liés à divers troubles comme ceux de l’attention, des auteurs en appellent à la responsabilité éthique de l’entreprise à ne pas permettre à des contenus de désinformation de rester en ligne. Mais le modèle d’affaires de l’entreprise est tel qu’elle tire profit de chaque vente, indépendamment du contenu concerné, ce qui lui donne peu d’intérêt à agir concrètement.

  •  

Sur Amazon, les écrivains face à l’IA générative

AI book club
Sur Amazon, les écrivains face à l’IA générative

En déployant sur Kindle deux fonctionnalités appuyées sur de l’IA générative, Amazon ouvre de nouveaux débats sur les effets de ces technologies sur les œuvres littéraires, alors que la gestion de l’entreprise des textes générés par IA est déjà critiquée.

De nouvelles fonctionnalités alimentées à l’intelligence artificielle sur Kindle ! Le 10 décembre, au milieu d’autres annonces, Amazon indiquait ajouter à sa gamme de liseuses une fonctionnalité pour rattraper votre retard sur ce qui a déjà été lu, et une autre dédiée à surligner certains passages et obtenir des réponses sur le récit, « sans divulgâchage ».

Respectivement nommées « Story So Far » (l’histoire jusqu’ici) et « Ask this Book » (Demandez à ce livre), ces outils seront rendus disponibles d’ici la fin de l’année aux États-Unis sur l’application iOS de Kindle, puis début 2026 sur tous les appareils et les applications adaptées à Android. L’évolution soulève de nouvelles questions sur les droits des autrices et auteurs, alors que la gestion des outils et applications d’intelligence artificielle génératives par la plateforme de Jeff Bezos sont déjà critiqués par de multiples autrices et auteurs.

Un chatbot obligatoire dans les ouvrages de langue anglaise

Avec l’« assistant de lecture » Ask this Book, Amazon propose dans les faits un robot conversationnel intégré aux livres lus. Interrogé sur la possibilité, pour les écrivains qui le souhaiteraient, de retirer leurs œuvres de celles permettant de recourir à la fonctionnalité Ask this Book, un porte-parole d’Amazon a répondu au média spécialisé Publishers Lunch : « Pour garantir la cohérence de l’expérience de lecture, cette fonctionnalité est toujours activée et les auteurs ou éditeurs n’ont pas la possibilité de désactiver certains titres ».

Auprès du média, divers éditeurs et agents littéraires indiquent n’avoir pas été informés du déploiement de la fonctionnalité par Amazon, et avancent le besoin de réaliser des audits « légaux et techniques » pour comprendre les implications du déploiement de ces outils sur des œuvres soumises aux droits d’auteur.

Le lancement de fonctionnalités présentées uniquement d’un point de vue technique, malgré leurs potentielles retombées en termes de droits d’auteur, a déjà eu lieu, rappelle Writer Beware. En 2009, pour le Kindle 2, l’entreprise déployait par exemple une fonctionnalité de lecture automatique, qu’un représentant de la société décrivait en ces termes : « Ce ne sont pas des audiobooks. Le text to speech n’est qu’un logiciel qui fonctionne sur les équipements et lit du contenu. » À l’époque, les critiques des ayants-droits avaient été telles qu’Amazon avait finalement accepté de rendre l’outil optionnel.

La gestion de l’IA générative par Amazon, un enjeu à part entière

Au fil des trois dernières années, plus particulièrement, l’intelligence artificielle générative a créé tout un jeu de nouvelles questions. À l’échelle de l’industrie, il y a celle du droit des auteurs et autrices dont les œuvres ont été utilisées pour entraîner les modèles eux-mêmes, bataille autour de laquelle une soixantaine de plaintes ont été déposées rien qu’aux États-Unis, et au moins une dizaine d’autres en Europe.

Vis-à-vis d’Amazon, en revanche, les débats liés à l’IA se jouent plutôt du côté de certaines fonctionnalités : sur la plateforme d’auto-édition du géant de l’e-commerce, Kindle Direct Publishing (KDP), l’entreprise a publié en novembre un outil de traduction automatique, Kindle Translate. Celui-ci est présenté comme la fonctionnalité qui permettra aux autrices et auteurs de langue anglaise de toucher un public hispanophone ou germanophone, et inversement. Une pierre de plus dans le jardin des professionnels de la traduction, dont les métiers sont particulièrement touchés par l’apparition des outils d’IA générative.

Surtout, l’essentiel des frictions se concentrait jusqu’ici sur le fonctionnement de sa place de marché et sur la manière dont les œuvres atteignent leur public. Dès le lancement d’outils d’IA générative facilement utilisables par le grand public, le nombre de livres écrits grâce à, voire entièrement par IA a explosé. Dans certains cas, ils sont venus peupler de nouvelles niches de publication, comme celle des livres sur l’utilisation de ChatGPT entièrement écrits par ChatGPT.

Dans d’autres, en revanche, le nom de vraies écrivaines, dont celui de Sam Blake, nom de plume de Vanessa Fox O’Loughlin, s’est retrouvé accolé à celui de productions que celle-ci qualifie de « Sam Fakes », de « faible qualité » et générés par IA. Présidente du syndicat états-unien Society of Authors (SoA), cette dernière appelle Amazon à améliorer ses protections contre les « contrefaçons », alors que ces « faux » livres ont été commercialisés grâce à son nom. Depuis, les faux livres de Sam Blake ont vu le nom de leur autrice modifié, mais Amazon ne les a pas supprimés de sa plateforme, selon The Bookseller.

En 2023, une autre autrice, Jane Friedman, avait dû se battre pour obtenir d’Amazon le retrait d’ouvrages qui n’avaient pas été écrits par elle. Près de trois ans après ces premières alertes, la plateforme de vente de livres reste décrite comme remplie d’ouvrages d’ « AI slop », c’est-à-dire de « bouillie d’IA », susceptibles de tromper les consommateurs, tout en privant autrices et auteurs d’une partie des revenus qui auraient pu leur échoir sans cette concurrence automatisée.

Sur les sujets les plus sensibles, notamment ceux liés à divers troubles comme ceux de l’attention, des auteurs en appellent à la responsabilité éthique de l’entreprise à ne pas permettre à des contenus de désinformation de rester en ligne. Mais le modèle d’affaires de l’entreprise est tel qu’elle tire profit de chaque vente, indépendamment du contenu concerné, ce qui lui donne peu d’intérêt à agir concrètement.

  •  

☕️ Les faux comptes d’actualités, un business à part entière sur TikTok

Utiliser l’IA pour créer des contenus à la chaîne et obtenir de l’argent de géants numériques, voilà une dynamique que nous couvrons régulièrement chez Next, en particulier du côté de Google. 
Sur TikTok, dans une dynamique similaire, des internautes s’appuient sur des images et vidéos d’illustrations et des voix-off générées par IA pour créer de faux contenus d’actualité.

Le but : faire le buzz, monétiser les clips, et ainsi obtenir des rémunérations.

Auprès de l’Agence France Presse (AFP), Victor, 29 ans, affirme par exemple gagner entre 1 500 et 4 500 euros bruts par mois.

Maxime, 19 ans, qui vient de se lancer dans ce type d’activité, a de son côté récupéré l’accès au programme de monétisation et 60 euros après le buzz d’un deepfake de la dirigeante italienne Georgia Meloni, en novembre.

Ce type de vidéos contrevient normalement aux règles du « Creator Rewards Program », qui permet aux comptes de plus de 10 000 abonnés, cumulant 100 000 vues sur les 30 derniers jours et aux vidéos de plus d’une minute d’être monétisées.

À l’AFP, TikTok assure d’ailleurs prendre des mesures « contre la désinformation ».

Mais du côté du public, les contenus présentant de faux faits divers ou évoquant de faux couvre-feux pour les mineurs après 23 h attirent énormément de commentaires, partages et réactions, autant d’indicateurs qui permettent de faire grimper les potentielles rémunérations.

  •  

☕️ Les faux comptes d’actualités, un business à part entière sur TikTok

Utiliser l’IA pour créer des contenus à la chaîne et obtenir de l’argent de géants numériques, voilà une dynamique que nous couvrons régulièrement chez Next, en particulier du côté de Google. 
Sur TikTok, dans une dynamique similaire, des internautes s’appuient sur des images et vidéos d’illustrations et des voix-off générées par IA pour créer de faux contenus d’actualité.

Le but : faire le buzz, monétiser les clips, et ainsi obtenir des rémunérations.

Auprès de l’Agence France Presse (AFP), Victor, 29 ans, affirme par exemple gagner entre 1 500 et 4 500 euros bruts par mois.

Maxime, 19 ans, qui vient de se lancer dans ce type d’activité, a de son côté récupéré l’accès au programme de monétisation et 60 euros après le buzz d’un deepfake de la dirigeante italienne Georgia Meloni, en novembre.

Ce type de vidéos contrevient normalement aux règles du « Creator Rewards Program », qui permet aux comptes de plus de 10 000 abonnés, cumulant 100 000 vues sur les 30 derniers jours et aux vidéos de plus d’une minute d’être monétisées.

À l’AFP, TikTok assure d’ailleurs prendre des mesures « contre la désinformation ».

Mais du côté du public, les contenus présentant de faux faits divers ou évoquant de faux couvre-feux pour les mineurs après 23 h attirent énormément de commentaires, partages et réactions, autant d’indicateurs qui permettent de faire grimper les potentielles rémunérations.

  •  

☕️ Deloitte de nouveau accusé d’avoir rendu un rapport en partie généré par IA

Fin novembre, au Canada, le gouvernement de Terre-Neuve-et-Labrador a dû demander à Deloitte de reprendre son travail après y avoir trouvé des citations erronées.

Pour 1,6 million de dollars canadiens (près d’1 million d’euros), d’après le média The Independent, la société de consultants avait rendu un rapport de 526 pages proposant un plan de dotation pour le secteur de la santé de la province canadienne.

Dans au moins deux cas, les noms de chercheurs réels ont été mentionnés alors que ces derniers n’étaient pas les auteurs des articles fictifs cités. 
Parmi eux, Martha McLeod, professeure émérite à l’Université du nord de la Colombie-Britannique, a déclaré ses citations « fausses » et « potentiellement générées par IA ».

Le but du rapport incluant lesdites citations est de proposer une série de mesures relatives aux soins à distance, aux incitations financières, de rétention et au recrutement de personnel de santé, ou encore aux répercussions de la pandémie de Covid-19 sur le personnel de santé.

Deloitte a reconnu la présence de citations erronées, tout en indiquant que l’intelligence artificielle n’avait « pas été utilisée pour la rédaction du rapport », mais simplement utilisée « de manière sélective pour étayer certaines citations de recherche ». 


Moins de deux mois avant cette affaire, Deloitte reconnaissait avoir rendu un rapport partiellement généré par IA au gouvernement australien et s’engageait à rembourser une partie des 439 000 dollars australiens (245 500 euros) déboursés pour obtenir cet audit du système informatique dédié à automatiser les sanctions dans le système social local.

  •  

☕️ Deloitte de nouveau accusé d’avoir rendu un rapport en partie généré par IA

Fin novembre, au Canada, le gouvernement de Terre-Neuve-et-Labrador a dû demander à Deloitte de reprendre son travail après y avoir trouvé des citations erronées.

Pour 1,6 million de dollars canadiens (près d’1 million d’euros), d’après le média The Independent, la société de consultants avait rendu un rapport de 526 pages proposant un plan de dotation pour le secteur de la santé de la province canadienne.

Dans au moins deux cas, les noms de chercheurs réels ont été mentionnés alors que ces derniers n’étaient pas les auteurs des articles fictifs cités. 
Parmi eux, Martha McLeod, professeure émérite à l’Université du nord de la Colombie-Britannique, a déclaré ses citations « fausses » et « potentiellement générées par IA ».

Le but du rapport incluant lesdites citations est de proposer une série de mesures relatives aux soins à distance, aux incitations financières, de rétention et au recrutement de personnel de santé, ou encore aux répercussions de la pandémie de Covid-19 sur le personnel de santé.

Deloitte a reconnu la présence de citations erronées, tout en indiquant que l’intelligence artificielle n’avait « pas été utilisée pour la rédaction du rapport », mais simplement utilisée « de manière sélective pour étayer certaines citations de recherche ». 


Moins de deux mois avant cette affaire, Deloitte reconnaissait avoir rendu un rapport partiellement généré par IA au gouvernement australien et s’engageait à rembourser une partie des 439 000 dollars australiens (245 500 euros) déboursés pour obtenir cet audit du système informatique dédié à automatiser les sanctions dans le système social local.

  •  

Voitures, datacenters : RTE appelle à accélérer l’électrification des usages

Electric feel
Voitures, datacenters : RTE appelle à accélérer l’électrification des usages

Dans son bilan prévisionnel annuel, RTE se fait l’avocat de l’accélération de l’électrification des usages pour assurer un meilleur équilibre entre consommation et production d’électricité.

Il faut accélérer l’électrification de la société française. C’est le constat principal que dresse RTE, le réseau public de transport d’électricité, dans son bilan prévisionnel 2025 – 2035.

Parmi ses missions, le gestionnaire doit anticiper l’équilibre entre l’offre et la demande d’électricité. Dans cet exercice annuel, RTE s’était penché en 2023 sur les stratégies permettant d’atteindre la neutralité carbone en 2050, scénarios qui permettraient d’obtenir des « bénéfices stratégiques et climatiques considérables », à commencer par une moindre dépendance aux sources d’énergie fossile et la réduction des pollutions associées à leur usage.

En cette fin 2025, RTE constate que la consommation électrique est « demeurée atone » depuis la pandémie de Covid-19 (elle reste inférieure de 6 % à son niveau de 2019), quand la production d’énergies renouvelables (hydraulique comprise) et nucléaire ont progressé. Le gestionnaire actualise donc ses prévisions, tout en détaillant les enjeux posés par l’actuelle surcapacité électrique de la France.

Si cette dernière n’est pas neuve – « dès la seconde partie des années 1980, la production d’électricité française est devenue structurellement excédentaire par rapport à la consommation » –, l’épisode de surcapacité actuel pourrait devenir préoccupant, notamment pour le poids qu’il créerait sur les dépenses publiques. Étudiant divers scénarios de décarbonation, RTE plaide pour une accélération de l’électrification des usages et pour la concrétisation de la majorité des projets industriels prévus, notamment dans l’industrie des centres de données.

Promotion de la décarbonation rapide

La stratégie de décarbonation de la France est autant un enjeu climatique que géostratégique, rappelle le document. À l’heure actuelle, l’import d’énergies fossiles (pétrole, gaz et charbon) constitue toujours près de 60 % de l’énergie finale consommée en France. Elles pèsent pour 50 à 70 milliards d’euros dans les factures nationales annuelles. Du côté de l’électricité, la France a battu son record historique d’exportations avec 89 TWh en 2024.

Pour répondre à ces enjeux, RTE a développé ses capacités de production électrique en rétablissant les capacités nucléaires à la suite de la pandémie, mais aussi en accélérant celles de production d’énergies renouvelables. Et de souligner : vu l’état du réseau comme de la production, « les risques de conflits d’usage entre filières à électrifier sont écartés ». À court terme, le problème réside plutôt dans la relative stabilité de la consommation électrique.

RTE se penche donc sur deux scénarios : un de décarbonation rapide, qui conduirait à une augmentation toute aussi rapide de la consommation électrique, pour parvenir à 510 térawattheures (TWh) en 2030 et 580 TWh en 2035. Un autre, de « décarbonation lente », prévoit tout de même une augmentation de la consommation électrique, mais de 25 TWh seulement par rapport à la consommation actuelle, pour n’atteindre que 470 TWh en 2030 et 505 TWh en 2035. En 2024, la consommation française (corrigée des aléas météorologiques) était de 449 TWh, en hausse de 3 TWh (+ 0,7 %) sur un an.

En pratique, RTE appelle à la concrétisation, d’ici 2030, de 60 % des projets prévus en termes de production d’hydrogène, de développement de centres de données et d’autres projets industriels, ce qui permettrait d’augmenter leur consommation à 15 TWh par an pour le premier secteur, 15 TWh par an pour le deuxième (contre 5 TWh aujourd’hui) et 113 TWh par an pour les derniers.

Comme les deux derniers consomment de l’électricité mais ne réduisent pas pour autant les émissions de CO₂ (tandis que l’hydrogène produit électriquement remplacerait, lui, l’hydrogène produit par extraction chimique de combustibles fossiles), cette évolution ne peut se faire sans une évolution des usages d’énergie fossile, notamment du côté des transports. En la matière, RTE appelle à une augmentation de 17 TWh de la consommation électrique associée aux voitures électriques (contre 15 TWh en 2024), ce qui reviendrait à atteindre 8 millions de véhicules d’ici 2030 (contre 2 millions l’an dernier).

Un tel scénario permettrait de résorber la surcapacité tout en mettant la France sur la voie de ses objectifs de décarbonation. Autrement dit, répète le gestionnaire public au fil de son rapport, la situation actuelle est « très avantageuse pour décarboner rapidement ».

Les coûts de la décarbonation lente

Le gestionnaire constate néanmoins que « la consommation d’électricité n’est pas, pour le moment, alignée sur les objectifs de décarbonation et de réindustrialisation de la France ». Il l’explique de deux manières : par la sous-estimation des progrès effectivement réalisés, le seul passage à des éclairages LED ayant par exemple permis de réduire la consommation électrique de 10 TWh entre 2010 et 2020, et par les effets non anticipés des crises sanitaires et énergétiques, depuis lesquelles la consommation électrique stagne.

Or, « si la hausse de la consommation ne peut être considérée comme un but en soi », seule une « augmentation nette de la consommation d’électricité nationale » permettra la décarbonation du pays, insiste RTE. Dans un scénario de décarbonation lente (dans lequel seulement 15 % des projets liés à l’hydrogène, 10 % des projets industriels et 30 % des projets de datacenters seraient concrétisés), comme nous ne savons pas stocker massivement l’électricité excédentaire, il faudrait limiter la production.

Côté nucléaire, RTE esquisse la possibilité de réduire la production du parc nucléaire de l’ordre de 50 TWh, « pour absence de débouché économique ». L’export vers d’autres nations européennes ne représente qu’une faible possibilité, puisque nos voisins subissent des trop-pleins similaires, en particulier du côté des énergies solaires et éoliennes. En la matière, RTE préconise de limiter la production de renouvelable, en particulier en milieu de journée, dans les moments les plus ensoleillés. Elle prévoit pouvoir économiser 30 gigawatts (GW) de cette manière.

Le gestionnaire public alerte néanmoins sur le fait qu’une telle réduction aurait un coût. Elle entraînerait « une forte érosion des revenus des producteurs sur les marchés, de l’ordre de - 20 Md€/an », réduction qui serait « partiellement compensée par les dispositifs de soutien public », mais qui créerait donc une « hausse des charges budgétaires associées ».

Elle s’inquiète aussi des effets de logiques de « stop and go » sur les filières industrielles, susceptibles de « brider les efforts des filières renouvelables pour relocaliser une partie de leur industrie manufacturière en France et en Europe ». À moyen terme, une telle logique pourrait par ailleurs mettre en péril la possibilité de maintenir ou d’accélérer l’électrification en 2035.

  •  

Voitures, datacenters : RTE appelle à accélérer l’électrification des usages

Electric feel
Voitures, datacenters : RTE appelle à accélérer l’électrification des usages

Dans son bilan prévisionnel annuel, RTE se fait l’avocat de l’accélération de l’électrification des usages pour assurer un meilleur équilibre entre consommation et production d’électricité.

Il faut accélérer l’électrification de la société française. C’est le constat principal que dresse RTE, le réseau public de transport d’électricité, dans son bilan prévisionnel 2025 – 2035.

Parmi ses missions, le gestionnaire doit anticiper l’équilibre entre l’offre et la demande d’électricité. Dans cet exercice annuel, RTE s’était penché en 2023 sur les stratégies permettant d’atteindre la neutralité carbone en 2050, scénarios qui permettraient d’obtenir des « bénéfices stratégiques et climatiques considérables », à commencer par une moindre dépendance aux sources d’énergie fossile et la réduction des pollutions associées à leur usage.

En cette fin 2025, RTE constate que la consommation électrique est « demeurée atone » depuis la pandémie de Covid-19 (elle reste inférieure de 6 % à son niveau de 2019), quand la production d’énergies renouvelables (hydraulique comprise) et nucléaire ont progressé. Le gestionnaire actualise donc ses prévisions, tout en détaillant les enjeux posés par l’actuelle surcapacité électrique de la France.

Si cette dernière n’est pas neuve – « dès la seconde partie des années 1980, la production d’électricité française est devenue structurellement excédentaire par rapport à la consommation » –, l’épisode de surcapacité actuel pourrait devenir préoccupant, notamment pour le poids qu’il créerait sur les dépenses publiques. Étudiant divers scénarios de décarbonation, RTE plaide pour une accélération de l’électrification des usages et pour la concrétisation de la majorité des projets industriels prévus, notamment dans l’industrie des centres de données.

Promotion de la décarbonation rapide

La stratégie de décarbonation de la France est autant un enjeu climatique que géostratégique, rappelle le document. À l’heure actuelle, l’import d’énergies fossiles (pétrole, gaz et charbon) constitue toujours près de 60 % de l’énergie finale consommée en France. Elles pèsent pour 50 à 70 milliards d’euros dans les factures nationales annuelles. Du côté de l’électricité, la France a battu son record historique d’exportations avec 89 TWh en 2024.

Pour répondre à ces enjeux, RTE a développé ses capacités de production électrique en rétablissant les capacités nucléaires à la suite de la pandémie, mais aussi en accélérant celles de production d’énergies renouvelables. Et de souligner : vu l’état du réseau comme de la production, « les risques de conflits d’usage entre filières à électrifier sont écartés ». À court terme, le problème réside plutôt dans la relative stabilité de la consommation électrique.

RTE se penche donc sur deux scénarios : un de décarbonation rapide, qui conduirait à une augmentation toute aussi rapide de la consommation électrique, pour parvenir à 510 térawattheures (TWh) en 2030 et 580 TWh en 2035. Un autre, de « décarbonation lente », prévoit tout de même une augmentation de la consommation électrique, mais de 25 TWh seulement par rapport à la consommation actuelle, pour n’atteindre que 470 TWh en 2030 et 505 TWh en 2035. En 2024, la consommation française (corrigée des aléas météorologiques) était de 449 TWh, en hausse de 3 TWh (+ 0,7 %) sur un an.

En pratique, RTE appelle à la concrétisation, d’ici 2030, de 60 % des projets prévus en termes de production d’hydrogène, de développement de centres de données et d’autres projets industriels, ce qui permettrait d’augmenter leur consommation à 15 TWh par an pour le premier secteur, 15 TWh par an pour le deuxième (contre 5 TWh aujourd’hui) et 113 TWh par an pour les derniers.

Comme les deux derniers consomment de l’électricité mais ne réduisent pas pour autant les émissions de CO₂ (tandis que l’hydrogène produit électriquement remplacerait, lui, l’hydrogène produit par extraction chimique de combustibles fossiles), cette évolution ne peut se faire sans une évolution des usages d’énergie fossile, notamment du côté des transports. En la matière, RTE appelle à une augmentation de 17 TWh de la consommation électrique associée aux voitures électriques (contre 15 TWh en 2024), ce qui reviendrait à atteindre 8 millions de véhicules d’ici 2030 (contre 2 millions l’an dernier).

Un tel scénario permettrait de résorber la surcapacité tout en mettant la France sur la voie de ses objectifs de décarbonation. Autrement dit, répète le gestionnaire public au fil de son rapport, la situation actuelle est « très avantageuse pour décarboner rapidement ».

Les coûts de la décarbonation lente

Le gestionnaire constate néanmoins que « la consommation d’électricité n’est pas, pour le moment, alignée sur les objectifs de décarbonation et de réindustrialisation de la France ». Il l’explique de deux manières : par la sous-estimation des progrès effectivement réalisés, le seul passage à des éclairages LED ayant par exemple permis de réduire la consommation électrique de 10 TWh entre 2010 et 2020, et par les effets non anticipés des crises sanitaires et énergétiques, depuis lesquelles la consommation électrique stagne.

Or, « si la hausse de la consommation ne peut être considérée comme un but en soi », seule une « augmentation nette de la consommation d’électricité nationale » permettra la décarbonation du pays, insiste RTE. Dans un scénario de décarbonation lente (dans lequel seulement 15 % des projets liés à l’hydrogène, 10 % des projets industriels et 30 % des projets de datacenters seraient concrétisés), comme nous ne savons pas stocker massivement l’électricité excédentaire, il faudrait limiter la production.

Côté nucléaire, RTE esquisse la possibilité de réduire la production du parc nucléaire de l’ordre de 50 TWh, « pour absence de débouché économique ». L’export vers d’autres nations européennes ne représente qu’une faible possibilité, puisque nos voisins subissent des trop-pleins similaires, en particulier du côté des énergies solaires et éoliennes. En la matière, RTE préconise de limiter la production de renouvelable, en particulier en milieu de journée, dans les moments les plus ensoleillés. Elle prévoit pouvoir économiser 30 gigawatts (GW) de cette manière.

Le gestionnaire public alerte néanmoins sur le fait qu’une telle réduction aurait un coût. Elle entraînerait « une forte érosion des revenus des producteurs sur les marchés, de l’ordre de - 20 Md€/an », réduction qui serait « partiellement compensée par les dispositifs de soutien public », mais qui créerait donc une « hausse des charges budgétaires associées ».

Elle s’inquiète aussi des effets de logiques de « stop and go » sur les filières industrielles, susceptibles de « brider les efforts des filières renouvelables pour relocaliser une partie de leur industrie manufacturière en France et en Europe ». À moyen terme, une telle logique pourrait par ailleurs mettre en péril la possibilité de maintenir ou d’accélérer l’électrification en 2035.

  •  

Data centers : des centaines d’organisations environnementales demandent aux US de ralentir

Stop the machine
Data centers : des centaines d’organisations environnementales demandent aux US de ralentir

Plus de 230 organisations de défense de l’environnement appellent le Congrès des États-Unis à prendre un moratoire sur le développement de nouveaux centres de données dans le pays.

« Alimentée par l’intelligence artificielle générative (IA) et le boom des cryptos », l’expansion du secteur est présentée dans la lettre ouverte de ces entités comme « l’une des plus grandes menaces environnementales et sociales de notre génération. » 

Greenpeace, les Amis de la Terre, Food & Water Watch et des dizaines de groupes locaux se sont réunis pour demander à leurs parlementaires de mettre une pause au développement de ces entrepôts, dont les besoins en énergie et en eau « aggravent les impacts significatifs et préoccupants de l’IA sur la société, notamment les pertes d’emplois, l’instabilité sociale et la concentration économique ».

Au total, plus de 230 organisations signent la lettre ouverte, dont l’appel au « moratoire » fait écho à celui demandé à plusieurs reprises par l’industrie de l’IA elle-même, cette fois au motif qu’une potentielle « superintelligence » risquait d’émerger.

Freins aux Accords de Paris et enjeux de santé publique

L’appel au moratoire se fait dans un contexte dans lequel l’industrie des centres de données, tirée par celle de l’intelligence artificielle, est aussi accusée d’empêcher d’atteindre les objectifs climatiques fixés par l’Accord de Paris. En France, le Shift Project considérait par exemple en octobre que les autorités nationales comme européennes « manquaient d’anticipation » des risques posés par la filière.

Si les États-Unis se sont retirés à nouveau des accords de Paris dès le retour de Donald Trump à la tête du pays, cela n’empêche pas que l’industrie des data centers soit régulièrement décrite comme participant à accroître la détérioration de l’environnement. La multiplication de centres de données refroidis à l’eau, notamment dans des zones subissant déjà des stress hydriques, comme la Californie, fait par exemple régulièrement débat.

Mais les préoccupations varient selon les lieux d’implantation. À Memphis, les générateurs du supercalculateur de xAI sont par exemple accusés d’aggraver la pollution de l’air déjà subie dans les quartiers les plus pauvres, majoritairement habités par des populations noires, de la ville. Dans le comté de Morrow, dans l’Oregon, la multiplication d’hyperscalers d’Amazon est accusée d’amplifier la pollution de l’eau aux nitrates et nitrites déjà provoquée par l’implantation de grands acteurs agricoles et agroalimentaires.

Début 2025, des chercheurs des universités UC Riverside et Caltech estimaient que le coût global de la filière sur la santé publique états-unienne s’élevait à 5,4 milliards de dollars sur les cinq années précédentes.

De l’énergie fossile (et chère) avant tout

L’enjeu est tel que des personnalités politiques de bords opposés se sont emparées du sujet, relève the Guardian, comme Bernie Sanders à gauche et Marjorie Taylor Greene à l’extrême droite. Dans la mesure où Donald Trump nie la réalité de la crise climatique et qualifie les énergies propres d’ « arnaques » (parmi les décrets pris lors de son retour au pouvoir, l’un visait explicitement à « revigorer la belle industrie américaine du charbon propre »), ces derniers pointent plus spécifiquement les effets de l’IA sur le coût de la vie, notamment par l’intermédiaire de l’accès à l’énergie.

Les besoins du secteur des centres de données sont tels, rappellent en effet les signataires de la lettre ouverte au Congrès, que leurs impacts sur les factures d’électricité de la population se font déjà sentir. À Columbus, dans l’Ohio, la facture moyenne a ainsi augmenté de 27 dollars, tandis qu’à Philadelphie, en Pennsylvanie, elle a grimpé de 17 dollars.

Aux États-Unis, plus de la moitié de l’électricité est par ailleurs créée par la consommation d’énergie fossile : en 2023, le gaz naturel représentait plus de 43 % de l’électricité créée, le charbon plus de 16 %, et différents dérivés de pétrole plus de 0,4 %. Les sources renouvelables fournissaient 21,4 % de l’énergie disponible, et le nucléaire, 18,6 %, d’après l’agence étatique de l’information sur l’énergie.

  •  

Data centers : des centaines d’organisations environnementales demandent aux US de ralentir

Stop the machine
Data centers : des centaines d’organisations environnementales demandent aux US de ralentir

Plus de 230 organisations de défense de l’environnement appellent le Congrès des États-Unis à prendre un moratoire sur le développement de nouveaux centres de données dans le pays.

« Alimentée par l’intelligence artificielle générative (IA) et le boom des cryptos », l’expansion du secteur est présentée dans la lettre ouverte de ces entités comme « l’une des plus grandes menaces environnementales et sociales de notre génération. » 

Greenpeace, les Amis de la Terre, Food & Water Watch et des dizaines de groupes locaux se sont réunis pour demander à leurs parlementaires de mettre une pause au développement de ces entrepôts, dont les besoins en énergie et en eau « aggravent les impacts significatifs et préoccupants de l’IA sur la société, notamment les pertes d’emplois, l’instabilité sociale et la concentration économique ».

Au total, plus de 230 organisations signent la lettre ouverte, dont l’appel au « moratoire » fait écho à celui demandé à plusieurs reprises par l’industrie de l’IA elle-même, cette fois au motif qu’une potentielle « superintelligence » risquait d’émerger.

Freins aux Accords de Paris et enjeux de santé publique

L’appel au moratoire se fait dans un contexte dans lequel l’industrie des centres de données, tirée par celle de l’intelligence artificielle, est aussi accusée d’empêcher d’atteindre les objectifs climatiques fixés par l’Accord de Paris. En France, le Shift Project considérait par exemple en octobre que les autorités nationales comme européennes « manquaient d’anticipation » des risques posés par la filière.

Si les États-Unis se sont retirés à nouveau des accords de Paris dès le retour de Donald Trump à la tête du pays, cela n’empêche pas que l’industrie des data centers soit régulièrement décrite comme participant à accroître la détérioration de l’environnement. La multiplication de centres de données refroidis à l’eau, notamment dans des zones subissant déjà des stress hydriques, comme la Californie, fait par exemple régulièrement débat.

Mais les préoccupations varient selon les lieux d’implantation. À Memphis, les générateurs du supercalculateur de xAI sont par exemple accusés d’aggraver la pollution de l’air déjà subie dans les quartiers les plus pauvres, majoritairement habités par des populations noires, de la ville. Dans le comté de Morrow, dans l’Oregon, la multiplication d’hyperscalers d’Amazon est accusée d’amplifier la pollution de l’eau aux nitrates et nitrites déjà provoquée par l’implantation de grands acteurs agricoles et agroalimentaires.

Début 2025, des chercheurs des universités UC Riverside et Caltech estimaient que le coût global de la filière sur la santé publique états-unienne s’élevait à 5,4 milliards de dollars sur les cinq années précédentes.

De l’énergie fossile (et chère) avant tout

L’enjeu est tel que des personnalités politiques de bords opposés se sont emparées du sujet, relève the Guardian, comme Bernie Sanders à gauche et Marjorie Taylor Greene à l’extrême droite. Dans la mesure où Donald Trump nie la réalité de la crise climatique et qualifie les énergies propres d’ « arnaques » (parmi les décrets pris lors de son retour au pouvoir, l’un visait explicitement à « revigorer la belle industrie américaine du charbon propre »), ces derniers pointent plus spécifiquement les effets de l’IA sur le coût de la vie, notamment par l’intermédiaire de l’accès à l’énergie.

Les besoins du secteur des centres de données sont tels, rappellent en effet les signataires de la lettre ouverte au Congrès, que leurs impacts sur les factures d’électricité de la population se font déjà sentir. À Columbus, dans l’Ohio, la facture moyenne a ainsi augmenté de 27 dollars, tandis qu’à Philadelphie, en Pennsylvanie, elle a grimpé de 17 dollars.

Aux États-Unis, plus de la moitié de l’électricité est par ailleurs créée par la consommation d’énergie fossile : en 2023, le gaz naturel représentait plus de 43 % de l’électricité créée, le charbon plus de 16 %, et différents dérivés de pétrole plus de 0,4 %. Les sources renouvelables fournissaient 21,4 % de l’énergie disponible, et le nucléaire, 18,6 %, d’après l’agence étatique de l’information sur l’énergie.

  •