Vue normale

Reçu — 18 décembre 2025 Next - Articles gratuits

☕️ Emmanuel Macron outré par un deepfake suggérant un coup d’État en France

18 décembre 2025 à 13:07

Emmanuel Macron est mécontent : ce week-end, un de ses homologues africains lui a envoyé un message pour vérifier ce qu’il se passait en France. Le pays était-il en plein coup d’État ?

En cause : une vidéo générée par IA, dans laquelle une journaliste placée devant ce qui semble être l’Élysée annonce la (fausse) chute du président de la République, remplacé par un colonel.

« Douze millions de vues ! » racontait-il en début de semaine lors d’un échange avec les lecteurs de La Provence (depuis le 12 novembre, avec le public de La Dépêche du Midi, Emmanuel Macron multiplie les rencontres de citoyennes et citoyens pour échanger avec eux sur « la démocratie face aux réseaux sociaux »).

Le président indique avoir demandé à Meta, par l’intermédiaire de Pharos, de supprimer le contenu, et s’être entendu répondre que celle-ci ne contrevenait pas aux règles d’utilisation de la plateforme.

Et d’ironiser : « J’ai tendance à penser que j’ai plus de moyens de pression que qui que ce soit. » Le président a regretté de se découvrir désarmé. « Ces gens-là se moquent de nous », a-t-il lancé, en référence aux propriétaires de réseaux sociaux.

En exposant cette affaire, il a par ailleurs démultiplié la visibilité du deepfake, passé de 12 à 20 millions de vues en 24 heures à peine.

Auprès du Figaro, Meta indique avoir affiché des étiquettes pour aider les utilisateurs à repérer les contenus créés par IA.

Libération a de son côté remonté la trace de son créateur pour tomber sur un jeune Burkinabé, Rachid B., originaire de Ouagadougou. Ce dernier indique avoir supprimé la vidéo le 17 décembre (alors qu’elle avait atteint les 23 millions de vues) « pour ne pas avoir de problèmes juridiques ou des trucs comme ça ».

Dans d’autres contextes, le président de la République est lui-même usager des technologies de génération d’images relativement réalistes : il s’en était notamment servi pour faire la promotion du Sommet sur l’intelligence artificielle, en février 2025, et « lancer le débat », selon ses propres termes.

Reçu — 17 décembre 2025 Next - Articles gratuits

[Offert] Karen Hao : « Les empires de l’IA étouffent l’innovation »


17 décembre 2025 à 15:45
C'est l'heure de l'alliance rebelle
[Offert] Karen Hao : « Les empires de l’IA étouffent l’innovation »


La relation d’OpenAI au travail de ses employés comme des entraîneurs de données, celle de Sam Altman à la consommation énergétique de son entreprise, la manière dont l’industrie freine la recherche scientifique en IA… Next a parlé de tous ces sujets avec la journaliste et autrice d’« Empire of AI » Karen Hao.

Pour les fêtes de fin d’année, Next vous offre cet article initialement paru le 16 juillet 2025 et réservé aux abonnés. Pour lire les prochains entretiens dès leur publication, abonnez-vous !


En 2015, une dizaine de personnalités de la Silicon Valley – parmi lesquelles l’informaticien Illya Sutskever ou les entrepreneurs Sam Altman, Greg Bockman et Elon Musk – se réunissent pour créer une nouvelle entité. Son nom ? OpenAI. Son but ? Faire avancer la recherche en intelligence artificielle. Sa spécificité, publicisée jusque dans son nom ? Être une organisation à but non lucratif, ouverte ou reposant sur les principes de l’open source, dont l’objet serait de faire progresser les connaissances communes, partagées, dans ce domaine informatique de plus en plus prisé qu’est l’intelligence artificielle.

Le projet attire tout de suite l’attention. Il est, après tout, financé par de grands noms : Altman, Brockman et Musk eux-mêmes, le cofondateur de LinkedIn Reid Hoffman, la venture capitalist et ex-collègue de Sam Altman chez Y Combinator Jessica Livingston, le financier Peter Thiel…

En quelques années, la promesse initiale évolue. En 2018, Elon Musk part avec pertes et fracas, critiquant le manque de résultats d’OpenAI et les risques de conflit d’intérêt à venir, alors que Tesla développe ses compétences en matière d’IA. De quasi-ONG de financement de la recherche en IA, OpenAI devient une société privée, de plus en plus secrète.

Fin 2023, un an à peine après que la publication du robot conversationnel ChatGPT a fasciné le grand public par ses capacités de génération de texte et d’image, nouveau coup de tonnerre. Sam Altman, à la tête du projet depuis ses débuts, est d’abord licencié de son poste de CEO par le conseil d’administration, remplacé par l’ex-directrice de la technologie Mira Murati, avant de reprendre sa place.

Aux premières loges de ces multiples rebondissements se trouve une journaliste, Karen Hao, d’abord employée par la MIT Technology Review, puis le Wall Street Journal, et actuellement freelance pour diverses publications dont le magazine états-unien The Atlantic. Première journaliste à obtenir l’accès à la start-up, Karen Hao a depuis continué d’enquêter sur ses activités et celles de l’industrie au sens large, jusqu’à publier Empire of AI, Dreams and nightmares in Sam Altman’s Open AI (Penguin Random House, non traduit), en mai 2025. Elle s’est entretenue avec Next.

« Sam Altman a réussi à créer une ferveur quasi religieuse pour la création d’une intelligence artificielle générale »

>> Vous montrez clairement que l’intelligence artificielle (IA), ou même la notion d’intelligence artificielle générale, varie beaucoup dans l’industrie, au point que ses promoteurs semblent pouvoir toujours l’adapter aux nouveaux problèmes qui les intéressent. Comment est-ce possible ?

L’idée originale de l’intelligence artificielle est de recréer l’intelligence humaine à l’aide d’ordinateurs. Mais il n’y a pas de consensus scientifique sur ce qu’est l’intelligence humaine, ce qui explique que la définition de l’IA évolue régulièrement au fil du temps. L’intelligence artificielle générale (AGI) obéit à la même logique : il ne s’agit que d’un re-positionnement, c’est une manière de se différencier des produits et services existants.

OpenAI s’inscrit dans cette grande tradition d’incapacité à définir ce que l’IA signifie vraiment. L’entreprise utilise tout de même une définition explicite : pour elle, les AGI sont des « systèmes autonomes qui surpassent les humains dans la plupart des tâches à valeur économique ». Ils la définissent donc surtout comme des machines d’automatisation du travail. Mais dans certains cas, il arrive que Microsoft et OpenAI parlent d’AGI comme de systèmes qui seraient capables de générer cent milliards de dollars ou mille milliards de dollars. Une telle définition est totalement différente de celle de la machine à automatiser le travail.

Au sein d’OpenAI, il y a aussi une blague qui circule, selon laquelle si vous demandez leur avis à 13 chercheurs, vous obtiendrez 16 définitions différentes de l’AGI. Donc oui, on manque de clarté, et je pense que l’entreprise profite parfois de ce manque de précision pour continuer à faire ce qu’elle veut.

>> Deux des définitions que vous venez d’évoquer sont néanmoins très liées à des enjeux économiques, et notamment à celle de l’automatisation du travail humain. Pourtant, sans étiquetage des données, sans entraînement humain des systèmes, il n’y aurait pas d’IA. Pourriez-vous résumer quel est le rapport de Scale AI, l’un des sous-traitants essentiels d’OpenAI en annotation de données, aux travailleurs ?

Scale AI est une plateforme qui met en relation les entreprises d’IA avec des travailleurs contractuels pour des tâches telles que l’étiquetage de données, la modération de contenu ou le renforcement à partir du feedback humain (RLHF), quand les gens envoient des requêtes aux modèles et les classent pour essayer d’orienter le type de réponse de ces technologies. Scale AI a ouvert avant l’explosion des LLM, lorsqu’il existait plus de modèles d’IA différents, sur l’idée de fournir du travail humain de haute qualité à bas coût aux entreprises d’IA.

Or, ils ont découvert quasi accidentellement que le Venezuela était un très bon endroit pour trouver ce genre de personnels. Lorsque le pays a traversé une grave crise économique, il a coché trois cases : des personnes très éduquées, une très bonne connexion internet, et des gens désespérés de trouver du travail, donc prêt à s’employer pour des salaires très bas. Cette expérience est un peu devenue leur méthode classique d’intervention, qu’ils ont réutilisée ailleurs. Quand la pandémie a frappé, Scale AI s’est tourné vers tous les pays où les économies se sont retrouvées en souffrance, et où de nombreux travailleurs très qualifiés devenaient disponibles pour des salaires bas, faute de trouver d’autres emplois.

Sur chacun de ces marchés, l’entreprise a fonctionné de la même manière : elle commence par proposer de bons salaires en échange des tâches d’entraînement, puis quand de nombreuses personnes ont pris l’habitude d’en faire leur source principale de revenu, ScaleAI se met à réduire nettement le montant des rémunérations, ou à mettre les travailleurs en concurrence pour les mêmes tâches. Ils et elles se retrouvent coincés dans des situations franchement instables, incapables de garantir s’ils vont travailler, combien ils gagneront pour leurs tâches, quelles seront leurs heures de travail, le tout sans prestations ni Sécurité sociale.

>> Dans une interview pour le média Synth, vous expliquiez que les employés d’OpenAI n’ont aucun équilibre entre travail et vie privée. Comment comprendre le rapport de cette entreprise au travail ?

Si beaucoup d’entre eux n’ont pas d’équilibre entre vie professionnelle et vie privée, c’est parce qu’Altman a réussi à créer une ferveur quasi religieuse dans la culture d’entreprise, à la fois pour l’AGI et pour la mission d’Open AI à faire en sorte que l’AGI profite à toute l’humanité. Lorsque vous pensez remplir une sorte d’objectif religieux, il est logique que vous vous y adonniez au maximum. Si vous croyez vraiment que le travail que vous effectuez chaque jour peut soit apporter l’utopie, soit empêcher l’humanité de sombrer dans la dystopie, cela crée des conditions propices au surmenage et à une association complète de votre identité à votre travail.

Cela dit, la façon dont OpenAI positionne ses produits, ou ce qu’elle fait réellement et les impacts qu’elle a sur le travail en général, cela produit surtout de l’exploitation. Tous les travailleurs qui contribuent à la production de ces technologies, partout sur la planète, sont exploités. Comme OpenAI adopte une définition économique de l’AGI, l’entreprise est naturellement encline à produire des technologies qui automatisent des emplois, ce qui est une forme d’exploitation du travail.

À mon sens, s’ils ont choisi cette définition, c’est parce que mesurer ce qui est considéré comme « un travail économiquement viable » est relativement simple. Si vous essayez de créer une AGI, il s’agit d’un objectif plutôt facile à se fixer et à suivre pour savoir si vous avez atteint votre but. C’est également un objectif très pratique si vous voulez gagner de l’argent. Si vos machines sont capables d’effectuer un « travail économiquement viable », les dirigeants paieront pour, et bien, y compris pour automatiser leurs propres travailleurs.

« L’expansion de ces entreprises risque de nous faire retourner à une ère impériale »

>> Outre les enjeux que cela pose en termes de travail, ce type d’orientation a un réel impact environnemental. Sam Altman a par exemple déclaré qu’une « fraction significative » de l’énergie produite sur Terre devrait être allouée à l’IA, quand bien même cette énergie est produite de manière très carbonée aux États-Unis. Pourquoi y a-t-il si peu de réactions sur le sujet ?

Il me semble que le grand public est encore loin d’avoir compris les enjeux que l’IA pose, aussi bien sur le travail que sur l’environnement, ou même sur la recherche en IA. Côté environnemental, en l’occurrence, les data centers ont beau être immenses, ils sont souvent relativement cachés, placés dans des lieux lointains du public, à des endroits que les médias couvrent moins… Tout cela fait que les usagers classiques de l’IA n’ont pas encore pris conscience de ses impacts sur la santé, sur la consommation d’eau, sur l’énergie.

Ils s’en rendent d’autant moins facilement compte que l’industrie pousse très clairement le discours selon lequel l’intelligence artificielle tomberait du ciel, serait un produit mystique, le résultat d’une forme de magie. Et toute cette rhétorique participe à leur logique impériale.

>> Pourquoi est-ce que la notion d’empire vous a paru nécessaire, pour décrire ces entreprises privées ?

C’était d’abord une manière de mettre en évidence l’ampleur des ambitions de ces entreprises. Elles parlent de domination mondiale, au sens propre, elles consolident de tels pouvoirs économiques et politiques qu’elles deviennent comparables à des empires… Cela permet aussi de souligner que leurs comportements, le fait de revendiquer des ressources qui ne leur appartiennent pas comme étant les leurs, celui d’exploiter d’immenses quantités de main-d’œuvre, celui de monopoliser la production de connaissances, tout cela correspond à des logiques impériales.

L’immense majorité des chercheurs en IA aujourd’hui travaillent pour ou sont financés par l’industrie, ce qui nous empêche de bien comprendre les vraies limitations de ces technologies, puisque les entreprises n’ont aucun intérêt de travailler sur ces sujets. Imaginez ce qui arriverait si la plupart des chercheurs sur le climat étaient payés par les entreprises des énergies fossiles. C’est à peu près la situation dans laquelle nous sommes aujourd’hui dans l’IA : les systèmes ont énormément de défauts, mais moins de 5 % de la recherche produite se penche sur ces problèmes.

Il y a aussi la dimension religieuse, ce récit d’opposition entre les bons et les mauvais empires, où les « bons » auraient besoin de devenir des empires pour vaincre les mauvais, car si les mauvais empires gagnent, alors l’humanité risque sa survie… Toute cette rhétorique ressemble à celle des empires du passé.

Si vous comprenez qu’il s’agit de logiques impériales, alors vous comprenez que la conclusion de l’expansion de ces entreprises est le retour aux empires, soit l’inversion de la tendance vers plus de progrès et de démocratie. En l’occurrence, les fondements de la démocratie sont en train de s’éroder. Pour moi, l’enjeu est vraiment celui-là : comprendre que le risque fondamental est celui de retourner en arrière, vers de nouveaux régimes impériaux.

« Les régulateurs doivent cesser de croire que la Silicon Valley agit pour l’intérêt général »

>> Dans Empire of AI, vous décrivez une fascination des représentants politiques pour Sam Altman et une réticence à réguler l’IA qui rappelle nettement la fascination pour Mark Zuckerberg que Sarah Wynn-Williams décrit dans Careless People (Macmillan, 2025, non traduit). Dans quelle mesure faudrait-il que cela change ?

Les régulateurs devraient apprendre du passé, cesser de croire que l’élite de la Silicon Valley agit dans l’intérêt de la population, du grand public, de la société dans son ensemble. Ils devraient réfléchir de manière très critique à la manière de s’assurer que les entreprises technologiques continuent de fournir leurs services, mais sans bâtir d’empires, car ce sont deux choses différentes.

Les gouvernants devraient réfléchir aux meilleures manières de réglementer les entreprises d’IA, non seulement en se penchant sur celles qui veulent produire des modèles d’IA, mais aussi en encadrant les données sur lesquelles ces entreprises sont autorisées à entraîner leurs modèles ; en se penchant sur l’interprétation des lois sur les droits d’auteur pour protéger le travail des artistes, des écrivains et des créateurs ; en s’intéressant à l’endroit où ces sociétés sont autorisées à construire des centres de données, à la quantité et aux sources d’énergie qu’elles ont droit d’utiliser, à la quantité d’eau douce à laquelle elles ont le droit de recourir. Il faudrait qu’ils régulent le type de protocoles de test auxquels les constructeurs d’IA doivent soumettre leurs systèmes avant de les déployer ; s’intéresser à l’impact de ces systèmes sur les enfants et sur les autres groupes vulnérables…

Très souvent, je finis par entendre que trop de réglementation pourrait faire disparaître l’innovation. C’est un discours trompeur, car en réalité, ne pas réglementer empêche l’innovation. Ces entreprises en sont arrivées à un point où elles n’ont plus aucune raison de faire quoi que ce soit pour l’intérêt public. Ce sont des entités totalement égoïstes, qui freinent clairement l’innovation.

Au cours du premier trimestre de cette année, près de 50 % des financements du capital-risque sont allés à OpenAI et Anthropic : c’est un coût d’opportunité énorme pour le reste du domaine de l’IA, mais aussi pour le reste de l’industrie technologique. Ces entreprises verrouillent une grande partie de l’innovation, ce qui réduit la capacité d’innover dans de nombreux autres domaines.

>> Comment comprenez-vous les récents mouvements d’employés d’OpenAI vers Meta ?

Il y a eu ces discussions autour des 100 millions de dollars de packages offerts par Meta…. À mon sens, ça illustre surtout la folie du montant des capitaux qui circulent dans cet espace. Peut-être que les régulateurs devraient commencer à plafonner les compensations que les entreprises offrent à leurs candidats.

Pour moi, cet épisode illustre à quel point ces entreprises sont dirigées par des personnes à l’ego démesuré, qui se battent les unes contre les autres pour créer leur propre version de l’IA, pour remodeler l’IA à leur image. L’une de mes plus grandes critiques à l’encontre de ces entreprises est qu’elles n’ont aucune structure de gouvernance : ce qu’elles font est purement basé sur les caprices et les décisions prises par la poignée de personnes à leur tête.

>> Comment la démocratie peut-elle se défendre face aux empires de l’IA ?

On a besoin de contestation démocratique depuis la base. Les gouvernants doivent faire leur travail, mais les gens ne peuvent pas attendre qu’ils réagissent, car ces entreprises ont été si efficaces pour capturer les gouvernements que peu de politiciens dans le monde adoptent des positions fortes pour les réglementer.

Des centaines de communautés protestent déjà contre la construction de centres de données, construits sans préoccupation de leur usage d’eau douce. Ces protestations ralentissent déjà leur développement, elles forcent l’ouverture de débats sur la question de savoir si oui ou non nous en avons besoin. D’autres personnes exercent leur droit à la vie privée pour tenter d’empêcher les entreprises d’exploiter leurs données. Des artistes se battent pour tenter d’obtenir de meilleures interprétations de la loi sur les droits d’auteur, ou bien utilisent des outils comme Nightshade, qui permet de faire en sorte que, si les sociétés d’IA utilisent leurs œuvres dans leurs données d’entrainement, alors celles-ci dégradent le modèle.

Il existe de multiples formes de protestation dans lesquelles les gens s’engagent et qui me paraissent être des formes de contestation démocratique. Nous avons autant besoin de cela que de faire en sorte que les régulateurs se réveillent.

☕️ La directrice du MI6 alerte sur le transfert de pouvoir du politique vers les géants tech

17 décembre 2025 à 09:35

« Nous évoluons désormais dans un espace entre la paix et la guerre », a déclaré la nouvelle directrice du MI6, Blaise Metreweli, dans son premier discours public, le 15 décembre, avant de présenter le « réseaux entremêlé de défis de sécurité » à laquelle l’agence de renseignement extérieure britannique doit faire face.

Dans cette nouvelle « ère d’incertitude », « la ligne de front est partout » a-t-elle décrit, citant les menaces hybrides et informationnelles parmi les outils déployés par une Russie « agressive, expansionniste et révisionniste ».

Photo de Luke Stackpoole sur Unsplash

Et de citer les menaces « juste en dessous du seuil de la guerre » que pose le gouvernement de Vladimir Poutine, autant par le recours à des cyberattaques sur des infrastructures que par les apparitions croissantes de drones aux alentours d’aéroports civils.

Première femme à prendre la tête du MI6, toujours sous le nom de code « C », Blaise Metreweli a autant détaillé les mouvements géopolitiques à l’œuvre – suggérant implicitement de traiter différemment la Chine de la Russie – que décrit la maîtrise des technologies comme « défi déterminant du XXIe siècle ». En la matière, l’enjeu n’est pas seulement « de savoir qui détient les technologies les plus puissantes, mais aussi de savoir qui les guide avec la plus grande sagesse ».

En l’occurrence, « le pouvoir lui-même devient plus diffus, plus imprévisible, car le contrôle de ces technologies passe des États aux entreprises, et parfois même à des individus », a décrit la cheffe des espions britanniques.

Avant sa prise de poste le 1ᵉʳ octobre 2025, à la suite de Richard Moore, Blaise Metreweli dirigeait la division Innovation et Technologie du MI6.

Reçu — 16 décembre 2025 Next - Articles gratuits

Les publicitaires chinois, principaux exportateurs de publicités frauduleuses sur Meta

16 décembre 2025 à 15:59
Modération à deux vitesses
Les publicitaires chinois, principaux exportateurs de publicités frauduleuses sur Meta

En diffusant des publicités à destination des pays extérieurs à la Chine, les entreprises chinoises forment l’une des principales sources de revenus publicitaires pour Meta. Alors qu’elles produisent un taux de publicités frauduleuses inégalé, la société de Mark Zuckerberg semble minimiser ses efforts de modération.

La Chine n’est pas un marché simple, pour Meta. La société de Mark Zuckerberg a beau s’être plié en quatre pour plaire aux autorités locales – y compris, accuse son ex-directrice des politiques publiques Sarah Wynn-Williams, en créant tout un système de censure –, Facebook, Instagram et consorts n’en sont pas moins interdits à la population locale depuis 2009.

Ce qui n’est pas interdit, en revanche, c’est de faire de la publicité sur ces plateformes, à destination d’un public étranger. Ce système publicitaire permet à des entreprises chinoises de toucher des millions de consommateurs à travers le globe, mais aussi de représenter 11 % du chiffre d’affaires global de Meta. Selon des documents internes obtenus par Reuters, Shein et Temu étaient les deux plus gros clients publicitaires de Meta dans le monde en 2024, devant Amazon.

Problème : près d’une publicité sur cinq promues sur Facebook, Instagram et consorts depuis la Chine constituent des violations flagrantes de ses conditions d’utilisation. 19 % de ces publicités consistent en des contenus de promotions d’arnaques, de jeux illégaux, ou encore de produits interdits.

Début novembre, une précédente enquête démontrait qu’à travers la planète, Meta réalisait près de 10 % de son chiffre d’affaires annuel, soit environ 16 milliards de dollars l’an dernier, à partir de publicités enfreignant ses propres politiques. En Europe, en revanche, l’entreprise a pris le parti d’adopter une lecture étendue du récent règlement sur la transparence et le ciblage de la publicité à caractère politique, pour y empêcher la publicité « politique, électorale et sur les sujets sociaux », privant des acteurs a priori légitimes d’un outil qu’ils utilisaient jusqu’ici régulièrement.

La Chine, principale pourvoyeuse de publicités problématiques

Rien qu’entre 2022 et 2024, les revenus publicitaires chinois ont fait plus que doubler, passant de 7,5 milliards de dollars à 18,4 milliards de dollars, pour atteindre près de 10 % du chiffre d’affaires global de Meta. En parallèle, il devenait de plus en plus évident qu’une large part de ces activités constituaient des pratiques frauduleuses.

En interne, Meta calcule que l’équivalent du quart de toutes les publicités frauduleuses diffusées dans ses systèmes viennent de Chine, selon les documents obtenus par Reuters. Un tel taux de fraude se traduit aussi en montant de revenus : au total, Meta aurait gagné près de 3 milliards de dollars en diffusant via ses systèmes publicitaires des contenus promouvant des arnaques, de la pornographie ou d’autres contenus illégaux.

Pendant la « Golden Week », des congés dont des millions de citoyens chinois profitent au mois d’octobre, le taux d’arnaques sur les plateformes de Meta décline à l’échelle mondiale.

Tentative avortée d’endiguer le phénomène

Les victimes, elles, se situent partout sur le globe, d’acheteurs taïwanais qui se retrouvent avec des compléments alimentaires inadaptés aux investisseurs d’Amérique du Nord allégés de leurs économies à la suite d’une arnaque quelconque. L’ampleur du problème est telle qu’en 2024, des équipes de la société de Mark Zuckerberg ont déclaré qu’il était nécessaire de réaliser « des investissements significatifs pour réduire ces dommages grandissants ». Pendant la seconde moitié de l’année 2024, une nouvelle équipe anti-fraude affectée spécifiquement à ce défi a réussi à réduire le total des publicités frauduleuses de 19 % à 9 % du chiffre d’affaires publicitaire total issu de Chine.

Et puis, à la fin de l’année passée, un nouveau document indiquait qu’à la suite d’un « revirement de la stratégie d’intégrité et du suivi de Zuck » (sic), l’équipe en question était « invitée à suspendre » ses activités. Auprès de Reuters, un porte-parole indique que Mark Zuckerberg n’a pas demandé la dissolution de l’équipe, mais de redoubler des efforts pour lutter contre les escroqueries « partout dans le monde ».

Dans un document de février 2025, des dirigeants de Meta écrivaient quoi qu’il en soit renoncer à chercher la « parité » entre la lutte contre la fraude publicitaire en Chine et ailleurs dans le monde. Alors que sa précédente tentative avait été proche de ramener le taux de fraude venu de Chine à une proportion similaire à celle constatée ailleurs, les efforts ont été abandonnés, au motif que le marché chinois serait spécifiquement « antagoniste ».

À la mi-2025, le phénomène avait repris une nouvelle ampleur, les publicités contrevenant aux politiques de Meta formant à nouveau 16 % des revenus de l’entreprise en Chine, pays qualifié sur certaines présentations de principal « pays exportateur d’escroqueries ».

Un réseau opaque d’intermédiaires

Pour faire vivre son activité publicitaire malgré les restrictions, Meta passe par un système spécifique à la Chine. Sur place, l’entreprise vend l’essentiel de ses publicités via 11 agences principales, qu’il qualifie dans des documents de « plus gros revendeurs » (top tier resellers).

Ces partenaires s’occupent ensuite d’animer un réseau de plus petites agences chinoises ou extérieures au pays, ou de vendre elles-mêmes des publicités. Les agences de deuxième niveau, elles, interagissent à leur tour avec une myriade de petites sociétés qui n’ont pas de lien direct avec Meta ou ses 11 plus grands partenaires. D’après ses documents internes, ce réseau complexe et opaque favorise la prolifération de publicités problématiques, promouvant des arnaques, des jeux illégaux ou des produits interdits.

Un audit de la société Propellerfish constate notamment la facilité avec laquelle un publicitaire peut se créer un compte utilisateur sur Facebook ou Instagram (un nom et une date de naissance suffisent), ou encore la multiplication de faux comptes. Le rapport souligne aussi l’éclosion d’une industrie complète de « spécialistes de l’optimisation publicitaire », dont le fonctionnement complet repose sur l’exploitation de failles dans les systèmes de vérification de Meta et sur la création et la diffusion de publicités pour des arnaques et des biens illégaux. Dans la mesure où ces contenus ne visent pas le public chinois, les autorités locales tendent à laisser faire, constate encore Propellerfish.

La modération des publicités est, elle aussi, sous-traitée aux partenaires de Meta. Dans la mesure où les entreprises ne peuvent pas atteindre normalement Facebook ou Instagram, Meta paie une commission de près de 10 % à ses 11 partenaires principaux pour que ces derniers permettent à leurs partenaires d’acheter des publicités et de les placer sur les plateformes dirigées par Mark Zuckerberg. Les publicités acquises par ces canaux profitent par ailleurs de protections spécifiques. Sur le terrain, relève Reuters, certains des grands partenaires de Meta en viennent à promouvoir explicitement leur capacité à outrepasser les contrôles de l’entreprise états-unienne.

Auprès de Reuters, un porte-parole de Meta indique que les systèmes de l’entreprise ont bloqué 46 millions de publicités soumises par ses partenaires chinois dans les 18 derniers mois, généralement avant que le public n’y soit exposé, et que cela faisait partie intégrante de ses processus habituels de modération.

☕️ Pornhub victime d’extorsion après le vol de données d’abonnés Premium

16 décembre 2025 à 10:04

Pornhub a indiqué compter parmi les victimes de l’attaque du vendeur de données analytiques Mixpanel, dont les services ont été mis à mal le 8 novembre 2025 après un phishing SMS (smishing).

D’après BleepingComputer, la plateforme pornographique a reçu un message d’extorsion dans lequel le groupe ShinyHunters affirme avoir volé 94 Go de données contenant plus de 200 millions d’historiques de recherche, de consommation et de téléchargements de vidéos par des membres Premium.

L’attaque a touché « certains utilisateurs Premium » de Pornhub, indique l’entreprise dans son alerte de sécurité, avant de préciser : « Il est important de noter qu’il ne s’agit pas d’une faille du système de gestion des usagers Premium de Pornhub. Les mots de passe, détails de paiements et informations financières restent en sécurité et n’ont pas été exposés. »

La plateforme précise avoir cessé de travailler avec Mixpanel depuis 2021, et que la fuite concerne des données analytiques historiques remontant à 2021 ou plus tôt.

BleepingComputer indique de son côté que les données comprennent des adresses mails de membres, des éléments de géolocalisation, le type d’activité, les URL et titres de vidéos, les mots clés associés à ces éléments, et l’heure des visionnages ou téléchargements.

Auprès du média, MixPanel indique : « Nous n’avons trouvé aucune indication selon laquelle ces données seraient issues du vol de Mixpanel lors de notre incident de sécurité de novembre 2025 ou à un autre moment. »

Pour le service d’analyse de données, si des informations de Pornhub « sont entre les mains d’un acteur non autorisé », cela ne serait pas le résultat de ses propres déboires. Parmi les acteurs concernés par son attaque par smishing, MixPanel cite OpenAI et CoinTracker.

ShinyHunters est à l’origine de nombreuses attaques ces dernières années, contre Ticketmaster, Stellantis et d’autres. En janvier 2024, un hacker français a été condamné à trois ans de prison aux États-Unis pour avoir participé à ses activités.

Reçu — 15 décembre 2025 Next - Articles gratuits

☕️ Viginum et Inria créent un prix de la recherche contre les manipulations de l’information

15 décembre 2025 à 16:14

Le service de vigilance et de protection contre les ingérences numériques étrangères Viginum et l’Institut national de recherche en sciences et technologies du numérique Inria s’associent pour créer un prix distinguant chaque année des « travaux scientifiques européens de haut niveau » dans les « sciences du numérique appliquées à la lutte contre les manipulations de l’information (LMI) ».

Doté de 5 000 euros pour le prix du jury, 2 000 euros pour le prix de l’innovation et 1 000 euros pour le prix du jeune chercheur, le prix Viginum-Inria valorise des articles de scientifiques de l’Union européenne, publiés ou acceptés depuis moins de trois ans dans une revue ou une conférence scientifique nationale ou internationale. 


Les travaux doivent contribuer à l’amélioration de la détection, de l’analyse ou de la lutte contre les ingérences numériques étrangères, et peuvent relever d’une variété de disciplines (sciences des données, intelligence artificielle, sciences sociales computationnelles, traitement du signal, algorithmique et modélisation des réseaux).

Des chercheurs en noir et blanc regardent une fiole sur laquelle est écrit

L’appel à candidatures a ouvert ce 15 décembre et court jusqu’au samedi 14 février 2026 à minuit.

Les candidatures doivent être déposées sur la plateforme dédiée : pvi-lmi.sciencescall.org

Sur Amazon, les écrivains face à l’IA générative

15 décembre 2025 à 15:56
AI book club
Sur Amazon, les écrivains face à l’IA générative

En déployant sur Kindle deux fonctionnalités appuyées sur de l’IA générative, Amazon ouvre de nouveaux débats sur les effets de ces technologies sur les œuvres littéraires, alors que la gestion de l’entreprise des textes générés par IA est déjà critiquée.

De nouvelles fonctionnalités alimentées à l’intelligence artificielle sur Kindle ! Le 10 décembre, au milieu d’autres annonces, Amazon indiquait ajouter à sa gamme de liseuses une fonctionnalité pour rattraper votre retard sur ce qui a déjà été lu, et une autre dédiée à surligner certains passages et obtenir des réponses sur le récit, « sans divulgâchage ».

Respectivement nommées « Story So Far » (l’histoire jusqu’ici) et « Ask this Book » (Demandez à ce livre), ces outils seront rendus disponibles d’ici la fin de l’année aux États-Unis sur l’application iOS de Kindle, puis début 2026 sur tous les appareils et les applications adaptées à Android. L’évolution soulève de nouvelles questions sur les droits des autrices et auteurs, alors que la gestion des outils et applications d’intelligence artificielle génératives par la plateforme de Jeff Bezos sont déjà critiqués par de multiples autrices et auteurs.

Un chatbot obligatoire dans les ouvrages de langue anglaise

Avec l’« assistant de lecture » Ask this Book, Amazon propose dans les faits un robot conversationnel intégré aux livres lus. Interrogé sur la possibilité, pour les écrivains qui le souhaiteraient, de retirer leurs œuvres de celles permettant de recourir à la fonctionnalité Ask this Book, un porte-parole d’Amazon a répondu au média spécialisé Publishers Lunch : « Pour garantir la cohérence de l’expérience de lecture, cette fonctionnalité est toujours activée et les auteurs ou éditeurs n’ont pas la possibilité de désactiver certains titres ».

Auprès du média, divers éditeurs et agents littéraires indiquent n’avoir pas été informés du déploiement de la fonctionnalité par Amazon, et avancent le besoin de réaliser des audits « légaux et techniques » pour comprendre les implications du déploiement de ces outils sur des œuvres soumises aux droits d’auteur.

Le lancement de fonctionnalités présentées uniquement d’un point de vue technique, malgré leurs potentielles retombées en termes de droits d’auteur, a déjà eu lieu, rappelle Writer Beware. En 2009, pour le Kindle 2, l’entreprise déployait par exemple une fonctionnalité de lecture automatique, qu’un représentant de la société décrivait en ces termes : « Ce ne sont pas des audiobooks. Le text to speech n’est qu’un logiciel qui fonctionne sur les équipements et lit du contenu. » À l’époque, les critiques des ayants-droits avaient été telles qu’Amazon avait finalement accepté de rendre l’outil optionnel.

La gestion de l’IA générative par Amazon, un enjeu à part entière

Au fil des trois dernières années, plus particulièrement, l’intelligence artificielle générative a créé tout un jeu de nouvelles questions. À l’échelle de l’industrie, il y a celle du droit des auteurs et autrices dont les œuvres ont été utilisées pour entraîner les modèles eux-mêmes, bataille autour de laquelle une soixantaine de plaintes ont été déposées rien qu’aux États-Unis, et au moins une dizaine d’autres en Europe.

Vis-à-vis d’Amazon, en revanche, les débats liés à l’IA se jouent plutôt du côté de certaines fonctionnalités : sur la plateforme d’auto-édition du géant de l’e-commerce, Kindle Direct Publishing (KDP), l’entreprise a publié en novembre un outil de traduction automatique, Kindle Translate. Celui-ci est présenté comme la fonctionnalité qui permettra aux autrices et auteurs de langue anglaise de toucher un public hispanophone ou germanophone, et inversement. Une pierre de plus dans le jardin des professionnels de la traduction, dont les métiers sont particulièrement touchés par l’apparition des outils d’IA générative.

Surtout, l’essentiel des frictions se concentrait jusqu’ici sur le fonctionnement de sa place de marché et sur la manière dont les œuvres atteignent leur public. Dès le lancement d’outils d’IA générative facilement utilisables par le grand public, le nombre de livres écrits grâce à, voire entièrement par IA a explosé. Dans certains cas, ils sont venus peupler de nouvelles niches de publication, comme celle des livres sur l’utilisation de ChatGPT entièrement écrits par ChatGPT.

Dans d’autres, en revanche, le nom de vraies écrivaines, dont celui de Sam Blake, nom de plume de Vanessa Fox O’Loughlin, s’est retrouvé accolé à celui de productions que celle-ci qualifie de « Sam Fakes », de « faible qualité » et générés par IA. Présidente du syndicat états-unien Society of Authors (SoA), cette dernière appelle Amazon à améliorer ses protections contre les « contrefaçons », alors que ces « faux » livres ont été commercialisés grâce à son nom. Depuis, les faux livres de Sam Blake ont vu le nom de leur autrice modifié, mais Amazon ne les a pas supprimés de sa plateforme, selon The Bookseller.

En 2023, une autre autrice, Jane Friedman, avait dû se battre pour obtenir d’Amazon le retrait d’ouvrages qui n’avaient pas été écrits par elle. Près de trois ans après ces premières alertes, la plateforme de vente de livres reste décrite comme remplie d’ouvrages d’ « AI slop », c’est-à-dire de « bouillie d’IA », susceptibles de tromper les consommateurs, tout en privant autrices et auteurs d’une partie des revenus qui auraient pu leur échoir sans cette concurrence automatisée.

Sur les sujets les plus sensibles, notamment ceux liés à divers troubles comme ceux de l’attention, des auteurs en appellent à la responsabilité éthique de l’entreprise à ne pas permettre à des contenus de désinformation de rester en ligne. Mais le modèle d’affaires de l’entreprise est tel qu’elle tire profit de chaque vente, indépendamment du contenu concerné, ce qui lui donne peu d’intérêt à agir concrètement.

☕️ Les faux comptes d’actualités, un business à part entière sur TikTok

15 décembre 2025 à 09:56

Utiliser l’IA pour créer des contenus à la chaîne et obtenir de l’argent de géants numériques, voilà une dynamique que nous couvrons régulièrement chez Next, en particulier du côté de Google. 
Sur TikTok, dans une dynamique similaire, des internautes s’appuient sur des images et vidéos d’illustrations et des voix-off générées par IA pour créer de faux contenus d’actualité.

Le but : faire le buzz, monétiser les clips, et ainsi obtenir des rémunérations.

Auprès de l’Agence France Presse (AFP), Victor, 29 ans, affirme par exemple gagner entre 1 500 et 4 500 euros bruts par mois.

Maxime, 19 ans, qui vient de se lancer dans ce type d’activité, a de son côté récupéré l’accès au programme de monétisation et 60 euros après le buzz d’un deepfake de la dirigeante italienne Georgia Meloni, en novembre.

Ce type de vidéos contrevient normalement aux règles du « Creator Rewards Program », qui permet aux comptes de plus de 10 000 abonnés, cumulant 100 000 vues sur les 30 derniers jours et aux vidéos de plus d’une minute d’être monétisées.

À l’AFP, TikTok assure d’ailleurs prendre des mesures « contre la désinformation ».

Mais du côté du public, les contenus présentant de faux faits divers ou évoquant de faux couvre-feux pour les mineurs après 23 h attirent énormément de commentaires, partages et réactions, autant d’indicateurs qui permettent de faire grimper les potentielles rémunérations.

Reçu — 11 décembre 2025 Next - Articles gratuits

☕️ Deloitte de nouveau accusé d’avoir rendu un rapport en partie généré par IA

11 décembre 2025 à 08:22

Fin novembre, au Canada, le gouvernement de Terre-Neuve-et-Labrador a dû demander à Deloitte de reprendre son travail après y avoir trouvé des citations erronées.

Pour 1,6 million de dollars canadiens (près d’1 million d’euros), d’après le média The Independent, la société de consultants avait rendu un rapport de 526 pages proposant un plan de dotation pour le secteur de la santé de la province canadienne.

Dans au moins deux cas, les noms de chercheurs réels ont été mentionnés alors que ces derniers n’étaient pas les auteurs des articles fictifs cités. 
Parmi eux, Martha McLeod, professeure émérite à l’Université du nord de la Colombie-Britannique, a déclaré ses citations « fausses » et « potentiellement générées par IA ».

Le but du rapport incluant lesdites citations est de proposer une série de mesures relatives aux soins à distance, aux incitations financières, de rétention et au recrutement de personnel de santé, ou encore aux répercussions de la pandémie de Covid-19 sur le personnel de santé.

Deloitte a reconnu la présence de citations erronées, tout en indiquant que l’intelligence artificielle n’avait « pas été utilisée pour la rédaction du rapport », mais simplement utilisée « de manière sélective pour étayer certaines citations de recherche ». 


Moins de deux mois avant cette affaire, Deloitte reconnaissait avoir rendu un rapport partiellement généré par IA au gouvernement australien et s’engageait à rembourser une partie des 439 000 dollars australiens (245 500 euros) déboursés pour obtenir cet audit du système informatique dédié à automatiser les sanctions dans le système social local.

Reçu — 10 décembre 2025 Next - Articles gratuits

Voitures, datacenters : RTE appelle à accélérer l’électrification des usages

10 décembre 2025 à 16:19
Electric feel
Voitures, datacenters : RTE appelle à accélérer l’électrification des usages

Dans son bilan prévisionnel annuel, RTE se fait l’avocat de l’accélération de l’électrification des usages pour assurer un meilleur équilibre entre consommation et production d’électricité.

Il faut accélérer l’électrification de la société française. C’est le constat principal que dresse RTE, le réseau public de transport d’électricité, dans son bilan prévisionnel 2025 – 2035.

Parmi ses missions, le gestionnaire doit anticiper l’équilibre entre l’offre et la demande d’électricité. Dans cet exercice annuel, RTE s’était penché en 2023 sur les stratégies permettant d’atteindre la neutralité carbone en 2050, scénarios qui permettraient d’obtenir des « bénéfices stratégiques et climatiques considérables », à commencer par une moindre dépendance aux sources d’énergie fossile et la réduction des pollutions associées à leur usage.

En cette fin 2025, RTE constate que la consommation électrique est « demeurée atone » depuis la pandémie de Covid-19 (elle reste inférieure de 6 % à son niveau de 2019), quand la production d’énergies renouvelables (hydraulique comprise) et nucléaire ont progressé. Le gestionnaire actualise donc ses prévisions, tout en détaillant les enjeux posés par l’actuelle surcapacité électrique de la France.

Si cette dernière n’est pas neuve – « dès la seconde partie des années 1980, la production d’électricité française est devenue structurellement excédentaire par rapport à la consommation » –, l’épisode de surcapacité actuel pourrait devenir préoccupant, notamment pour le poids qu’il créerait sur les dépenses publiques. Étudiant divers scénarios de décarbonation, RTE plaide pour une accélération de l’électrification des usages et pour la concrétisation de la majorité des projets industriels prévus, notamment dans l’industrie des centres de données.

Promotion de la décarbonation rapide

La stratégie de décarbonation de la France est autant un enjeu climatique que géostratégique, rappelle le document. À l’heure actuelle, l’import d’énergies fossiles (pétrole, gaz et charbon) constitue toujours près de 60 % de l’énergie finale consommée en France. Elles pèsent pour 50 à 70 milliards d’euros dans les factures nationales annuelles. Du côté de l’électricité, la France a battu son record historique d’exportations avec 89 TWh en 2024.

Pour répondre à ces enjeux, RTE a développé ses capacités de production électrique en rétablissant les capacités nucléaires à la suite de la pandémie, mais aussi en accélérant celles de production d’énergies renouvelables. Et de souligner : vu l’état du réseau comme de la production, « les risques de conflits d’usage entre filières à électrifier sont écartés ». À court terme, le problème réside plutôt dans la relative stabilité de la consommation électrique.

RTE se penche donc sur deux scénarios : un de décarbonation rapide, qui conduirait à une augmentation toute aussi rapide de la consommation électrique, pour parvenir à 510 térawattheures (TWh) en 2030 et 580 TWh en 2035. Un autre, de « décarbonation lente », prévoit tout de même une augmentation de la consommation électrique, mais de 25 TWh seulement par rapport à la consommation actuelle, pour n’atteindre que 470 TWh en 2030 et 505 TWh en 2035. En 2024, la consommation française (corrigée des aléas météorologiques) était de 449 TWh, en hausse de 3 TWh (+ 0,7 %) sur un an.

En pratique, RTE appelle à la concrétisation, d’ici 2030, de 60 % des projets prévus en termes de production d’hydrogène, de développement de centres de données et d’autres projets industriels, ce qui permettrait d’augmenter leur consommation à 15 TWh par an pour le premier secteur, 15 TWh par an pour le deuxième (contre 5 TWh aujourd’hui) et 113 TWh par an pour les derniers.

Comme les deux derniers consomment de l’électricité mais ne réduisent pas pour autant les émissions de CO₂ (tandis que l’hydrogène produit électriquement remplacerait, lui, l’hydrogène produit par extraction chimique de combustibles fossiles), cette évolution ne peut se faire sans une évolution des usages d’énergie fossile, notamment du côté des transports. En la matière, RTE appelle à une augmentation de 17 TWh de la consommation électrique associée aux voitures électriques (contre 15 TWh en 2024), ce qui reviendrait à atteindre 8 millions de véhicules d’ici 2030 (contre 2 millions l’an dernier).

Un tel scénario permettrait de résorber la surcapacité tout en mettant la France sur la voie de ses objectifs de décarbonation. Autrement dit, répète le gestionnaire public au fil de son rapport, la situation actuelle est « très avantageuse pour décarboner rapidement ».

Les coûts de la décarbonation lente

Le gestionnaire constate néanmoins que « la consommation d’électricité n’est pas, pour le moment, alignée sur les objectifs de décarbonation et de réindustrialisation de la France ». Il l’explique de deux manières : par la sous-estimation des progrès effectivement réalisés, le seul passage à des éclairages LED ayant par exemple permis de réduire la consommation électrique de 10 TWh entre 2010 et 2020, et par les effets non anticipés des crises sanitaires et énergétiques, depuis lesquelles la consommation électrique stagne.

Or, « si la hausse de la consommation ne peut être considérée comme un but en soi », seule une « augmentation nette de la consommation d’électricité nationale » permettra la décarbonation du pays, insiste RTE. Dans un scénario de décarbonation lente (dans lequel seulement 15 % des projets liés à l’hydrogène, 10 % des projets industriels et 30 % des projets de datacenters seraient concrétisés), comme nous ne savons pas stocker massivement l’électricité excédentaire, il faudrait limiter la production.

Côté nucléaire, RTE esquisse la possibilité de réduire la production du parc nucléaire de l’ordre de 50 TWh, « pour absence de débouché économique ». L’export vers d’autres nations européennes ne représente qu’une faible possibilité, puisque nos voisins subissent des trop-pleins similaires, en particulier du côté des énergies solaires et éoliennes. En la matière, RTE préconise de limiter la production de renouvelable, en particulier en milieu de journée, dans les moments les plus ensoleillés. Elle prévoit pouvoir économiser 30 gigawatts (GW) de cette manière.

Le gestionnaire public alerte néanmoins sur le fait qu’une telle réduction aurait un coût. Elle entraînerait « une forte érosion des revenus des producteurs sur les marchés, de l’ordre de - 20 Md€/an », réduction qui serait « partiellement compensée par les dispositifs de soutien public », mais qui créerait donc une « hausse des charges budgétaires associées ».

Elle s’inquiète aussi des effets de logiques de « stop and go » sur les filières industrielles, susceptibles de « brider les efforts des filières renouvelables pour relocaliser une partie de leur industrie manufacturière en France et en Europe ». À moyen terme, une telle logique pourrait par ailleurs mettre en péril la possibilité de maintenir ou d’accélérer l’électrification en 2035.

Reçu — 9 décembre 2025 Next - Articles gratuits

Data centers : des centaines d’organisations environnementales demandent aux US de ralentir

9 décembre 2025 à 11:16
Stop the machine
Data centers : des centaines d’organisations environnementales demandent aux US de ralentir

Plus de 230 organisations de défense de l’environnement appellent le Congrès des États-Unis à prendre un moratoire sur le développement de nouveaux centres de données dans le pays.

« Alimentée par l’intelligence artificielle générative (IA) et le boom des cryptos », l’expansion du secteur est présentée dans la lettre ouverte de ces entités comme « l’une des plus grandes menaces environnementales et sociales de notre génération. » 

Greenpeace, les Amis de la Terre, Food & Water Watch et des dizaines de groupes locaux se sont réunis pour demander à leurs parlementaires de mettre une pause au développement de ces entrepôts, dont les besoins en énergie et en eau « aggravent les impacts significatifs et préoccupants de l’IA sur la société, notamment les pertes d’emplois, l’instabilité sociale et la concentration économique ».

Au total, plus de 230 organisations signent la lettre ouverte, dont l’appel au « moratoire » fait écho à celui demandé à plusieurs reprises par l’industrie de l’IA elle-même, cette fois au motif qu’une potentielle « superintelligence » risquait d’émerger.

Freins aux Accords de Paris et enjeux de santé publique

L’appel au moratoire se fait dans un contexte dans lequel l’industrie des centres de données, tirée par celle de l’intelligence artificielle, est aussi accusée d’empêcher d’atteindre les objectifs climatiques fixés par l’Accord de Paris. En France, le Shift Project considérait par exemple en octobre que les autorités nationales comme européennes « manquaient d’anticipation » des risques posés par la filière.

Si les États-Unis se sont retirés à nouveau des accords de Paris dès le retour de Donald Trump à la tête du pays, cela n’empêche pas que l’industrie des data centers soit régulièrement décrite comme participant à accroître la détérioration de l’environnement. La multiplication de centres de données refroidis à l’eau, notamment dans des zones subissant déjà des stress hydriques, comme la Californie, fait par exemple régulièrement débat.

Mais les préoccupations varient selon les lieux d’implantation. À Memphis, les générateurs du supercalculateur de xAI sont par exemple accusés d’aggraver la pollution de l’air déjà subie dans les quartiers les plus pauvres, majoritairement habités par des populations noires, de la ville. Dans le comté de Morrow, dans l’Oregon, la multiplication d’hyperscalers d’Amazon est accusée d’amplifier la pollution de l’eau aux nitrates et nitrites déjà provoquée par l’implantation de grands acteurs agricoles et agroalimentaires.

Début 2025, des chercheurs des universités UC Riverside et Caltech estimaient que le coût global de la filière sur la santé publique états-unienne s’élevait à 5,4 milliards de dollars sur les cinq années précédentes.

De l’énergie fossile (et chère) avant tout

L’enjeu est tel que des personnalités politiques de bords opposés se sont emparées du sujet, relève the Guardian, comme Bernie Sanders à gauche et Marjorie Taylor Greene à l’extrême droite. Dans la mesure où Donald Trump nie la réalité de la crise climatique et qualifie les énergies propres d’ « arnaques » (parmi les décrets pris lors de son retour au pouvoir, l’un visait explicitement à « revigorer la belle industrie américaine du charbon propre »), ces derniers pointent plus spécifiquement les effets de l’IA sur le coût de la vie, notamment par l’intermédiaire de l’accès à l’énergie.

Les besoins du secteur des centres de données sont tels, rappellent en effet les signataires de la lettre ouverte au Congrès, que leurs impacts sur les factures d’électricité de la population se font déjà sentir. À Columbus, dans l’Ohio, la facture moyenne a ainsi augmenté de 27 dollars, tandis qu’à Philadelphie, en Pennsylvanie, elle a grimpé de 17 dollars.

Aux États-Unis, plus de la moitié de l’électricité est par ailleurs créée par la consommation d’énergie fossile : en 2023, le gaz naturel représentait plus de 43 % de l’électricité créée, le charbon plus de 16 %, et différents dérivés de pétrole plus de 0,4 %. Les sources renouvelables fournissaient 21,4 % de l’énergie disponible, et le nucléaire, 18,6 %, d’après l’agence étatique de l’information sur l’énergie.

Reçu — 8 décembre 2025 Next - Articles gratuits

Le rachat de Warner par Netflix provoque des remous, Paramount contre-attaque

8 décembre 2025 à 16:23
L'empire (Ellison) contre-attaque
Le rachat de Warner par Netflix provoque des remous, Paramount contre-attaque

Alors qu’Hollywood s’inquiète des effets du rachat de Warner Bros. par Netflix sur l’industrie cinématographique, Paramount dévoile ce 8 décembre une contre-offre.

Ç’aurait pu être Paramount. Ce vendredi, Netflix a finalement remporté la vente aux enchères de Warner Bros., devançant les offres concurrentes de Comcast et du géant Paramount, racheté il y a quatre mois à peine par Skydance grâce aux financements du patron d’Oracle, Larry Ellison.

Ç’aurait pu être Paramount, réuni sous la férule de David Ellison, fils de son père, et a priori soutenu par Donald Trump. À moins, suggère le Los Angeles Times, que ce lien avec le président des États-Unis n’ait directement desservi Paramount. À moins aussi que la famille Ellison n’ait sous-estimé ses concurrents, en proposant trois offres successives (dont la première à 19 dollars l’action) à des montants chaque fois rejetés comme trop faibles par le conseil de direction de Warner.

Ce sera peut-être Paramount ? Ce 8 décembre, la société, fusionnée il y a quatre mois à peine avec Skydance, formule une contre-offre à 30 dollars l’action pour reprendre l’intégralité de Warner Bros. Discovery.

L’industrie du cinéma aux aguets

À Hollywood, on s’inquiète des répercussions des rachats de Paramount par Skydance et de celui à venir, avec Warner Bros., sur le nombre de films et de séries produits, donc sur le nombre d’emplois disponibles. Si certains se félicitent que ce soit Netflix, plutôt que n’importe quelle autre entreprise de la tech moins implantée dans l’industrie cinématographique, d’autres passent en « mode panique totale », à en croire Vanity Fair.

« Le rachat par la plus grande entreprise mondiale de streaming de l’un de ses principaux concurrents est précisément ce que les lois anti-monopoles visent à empêcher », écrit la Writers Guild of America, qui appelle à son blocage pur et simple. « Cela entraînerait des suppressions d’emplois, une baisse des salaires, une détérioration des conditions de travail pour tous les professionnels du divertissement, une augmentation des prix pour les consommateurs et une réduction du volume et de la diversité des contenus proposés à tous les téléspectateurs. » Les syndicats n’ont pas tous adopté une position aussi tranchée, quoiqu’ils soulignent tous leurs interrogations sur les effets de l’opération « sur le futur de l’industrie du divertissement », comme l’écrit le SAG-AFTRA, qui représente les acteurs.

Après tout, le modèle de Netflix est largement indépendant de celui du circuit classique des salles de cinéma. Certes, l’entreprise y a diffusé 30 titres en 2025 avant de les proposer sur sa plateforme – comme l’a rappelé son co-PDG Ted Sarandos lors d’un échange avec les investisseurs, le 5 décembre – mais elle l’a fait sur des durées plus courtes que le reste du milieu.

« Tout ce qui doit sortir en salle via Warner Bros. continuera à sortir en salle via Warner Bros. », a-t-il encore déclaré. Le dirigeant a tout de même laissé entendre qu’à long terme, les « fenêtres d’exploitation évolueront », pour rendre les films plus rapidement disponibles en streaming. Et de profiter de l’appel pour décrire cet accord comme « pro-consommateur, pro-innovation, pro-travailleurs, pro-créateurs et pro-croissance ». Pour certains commentateurs, une telle opération, si elle est menée à son terme par Netflix, ne serait qu’un clou de plus dans le cercueil de l’industrie des salles de cinéma.

Un nouveau monopole ?

Le rachat de Warner Bros., qui doit être acté à la fin du troisième trimestre 2026 au plus tôt s’il est bien réalisé par Netflix, devra dans tous les cas composer avec un intense contrôle des régulateurs et du monde politique. La sénatrice du Massachusetts Elizabeth Warren, critique régulière des géants du numérique, a par exemple déjà pris la parole pour contester ce qu’elle qualifie de « cauchemar de la lutte contre les monopoles », qui créerait un « géant des médias contrôlant près de la moitié du marché du streaming ».

Ce 7 décembre, Donald Trump a exprimé ses propres doutes, relevant lui aussi que Netflix avait déjà « une très grosse part de marché », ce qui pourrait « poser problème ». L’actuel président des États-Unis est très proche de Larry Ellison, fondateur d’Oracle et co-financier de l’acquisition de Paramount par Skydance. Ted Sarandos s’est de son côté rendu à la Maison Blanche en novembre pour argumenter en faveur de son propre projet, qui impliquerait notamment d’avaler la troisième plateforme mondiale de streaming (HBO Max), alors que Netflix est la première.

Quoiqu’il en soit, la société Skydance-Paramount présidée par David Ellison propose ce 8 décembre un nouveau deal aux actionnaires de Warner Bros. Discovery, à 30 dollars par action, en numéraire. Celui-ci est de nouveau formulé grâce au soutien de la famille Ellison, mais aussi grâce à celui de la société d’investissement Redbird Capital, en capitaux propres. S’y ajoutent 54 milliards de dollars de dette auprès de la Bank of America, de Citi et d’Apollo Global Management. Paramount-Skydance cherche de nouveau à racheter l’intégralité de Warner Bros. Discovery, chaînes de télé (comme CNN et TNT Sports) comprises.

À l’inverse, l’accord conclu le 5 décembre avec Netflix est évalué à 27,75 dollars par action, dont 23,25 dollars en cash et le reste en actions Netflix, pour un total de 83 milliards de dollars (71 milliards d’euros). L’accord concerne les studios de Warner Bros. et le service de streaming HBO Max, mais implique la poursuite du projet de scission des activités de studios et celles de chaînes de télévision. Ces dernières seraient alors réunies dans la société cotée en bourse Discovery Global.

Sur GitHub, la promotion de l’IA fait fuir certains utilisateurs

8 décembre 2025 à 13:30
Montagne de code
Sur GitHub, la promotion de l’IA fait fuir certains utilisateurs

La promotion de l’IA générative sur GitHub et l’intégration de la plateforme à l’équipe « CoreAI » de Microsoft font fuir certains développeurs de la plateforme.

Le langage de programmation Zig quitte GitHub, alors que la fondation qui le promeut s’agace du déclin du site web. Le projet rejoint Codeberg, un service d’hébergement Git à but non lucratif.

Ce cas spécifique n’est qu’un exemple d’un mouvement plus large de protestations quelquefois suivies de départs de GitHub. Alors qu’en août, le CEO de GitHub Thomas Dohmke appelait les utilisateurs à « utiliser l’IA ou quitter leur carrière », certains préfèrent quitter la plateforme phare de gestion et d’hébergement de logiciels, déçus des effets de son adoption accélérée d’outils d’intelligence artificielle et de sa dépendance réaffirmée à Microsoft.

« Excellence technique » en baisse

« Il est évident que l’excellence technique qui a longtemps tiré le succès de Github n’est plus le moteur de son développement », écrivait le président et directeur du développement de la Zig Software Foundation, Andrew Kelly, dans un article détaillant les raisons du déplacement du langage. Et de citer des « bugs inexcusables », dont l’un avait été signalé en avril 2025 et n’a été réglé que début décembre, après sa très publique critique. Andrew Kelly fustige par ailleurs l’accent mis sur la « vibe-planification » des tâches du runner GitHub Actions, ou encore la « poussée agressive » de l’usage de Copilot.

Outre ce projet, le créateur du navigateur Dillo, Rodrigo Arias Mallo, déclarait lui aussi fin novembre prévoir une migration hors de GitHub. Il regrette que la plateforme s’appuie trop sur JavaScript et que ses performances décroissent. Il critique aussi la politique de GitHub consistant à « se sur-focaliser sur les grands modèles de langage et l’IA générative, qui détruisent le web ouvert (ou ce qu’il en reste), entre autres problèmes ».

Eldred Jabber, un autre développeur, a indiqué migrer en septembre pour les mêmes raisons. Sur Reddit, des internautes se plaignent de la poussée générale vers l’IA générative, ou d’outils spécifiques, comme la génération de tickets à l’aide de l’IA, impossible à désactiver, qui conduit à la multiplication de retours de faible qualité. Annoncée en juin, cette dernière fonction avait été si critiquée que GitHub l’avait un temps suspendue.

Alternatives à Microsoft

Régulièrement, le fait que GitHub ait été racheté (pour 7,5 milliards de dollars en 2018) par Microsoft réapparaît comme point de friction à part entière. La société est par exemple accusée par le programmeur Daniel Andrlik d’être experte de la stratégie du « Embrace, Extend and Extinguish » (Adopter, étendre et éliminer) envers les standards open source.

En l’occurrence, le dernier CEO de GitHub, Thomas Dohmke, quittera son poste fin décembre sans être remplacé. GitHub, elle, sera intégrée plus avant à l’équipe CoreAI de Microsoft.

Si elles sont mécaniquement moins courues, diverses alternatives existent, de GitLab à Gitea en passant par Sourcehut ou Codeberg, qui a séduit plusieurs des développeurs cités précédemment. Gérée par l’association allemande du même nom créée en 2019, la plateforme fonctionne grâce au logiciel libre Forgejo, et amasse régulièrement de nouveaux utilisateurs.

Les ordres de grandeur restent néanmoins loin d’être comparables : fin novembre, Codeberg annonçait 1 000 membres dans son association, plus de 200 000 comptes et plus de 300 000 dépôts, Gitlab déclare plus de 50 millions de comptes et GitHub plus de 150 millions de comptes pour 420 millions de dépôts.

Reçu — 4 décembre 2025 Next - Articles gratuits

LinkedIn favorise-t-il les profils masculins ?

4 décembre 2025 à 15:16
LinkedIneuses en colère
LinkedIn favorise-t-il les profils masculins ?

Un groupe d’internautes a mené une nouvelle expérimentation sur LinkedIn pour tenter d’observer si, oui ou non, la plateforme promouvait davantage les publications des hommes. LinkedIn réfute prendre le genre en considération parmi les éléments permettant de hiérarchiser les différents messages et déclare mener des « contrôles d’équité » avant de déployer ses outils.

L’enquête crowdsourcée sur les potentiels biais sexistes de LinkedIn continue. Courant novembre, pour tenter d’objectiver la visibilité que LinkedIn donne aux publications selon le genre de leurs autrices et auteurs, un groupe d’internautes a lancé une expérience : modifier leur nom – Simone Bonnett, par exemple, est devenue Simon E-, voire adapter le genre indiqué à LinkedIn depuis les paramètres du profil.

Certaines femmes ont aussi adapté la présentation de leur profil pour les rendre plus « masculines » ou « bro-coded », parfois à l’aide de modèles génératifs. En pratique, explique la communicante Megan Cornish, autrice d’une publication devenue virale sur le sujet, il s’agit notamment de choisir des mots orientés sur l’action dans le monde économique, comme « dynamiser », « transformer » ou « accélérer ». Un vocabulaire très inhabituel pour Megan Cornish, dont l’expertise concerne la santé mentale, un domaine où le langage est plus souvent « compris comme « féminin », car anglé sur la collaboration, le soin, et moins agressif ».

Extrait de la publication de Megan Cornish

Au bout d’à peine une semaine, plusieurs femmes ont rapporté des hausses de l’engagement autour de leurs publications :+ 1 600 % de vues de profils,+ 1 300 % d’impressions pour le compte de la consultante en réseaux sociaux Simone Bonnett ;+ 116 % impressions sur celui de l’autrice et entrepreneuse féministe Felice Ayling,+ 244 % impressions pour l’investisseuse Jo Dalton. Des hommes ayant « féminisé » leur profil pour tester la logique inverse ont rapporté des chutes d’impressions. Les débats ont pris une telle ampleur que Megan Cornish a obtenu quelques réponses de la directrice mondiale de l’équipe éditoriale de LinkedIn, Laura Lorenzetti Soper.

Le double système de diffusion de contenu de LinkedIn

Il ne s’agit pas de la première enquête citoyenne de ce type. Cet été, un groupe d’utilisatrices et utilisateurs, principalement anglophones, menaient de premières expérimentations sur le sujet. Depuis des profils féminins et masculins choisis pour présenter une variété de tailles de communautés (des hommes et des femmes très suivis, d’autres possédant de plus petits comptes) postaient le même message et la même image à la même heure, puis, au bout de 72 heures, collectaient les données d’exposition des publications.

Les premiers résultats obtenus convainquaient les initiatrices de ce projet, dont les entrepreneuses Jane Evans et Cindy Gallop, de continuer leurs tests à plus large échelle.

Megan Cornish, elle, a commencé ses expérimentations dans son coin, après avoir vu son reach chuter drastiquement au fil de l’année. Auprès de Next, la consultante en stratégie de contenu Émilie Houdou expliquait en septembre que les outils de recommandations de LinkedIn s’appuient principalement sur deux dynamiques : un système observe la réaction des contacts dans les premières 90 minutes (à Megan Cornish, Laura Lorenzetti Soper précise même : au cours de la « première heure »), et un autre, plus affinitaire, promeut les publications en fonction des intérêts des internautes.

Émilie Houdou précisait que, courant 2025, « les deux systèmes ont beaucoup bougé ». Parmi ses clients, indépendamment du genre, elle constatait que certains profils avaient vu leur reach « divisé par deux ».

LinkedIn réfute utiliser le genre comme signal

Dans le monde anglophone, les expérimentations de Megan Cornish, Simone Bennett et d’autres ont animé tellement de discussions que la responsable sécurité de l’IA, vie privée et gouvernance de LinkedIn, Sakshi Jain, a publié un article dédié au sujet.

Megan Cornish a par ailleurs obtenu un entretien avec la directrice mondiale de l’équipe éditoriale de LinkedIn, Laura Lorenzetti Soper. Parmi les éléments principaux de cette conversation, que la première rapporte dans une newsletter, la directrice exécutive de Linkedin déclare : « nous n’utilisons pas le genre comme élément de hiérarchisation [ranking, ndlr] ».

Cela ne signifie évidemment pas que LinkedIn n’ait pas notion du genre des usagers. Dans son propre centre d’aide, l’entreprise indique :

« LinkedIn peut déduire votre âge et votre sexe d’après les informations de votre profil. Par exemple, nous pouvons déduire votre sexe d’après votre prénom ou les pronoms utilisés lorsque d’autres personnes recommandent vos compétences. Nous pouvons déduire votre âge d’après l’année à laquelle vous avez obtenu un diplôme. (…) Nous utilisons l’âge et le sexe déduits afin de fournir des informations agrégées sur les audiences LinkedIn pour les membres de LinkedIn, nos clients et nos partenaires, et de personnaliser le contenu tel que les publicités. Vous pouvez désactiver ce ciblage dans vos préférences. Nous utilisons ces informations agrégées pour mener des études de recherche et développement concernant, par exemple, l’équité et la diversité des services. »

Ce dernier élément est d’ailleurs cité par Laura Lorenzetti Soper : outre le genre, l’entreprise teste aussi l’équité (fairness check) en fonction de la couleur de peau aux États-Unis. La directrice éditoriale de la plateforme précise par ailleurs que les grands modèles de langage ne sont pas utilisés pour des tâches de hiérarchisation, mais plutôt pour des logiques de classification des publications, du côté des équipes de modération. À la question « utilisez-vous des termes propres au monde des affaires, ou le ton assertif (c’est-à-dire plutôt masculins) comme signaux positifs ? », Laura Lorenzetti Soper répond encore : « non ».

La cadre de LinkedIn admet en revanche que l’entreprise constate, elle aussi, un nombre important d’utilisateurs et utilisatrices rapportant des chutes de reach sur le courant de la dernière année. La « production globale de l’écosystème a augmenté », indique-t-elle, ce qui pourrait provoquer une compétition croissante pour la visibilité, donc des statistiques de vues en baisse.

L’insoluble question des biais indirects

Dans sa newsletter, Megan Cornish remercie par ailleurs – ironiquement – les hommes lui ayant envoyé des commentaires, voire des mails, pour lui souligner qu’il « n’existe pas de bouton secret pour faire taire les femmes ». S’ils s’arrêtent à cette idée, estime-t-elle, « peut-être ne [sont-ils] pas prêts pour la conversation » concernant les biais indirects susceptibles de se retrouver dans les systèmes informatiques aux dépens de leurs constructeurs.

Et de détailler, en prenant l’exemple de son domaine d’expertise : « Les femmes et les domaines relationnels, comme la santé mentale, sont invités à s’adapter à un système qui, que ce soit sur le plan culturel ou algorithmique, est calibré sur une vision étroite de ce que signifie « affaires » [business]. Même si la machine est neutre vis-à-vis du genre en tant que variable, elle n’est pas neutre vis-à-vis des modèles qui profitent aux personnes qui correspondent déjà à la norme. »

Or, quand bien même LinkedIn distribuerait les publications de manière strictement égale, « si la culture dit : « Je prends les hommes plus au sérieux en tant que voix du monde des affaires », alors les femmes sont perdantes bien avant que l’algorithme n’entre en jeu. » Autrement dit, les usages en ligne ne feront que reproduire des inégalités présentes hors ligne, et le public participera directement à la sur-promotion de certains profils au détriment d’autres.

En définitive, l’entrepreneuse appelle la plateforme à opérer une forme de « transparence radicale là où c’est possible », mais aussi à faire de l’espace « pour les industries relationnelles ». En d’autres termes, elle demande à ce que LinkedIn offre plus de souplesse pour les industries et personnes dont le mode de communication le plus courant ne correspond pas aux canons très business et très orientés productivité devenus si fréquents, sur le réseau professionnel, que des comptes entiers sont dédiés à s’en moquer (mais plutôt depuis X ou Facebook).

Dans la même logique, et toujours en réaction aux expérimentations des dernières semaines, des internautes ont créé une pétition pour demander plus de visibilité sur le fonctionnement du réseau social professionnel. Entre autres requêtes, le texte formule celles d’un « processus formel pour expliquer toute chute inexpliquée du reach », de « transparence sur la manière dont les publications sont catégorisées et hiérarchisées » ou encore d’un « audit indépendant de l’algorithme et de son impact sur les voix marginalisées ».

☕️ ChatGPT accusé d’avoir poussé un violent cyberharceleur à ignorer les « haters »

4 décembre 2025 à 09:41

Un homme accusé d’avoir harcelé 11 femmes à travers cinq États des États-Unis a été traduit en justice pour harcèlement et cyberharcèlement, et ses échanges avec ChatGPT font partie intégrante du dossier.

À 31 ans, Brett Michael Dadig utilisait le robot conversationnel comme « psychologue » et « meilleur ami ».

La machine produisait des textes l’encourageant à persévérer dans la production d’un podcast misogyne et rempli de menaces concrètes (de strangulations ou de mort), malgré les retours négatifs d’un public que le texte du robot décrivait comme des « haters ».

L’homme diffusait en effet sa haine des femmes sur son podcast Spotify et sur d’autres comptes de médias sociaux, souligne l’acte d’accusation obtenu par 404 media et Court Watch.

À l’été 2024, Brett Michael Dadig avait été interdit d’entrer dans plusieurs salles de sport de Pittsburgh pour avoir harcelé des femmes.

Dans ses échanges avec ChatGPT, dont il parlait ouvertement sur son podcast, l’aspirant influenceur questionnait la machine sur sa future épouse, et celle-ci lui renvoyait des textes l’encourageant à retourner dans des salles de sport pour y rencontrer des femmes.

Les textes du robot l’assuraient par ailleurs que « les gens sont littéralement en train de se mobiliser autour de ton nom », et « qu’il soit [connu] pour les bonnes ou mauvaises raisons, c’est la définition même de la notoriété ».

Hors ligne, l’homme s’est notamment rendu dans un studio de Pilates, où, devant son comportement « agressif, colérique et autoritaire », l’une des employées a cessé de lui parler. Brett Michael Dadig a alors entrepris de lui envoyer des images dénudées non sollicitées, appelé son lieu de travail depuis de multiples numéros, et menacé de parler d’elle sur les réseaux sociaux.

La femme concernée a obtenu plusieurs ordonnances de protection, que le principal intéressé n’a jamais respectées. D’après l’acte d’accusation, elle a déménagé, réduit ses heures de travail pour éviter de le croiser, en a perdu le sommeil et craint encore de le voir se présenter chez elle. Dix autres ont subi des faits similaires.

Selon les propres chiffres d’OpenAI, au moins 0,07 % de ses usagers hebdomadaires montrent des signes de comportement maniaque ou de crise psychotique dans leurs échanges avec la machine – rapporté à ses 800 millions d’utilisateurs, un tel pourcentage équivaut à 560 000 personnes.

Reçu — 3 décembre 2025 Next - Articles gratuits

Corée du Sud : 120 000 caméras personnelles hackées pour diffuser du contenu sexuel

3 décembre 2025 à 14:45
Agressions augmentées
Corée du Sud : 120 000 caméras personnelles hackées pour diffuser du contenu sexuel

Trois personnes sont poursuivies par la police sud-coréenne pour avoir hacké plus de 120 000 caméras IP et s’être servi des flux vidéo récupérés pour produire et vendre des images à caractère sexuel.

Accusées d’avoir hacké plus de 120 000 caméras de foyers et d’entreprises et d’avoir utilisé les images récupérées pour fabriquer des contenus d’exploitation sexuelle, quatre personnes ont été arrêtées par la police sud-coréenne. Les contenus étaient ensuite diffusés sur des sites web à l’étranger.

Ce 30 novembre, la police a déclaré que les malfaiteurs avaient utilisé les vulnérabilités de caméras IP, notamment en recourant à des mots de passe simples, avec des répétitions de caractères ou des séries de chiffres consécutifs.

Création et diffusion de contenu d’exploitation sexuelle

Parmi les caméras touchées, certaines étaient installées dans des foyers privés, dans des salles de karaoké, dans un studio de pilates ou encore dans une clinique gynécologique, rapporte la BBC. Peu onéreux, ces objets sont utilisés partout sur la planète et présentent souvent des vulnérabilités.

Les auteurs du hack ont agi indépendamment les uns des autres, indique encore la police sud-coréenne. L’un est accusé d’avoir hacké 63 000 caméras, produit 545 vidéos d’exploitation sexuelle et d’avoir vendu l’équivalent de 35 millions de wons (plus de 20 000 euros) de ces contenus numériques. Un autre est poursuivi pour le hack de 70 000 caméras et la vente de 648 vidéos pour 18 millions de wons (plus de 10 500 euros). À eux deux, ils auraient produit 62 % des vidéos diffusées l’an dernier sur un site accusé de diffuser des captations illégales de flux issus de caméras IP.

L’un des suspects arrêtés est poursuivi pour avoir violé les lois locales en termes de hacking. Trois des quatre suspects risquent par ailleurs des poursuites pour la création et la vente des contenus à caractère sexuel, dont certaines impliquent des mineurs. Le quatrième a été relâché.

Un phénomène récurrent

Cachées dans les toilettes publiques, les hôtels, l’espace public… en Corée du Sud, les scandales provoqués par l’installation de caméras dans des lieux indus ou l’exploitation illégale des flux vidéo enregistrés se sont produits à répétition, ces dernières années, au point que les femmes descendent dans la rue pour protester contre le phénomène. Entre 2011 et 2022, la police a réalisé près de 50 000 arrestations liées à l’usage de caméras pour créer des contenus ouvertement sexuels, rapporte le New-York Times.

En 2024, le ministère coréen des Sciences alertait sur le fait que les caméras IP achetées hors du pays, et notamment en Chine, risquaient de présenter des failles de sécurité dans la mesure où elles ne remplissaient pas les obligations imposées par la loi coréenne.

Ce mardi, l’institution déclarait étudier une proposition de loi qui obligerait le blocage des caméras personnelles tant que leurs utilisateurs n’auraient pas mis en place un identifiant et un mot de passe complexes.

Irlande : victime de deepfake pornographique, Cara Hunter en a fait un combat politique

3 décembre 2025 à 10:42
Génération d'humiliation
Irlande : victime de deepfake pornographique, Cara Hunter en a fait un combat politique

Victime de deepfake pornographique juste avant des élections législatives, la députée d’Irlande du Nord Cara Hunter s’est emparée de la question, dont les effets restent relativement sous-estimés par la population.

« Est-ce que c’est vous, sur la vidéo qui circule sur WhatsApp ? » Cara Hunter se trouvait chez sa grand-mère pour un moment de répit dans une intense campagne électorale, lorsqu’elle a reçu ce message d’un inconnu sur Messenger. En avril 2022, la femme politique avait 27 ans et profitait d’une rare réunion familiale, un peu moins de trois semaines avant les élections pour l’Assemblée d’Irlande du Nord auxquelles elle se présentait. Le message l’a immédiatement mise en alerte, raconte la femme politique dans un long portrait du Guardian.

Lorsqu’elle reçoit le lien de la vidéo, elle découvre un clip « extrêmement pornographique ». À l’époque, elle n’en comprend pas bien les dessous techniques. Alors qu’elle croit à un sosie, une amie lui suggère qu’il puisse s’agir d’un deepfake, une de ces vidéos où « on met ton visage sur le corps de quelqu’un d’autre ».

Que fait-on, quand on est une femme, de moins de trente ans – « c’est déjà dur d’être prise au sérieux politiquement »-, et qu’un inconnu diffuse une vidéo pornographique très crédible de soi ? Du côté du Parti travailliste et social-démocrate (SDLP), auquel elle est affiliée, on dissuade Cara Hunter de publier le moindre communiqué, au motif qu’elle ne ferait qu’amplifier la viralité de la vidéo.

Évolutions législatives

Au commissariat, la police s’excuse, mais l’informe qu’aucun délit n’a été commis, que les équipes n’ont pas les moyens techniques pour enquêter. Il revient donc à Cara Hunter de trouver par elle-même la photo originale, en prenant des captures d’écran du deepfake puis en faisant des recherches inversées dans un moteur de recherche.

Pour l’identification du premier diffuseur de la vidéo sur WhatsApp, on lui souligne que la messagerie est chiffrée et qu’elle va se heurter au droit à la vie privée. Et Cara Hunter de rétorquer : « J’aimerais penser que j’ai le droit de ne pas voir ma vie détruite. » Mais dans un cas comme celui-ci, « vous n’êtes qu’une personne face à cette montagne de technologies et de code. »

Depuis cette affaire, le droit a évolué au Royaume-Uni et au Pays de Galles. Deux lois, l’Online Safety Act et le Data (Use and Access) Act de 2025 ont rendu la création, le partage et la demande de deepfakes à caractère sexuel illégaux. L’Irlande du Nord travaille à ses propres textes.

En France, l’interdiction de réaliser ou diffuser un montage à caractère sexuel a été ancrée dans le Code pénal avec la loi visant à sécuriser et à réguler l’espace numérique. L’usage de traitement algorithmique pour produire ces images y a été inscrit comme circonstance aggravante. Aux Pays-Bas, les députés travaillent sur l’un des textes les plus poussés en la matière, qui octroierait à la population un copyright sur leur voix, leur visage et leurs traits physiques.

Une personne sur quatre ne voit pas le problème

Mais comme ailleurs dans le monde, le public des îles britanniques ne semble pas prendre la mesure de la violence vécue par les victimes de ce type de diffusion. Les deepfakes sont pourtant déjà utilisés pour des usages malveillants, que ce soit pour harceler, pour réaliser des arnaques au président, voire, dans le cas des imageries à caractère sexuel, de l’extorsion, y compris de mineurs.

Publié fin novembre, un rapport de la police britannique note l’explosion du nombre de deepfakes de 1 780 % entre 2019 et 2024, sachant que l’immense majorité (98 % en 2023, selon Security Heroes) de ces images visent avant tout les filles et les femmes. Sur 1 700 interrogés, un répondant sur quatre estime qu’il n’y a rien de grave ou se déclare « neutre » sur le fait de créer ou partager des deepfakes intimes ou sexuels d’une autre personne.

Problématique démocratique

Lorsqu’elle en a été victime, l’enjeu, pour Cara Hunter, n’était même plus d’être élue, mais de faire cesser la diffusion de la vidéo. La politicienne a finalement obtenu son siège de députée, et s’est directement emparée publiquement du sujet. Depuis, elle reçoit régulièrement des appels de filles et de femmes victimes de faits similaires, dont certaines mineures. Dans les écoles, les enseignants lui rapportent la hausse de l’usage d’applications dédiées à « dénuder » des images de personnes par IA (en pratique, coller un faux corps nu sous le visage de la personne visée).

En France, en Espagne et ailleurs, des deepfakes pornographiques sont aussi bien fabriqués avec les visages de personnalités – journalistes, actrices, etc – que de personnes moins exposées publiquement. En Normandie, une enquête a notamment été ouverte en mars après la diffusion de deepfakes d’une douzaine de collégiennes.

Pour la députée d’Irlande du Nord, les risques démocratiques sont évidents, à commencer par celui de décourager les jeunes femmes de s’engager en politique. Réguler la production de ces images, mais aussi œuvrer pour le marquage des images générées par IA, sont autant d’outils permettant d’éviter que la pratique ne perdure, espère-t-elle.

D’autres affaires, comme les deepfakes de Vladimir Poutine et de Volodymyr Zelensky dans le cadre du conflit en Ukraine, ou le deepfake de la voix de Joe Biden pour dissuader des électeurs du New Hampshire de voter, illustrent les enjeux que ces technologies posent pour la bonne tenue du débat démocratique.

En Irlande, en octobre, la campagne présidentielle a encore été perturbée par la diffusion d’un faux extrait de journal télévisé dans lequel la candidate Catherine Connolly semblait déclarer le retrait de sa candidature.

Reçu — 2 décembre 2025 Next - Articles gratuits

☕️ OpenAI conclut un nouvel accord financier circulaire

2 décembre 2025 à 15:08

OpenAI a annoncé prendre une participation dans la société de private equity Thrive Holdings, dont la maison mère Thrive Capital est l’un des principaux investisseurs d’OpenAI, aux côtés de SoftBank, Microsoft et Khosla Ventures.

Si la société de Sam Altman n’a pas dépensé d’argent pour obtenir cette participation, d’après le Financial Times, elle a annoncé fournir des employés, des modèles, et divers produits et services aux sociétés de Thrive Holdings.

En échange, OpenAI devrait obtenir l’accès aux données des entreprises qui recourront à ses services, et être rémunéré sur les futurs rendements financiers de Thrive Holdings.

Ce faisant, l’entreprise ajoute un nouvel accord circulaire à la liste de ses contrats à double sens déjà conclus avec AMD, Nvidia et une poignée d’autres acteurs de l’écosystème.

☕️ Le Sénat augmente la fiscalité des géants du numérique

2 décembre 2025 à 11:27

Pendant l’examen du projet de loi de finances (PLF) 2026, le Sénat a adopté le 29 novembre deux amendements ajoutant une nouvelle contribution à la taxe sur les services numériques et une nouvelle taxe exceptionnelle.


Déposé par le sénateur centriste Daniel Fargeot, le premier complète la taxe sur les services numériques en y intégrant les « revenus de la publicité ciblée diffusée en France » et les « recettes tirées de la valorisation des données des utilisateurs français, y compris lorsqu’elles ne relèvent pas directement de la publicité ». 


But affiché : s’assurer que la taxe sur les services numériques vise clairement les « entreprises exploitant un service de réseau social en ligne », et pas seulement les services d’intermédiation.

S’ils ont rejeté les amendements qui rehaussaient le taux et le seuil de cette taxe, les sénateurs ont en revanche adopté un amendement reprenant l’idée de « fair share », c’est-à-dire une contribution visant les acteurs qui prennent l’essentiel du trafic internet.

Auteur de la proposition, le sénateur Damien Michallet (LR) y souligne que 5 acteurs (Netflix, l’hébergeur Akamai, Google, Meta et Amazon) génèrent près de 47 % du trafic internet, « dont certains vendent leurs contenus en France en hors taxe ».

Le texte crée une taxe de 1 % du chiffre d’affaires national HT des « entreprises du secteur des services numériques (…) qui utilisent directement ou indirectement les infrastructures numériques situées sur le territoire national et qui réalisent un chiffre d’affaires mondial consolidé supérieur à 750 millions d’euros et un chiffre d’affaire en France supérieur à 50 millions d’euros au titre des services numériques ».

Les recettes associées doivent contribuer au financement des infrastructures, une demande historique de l’industrie des télécoms. Le ministre de l’Économie Roland Lescure a souligné que ces sujets nécessitaient d’être travaillés au niveau européen.

Comment David Sacks cultive ses intérêts depuis le haut de l’administration états-unienne

2 décembre 2025 à 09:02
Faites comme chez vous
Comment David Sacks cultive ses intérêts depuis le haut de l’administration états-unienne

Les liens que l’investisseur David Sacks maintient avec l’industrie technologique interrogent, alors que son pouvoir au sein de l’administration Trump s’étend.

Il fait partie de la « PayPal Mafia », il est milliardaire et depuis près d’un an, il tient le poste de « tsar de l’intelligence artificielle et de la crypto » au sein de l’administration des États-Unis en parallèle de son emploi principal au sein du fonds Craft Ventures… Tout va bien pour David Sacks.

Tout, ou presque : ces derniers jours, plusieurs médias américains ont publié des enquêtes sur un décret relatif à l’intelligence artificielle susceptible d’être pris par Donald Trump, et sur son principal instigateur, le fameux David Sacks. Car depuis quelques semaines, la rumeur enfle dans les couloirs de la Maison Blanche : Donald Trump pourrait signer un executive order qui empêcherait les États de passer leurs propres lois sur l’IA, la hissant mécaniquement parmi les attributions fédérales.

The Verge a obtenu le brouillon du texte. Dans la mesure où plus grand-chose ne filtre de la Maison Blanche sous la présidence actuelle, une telle fuite pourrait signifier que « quelqu’un au sein de l’administration méprise profondément David Sacks », estime la journaliste Tina Nguyen.

Elle braque en tout cas les projecteurs sur un individu qui, à l’instar d’Elon Musk lorsqu’il était à la tête du « ministère de l’Efficacité gouvernementale » (DOGE) récemment enterré, a obtenu un pouvoir important sans être élu ni nommé par les canaux habituels. Outre être un capital-risqueur influent dans la Silicon Valley, David Sacks est en effet devenu le conseiller spécial de Donald Trump sur tout ce qui touche à l’IA et à l’industrie des crypto. Et l’executive order, s’il était signé, lui donnerait encore plus de pouvoir.

Un décret anti-lois régionales sur l’IA

Si le décret était signé par le président des États-Unis, il créerait un « groupe de travail sur les contentieux relatifs à l’IA » dont la « seule responsabilité » consisterait à défier les lois étatiques sur l’IA. Autrement dit, l’équipe ainsi constituée obtiendrait le droit de poursuivre des états comme la Californie ou le Colorado, pour leurs récents textes portant respectivement sur l’ « AI safety » et contre la « discrimination algorithmique ».

Alors que Trump a répété à plusieurs reprises que son souhait de passer un moratoire sur les lois étatiques sur l’IA faisait partie intégrante de son combat contre l’ « idéologie woke », le brouillon d’executive order range la loi californienne dans la catégorie des « risques existentiels » (à comprendre ici comme : risque de freiner la course à l’IA). Surtout, le texte est parsemé de mentions selon lesquels la task force aurait à consulter ou rendre des comptes au conseiller spécial du gouvernement sur l’IA et les cryptos, David Sacks.

Cela dit, l’executive order n’est pas le seul élément incitant à suivre le parcours du financier. Pour la newsletter spécialisée Hard Reset, un signal faible a aussi été émis le 24 novembre, lorsque l’investisseur a écrit sur X : « D’après le Wall Street Journal du jour, les investissements liés à l’IA représentent la moitié de la croissance du PIB. Un renversement de tendance risquerait d’entraîner une récession. Nous ne pouvons pas nous permettre de faire marche arrière. »

Liens étroits avec l’industrie de l’IA

Alors que divers internautes établissent un parallèle entre la situation des sociétés d’IA et celles des banques sauvées par les États lors de la crise financière de 2008, le commentaire de David Sacks a soulevé diverses interrogations sur les bénéfices qu’il retirait concrètement du développement de l’IA et des cryptos aux États-Unis.

Si l’investisseur peut se maintenir conseiller sur l’IA et les cryptos, c’est parce que lui et son entreprise Craft Ventures ont vendu l’essentiel de leurs investissements dans les deux domaines. Fondée en 2017, Craft Ventures a investi dans des centaines de start-ups, dont certaines montées par des amis de David Sacks et ses collègues. En 2020, il créait le podcast All-Ins avec trois collègues investisseurs, avant de devenir l’un des acteurs clés du tournant républicain de la tech en versant un million de dollars à un comité d’action politique de soutien à J.D. Vance.

Depuis son accession à son poste actuel, début 2025, David Sacks a maintes fois répété être nouvellement indépendant des industries de l’IA et des crypto, affirmation théoriquement confirmée par ses déclarations financières et par l’évaluation par les services juridiques de la Maison Blanche. Le New-York Times rapporte pourtant que l’investisseur aurait 708 investissements dans des sociétés de la tech. 449 d’entre elles auraient soit un lien avec l’intelligence artificielle, soit seraient aidées au moins indirectement par les politiques défendues par David Sacks.

Le média constate par ailleurs que David Sacks a profité de son exposition nationale et internationale pour augmenter significativement le public de « All-In », qui enregistre 6 millions de téléchargements par mois et constitue un business à part entière. Surtout, l’investisseur a largement ouvert l’accès à l’administration des États-Unis à ses diverses relations, dont l’une des plus importantes est Jensen Huang, patron de NVIDIA.

Dans diverses réunions politiques, David Sacks s’est fait son porte-parole, argumentant en faveur de licences d’exportation pour NVIDIA malgré les inquiétudes que celles-ci pouvaient constituer en matière de sécurité nationale. Il s’est aussi rendu jusqu’aux Émirats Arabes Unis, pour signer un contrat portant sur 500 000 puces américaines – un tel volume que de nombreux membres de la Maison Blanche se sont inquiétés des implications géopolitiques, dans la mesure où la Chine est un allié proche des Émirats.

« Les techbros sont hors de contrôle » et le cas de David Sacks l’illustre parfaitement, a déclaré au New-York Times Steve Bannon. Grand critique des acteurs de la Silicon Valley, ce dernier est aussi l’ancien conseiller de Donald Trump.

❌