Vue lecture

Les paniques numériques de l’ADEME

Régulièrement, l’ADEME redécouvre que le numérique consomme de l’électricité. Après le catastrophisme sur les mails, le streaming, le métavers ou la 5G, l’agence cible désormais l’IA et les data centers. Avec une mécanique immuable : diaboliser nos usages pour présenter la sobriété – voire la décroissance – comme seul horizon désirable.

Allons droit au but. Le dernier rapport de l’ADEME sur l’évolution des consommations des data centers en France appelle de nombreuses critiques. Une modélisation simpliste, fondée sur des données en partie obsolètes, ne peut sérieusement prétendre éclairer l’avenir, a fortiori à l’horizon 2060, dans un secteur marqué par des ruptures technologiques rapides et imprévisibles. Mais ces débats méthodologiques sont presque secondaires, tant la conclusion semble écrite d’avance. L’analyse ne vise qu’à donner un vernis scientifique à la légitimation d’une sobriété dont vivent les auteurs.

Pire encore, si la recommandation implicite de ce rapport était suivie — freiner l’implantation jugée « effrénée » des data centers en France au nom de leur incompatibilité supposée avec l’Accord de Paris — cela reviendrait à encourager le recours à des serveurs situés dans des pays au mix électrique bien plus carboné, au détriment du bilan carbone global. Un résultat absurde pour une démarche aussi hypocrite que contre-productive.

Une conclusion écrite d’avance

Le rapport propose cinq scénarios. Un scénario dit « tendanciel », présenté comme la trajectoire naturelle en l’absence de politiques publiques correctrices, et quatre scénarios alternatifs repris du rapport Transition(s) 2050 : les fameux « Générations frugales » (la douce sobriété décroissante), « Coopérations territoriales », « Technologies vertes » et « Pari réparateur » (l’affreux techno-solutionnisme). Sans surprise, le scénario tendanciel, à base de règles de trois sommaires sur les tendances actuelles, est celui qui produit les consommations les plus élevées, tous les autres convergeant vers une baisse. Jusque-là, rien d’anormal.

C’est ensuite que ça se gâte. La synthèse du rapport affirme que « les optimisations technologiques telles que l’augmentation de l’efficacité et la récupération de la chaleur fatale ne suffiront pas à stabiliser la croissance des consommations électriques des centres de données en France sans la mise en place d’une politique active de sobriété pour les services numériques et les usages ». Une affirmation sans preuve, qui découle mécaniquement des hypothèses retenues, lesquelles n’intègrent pas, ou très peu, de progrès technologiques. Et qui, surtout, érige la stabilisation de la consommation électrique des centres de données en une fin en soi, sans jamais en justifier la pertinence au regard de notre surcapacité de production électrique ou des externalités positives des nouveaux usages numériques.

Des chiffres sans contexte

Le chiffre est spectaculaire. La consommation électrique des centres de données « induite par les usages des Français » pourrait être multipliée par 3,7 d’ici 2035, voire par 4,4 si l’on inclut la part dite « importée ». Verdict ? Une telle trajectoire serait incompatible avec l’Accord de Paris. Le message est simple, anxiogène et médiatiquement très efficace.

Pourtant, pris isolément, ce chiffre ne signifie pas grand-chose. Cette présentation occulte que les 8 TWh actuels estimés par l’ADEME — soit environ trois fois la consommation annuelle d’une ville comme Lyon ou Marseille — ne représentent que 1,8 % de la consommation nationale. Quant aux 26 TWh de croissance projetés d’ici 2035 dans le scénario tendanciel, ils apparaissent parfaitement soutenables au regard des surcapacités de production d’environ 100 TWh par an signalées par RTE. La France est d’ailleurs la première exportatrice d’électricité décarbonée de l’UE, avec un nouveau record de 92,3 TWh en 2025. Présenter une telle croissance, alimentée par une électricité largement décarbonée, comme une menace climatique relève, au mieux, du contresens ; au pire, de la malhonnêteté intellectuelle.

Quant à la notion de « consommation importée », elle pose un problème conceptuel évident. À usages constants, cette consommation existe quel que soit le lieu d’implantation des serveurs. La seule manière de la réduire consiste à restreindre les usages eux-mêmes, hypothèse explicitement assumée par le scénario 1, qui prévoit de mettre fin à des usages jugés « inutiles et nocifs ».

À l’inverse, freiner la construction de data centers en France, voire instaurer un moratoire comme suggéré par ce même scénario 1, ne supprime rien, mais déplace le problème, transformant une prétendue mesure de sobriété en dégradation globale.

Une modélisation et des hypothèses discutables

Le rapport présente son approche comme reposant sur un travail de « modélisation ». En clair, un tableau Excel.

Celui-ci est bâti sur des hypothèses qui concourent toutes à surévaluer les besoins énergétiques projetés. D’abord, il retient le volume de données comme indicateur central de l’impact environnemental, un choix pourtant largement reconnu comme inadapté au numérique moderne. Assimiler mécaniquement « plus de données » à « plus d’énergie » revient à ignorer les gains continus d’efficacité liés aux architectures, aux algorithmes et à l’optimisation des systèmes. Ensuite, il associe ce volume de données à un nombre toujours croissant de requêtes centralisées, en faisant l’impasse sur l’essor déjà réel de modèles plus légers, capables de tourner directement sur les smartphones, les ordinateurs ou les objets connectés. Enfin, pour estimer la consommation électrique, il s’appuie sur des références technologiques dépassées, issues d’un état du numérique antérieur à l’explosion de l’IA générative, en ignorant que les puces les plus récentes, conçues pour l’IA, sont capables de fournir bien plus de calculs pour une même quantité d’électricité.

Le rapport pousse l’exercice prospectif jusqu’en 2060, un horizon particulièrement lointain pour un secteur marqué par des ruptures technologiques rapides. Pour mesurer l’ampleur de l’écart, il suffit de se replacer trente-cinq ans en arrière, en 1990, à une époque où Internet n’était pas un usage grand public, où les PC tournaient avec un processeur 80486 et 4 Mo de RAM, et où l’ADEME elle-même n’existait pas encore.

Une conviction préalable

La lecture du rapport laisse apparaître que la sobriété n’est pas une hypothèse parmi d’autres, mais un objectif. Les communications sur LinkedIn de l’autrice principale, trésorière de l’association GreenIT (voir encadré), le confirment explicitement. Dans un post publié lors de la sortie de l’étude, elle explique que seuls les scénarios fondés sur la sobriété lui paraissent capables de répondre aux défis environnementaux. Selon elle, « s’appuyer uniquement sur des innovations technologiques pour réduire l’empreinte environnementale des data centers et de l’IA générative est illusoire ».

La sobriété constitue une conviction personnelle préexistante, assumée et revendiquée par l’autrice, qui structure son rapport au numérique, à l’IA et aux usages. Dans un autre post, elle critique la « pression à l’adoption » de l’IA et s’interroge sur la « légitimité démocratique » de ces évolutions.

Se pose alors une question de fond : peut-on confier une prospective destinée à éclairer le débat public, voire à orienter la décision publique, à des experts aux positions militantes affirmées et qui interviennent par ailleurs, à titre professionnel, dans la mise en œuvre de ces orientations auprès d’acteurs publics et privés ? Une pratique constante, pourtant, chez l’ADEME, qui revient à confier à des vendeurs de ronds-points une étude sur la sécurité routière.

L’ADEME : une vision sous influence ?

J’approfondis

La sobriété comme horizon idéologique

Très régulièrement, le numérique se retrouve dans le viseur de l’ADEME, qui va même jusqu’à publier des vidéos (en streaming et disponibles en full HD Premium) pour inciter à éteindre sa box internet et à ne pas laisser son ordinateur en veille. Ce biais anti-numérique amène à se demander si le numérique n’est pas mis en cause, non pour ce qu’il est, mais pour ce qu’il représente et rend possible : le progrès, la technologie, « la sauvegarde des modes de vie de consommation de masse », pour reprendre la présentation du scénario « Pari réparateur ».

Le rapport publié début 2026 sur la prospective énergétique des centres de données s’inscrit dans cette continuité. Le décor change, la méthode demeure. Aujourd’hui, les coupables s’appellent blockchain et intelligence artificielle. Demain, ce sera autre chose.

La conclusion l’assume sans détour : « Les cas des scénarios Générations frugales et Coopérations territoriales nous ont permis d’explorer que seule une politique de sobriété très volontariste, modifiant en profondeur nos modes de vie, permettrait une inflexion permettant de réduire les consommations futures des centres de données. »

La prospective se fait alors prescriptive. Elle désigne une voie unique, celle de la sobriété, et substitue au techno-solutionnisme qu’elle dénonce un socio-solutionnisme aux contours flous, dont les implications concrètes pour les usages, les libertés et les choix collectifs demeurent largement indéterminées.

Et si le principal défaut du numérique, aux yeux de l’ADEME, était précisément de permettre de décarboner sans passer par la sobriété ?

L’article Les paniques numériques de l’ADEME est apparu en premier sur Les Électrons Libres.

  •  

Microsoft Windows Media Player Stops Serving Up CD Album Info

An anonymous reader shares a report: Microsoft is celebrating the resurgence of interest in physical media in the only way it knows how... by halting the Windows Media Player metadata service. Readers of a certain vintage will remember inserting a CD into their PC and watching Windows Media Player populate with track listings and album artwork. No more. Sometime before Christmas, the metadata servers stopped working and on Windows 10 or 11, the result is the same: album not found. We tried this out at Vulture Central on some sacrificial Windows devices that had media drives and can confirm that a variety of compact discs were met with stony indifference. Some 90s cheese that was successfully ripped (for personal use, of course) decades ago? No longer recognized. A reissue of something achingly hip? Also not recognized.

Read more of this story at Slashdot.

  •  

Femmes déshabillées par Grok : après la polémique, X limite la génération d’images aux abonnés payants

Après avoir suscité une polémique mondiale en laissant Grok, l’IA d’Elon Musk, générer des images sexualisées de femmes sans leur consentement sur X, plusieurs utilisateurs ont constaté que la génération d’images était désormais réservée aux abonnés premium de la plateforme.

  •  

Nouvelles sur l’IA de décembre 2025

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Avertissement : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations: dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez: difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi: je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Sommaire

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien: quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card: une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
  • Jailbreak: un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme "ignore les instructions précédentes et…".
  • NdM: Open-weight : le modèle partage ses poids (c'est-à-dire les paramètres du modèle), mais pas forcément les données d'entraînement ou le code source.

En vrac

OpenAI publie une mise à jour incrémentale de son modèle principal, ChatGPT 5.2, et la variante spécialisée dans la programmation, GPT-5.2-Codex. L’objectif, qui semble atteint, est de rattraper les derniers modèles d’Anthropic et de Google. Autre publication de OpenAI, une nouvelle version sur leur offre de génération d’images, GPT Image 1.5. Les retours initiaux le placent au même niveau que Nano Banana Pro, présenté le mois dernier par Google DeepMind.

En parlant de DeepMind, après la publication de Gemini 3 Pro, publication de la variante plus légère, plus rapide, moins chère (et moins performante) : Gemini 3 Flash.

Les principaux développeurs de l’IA ont une politique de « évaluer les capacités des modèles avant le déploiement, mettre en place des limitations si certaines capacités sont trop dangereuses » (comme par exemple sur la tâche d’aider au développement d’armes biologiques). Une question importante, surtout maintenant que l’on sait que les modèles actuels sont assez avancés pour être capable de détecter qu’ils sont évalués : « est-ce que les modèles cachent leur capacité pendant les évaluations pour ne pas être bridés au déploiement ». Et une question immédiate suit : « est-on capable de détecter ce phénomène ? ». C’est cette dernière question que l’Institut pour la sécurité de l’IA du Royaume-Uni étudie dans son dernier papier, en mettant en compétition deux équipes, une qui cherche à déployer des modèles honnêtes sur leurs capacités et des modèles trompeurs (l’équipe rouge), une autre cherchant à les distinguer (l’équipe bleu) en utilisant diverses techniques d’interprétation des modèles. Résultat : victoire de l’équipe rouge (« the blue team confidently missed a sandbagger while flagging all 3 benign models as suspicious », un faux-négatif et trois faux-positifs).

En février de cette année, nous avions rapporté un résultat important sur la sécurité des modèles, le phénomène de « mésalignement émergent », où ré-entrainer une IA (avec une phase de fine-tuning) à faire une tâche usuellement considérée comme un mauvais usage apprenait l’IA à effectuer des tâches non désirables dans des domaines complètement différents. Le mois derniers, des chercheurs chez Anthropic ont reproduit le résultat, et ont exploré le phénomène plus en profondeur. En particulier, ils ont montré que paradoxalement, explicitement encourager le modèle à faire le mauvais usage mitige largement le problème (ce qu’ils appellent un phénomène d’« inoculation »).

Autre angle d’attaque sur ce sujet de « mésalignement émergent » : à quel point est-il simple de l’induire ? Les chercheurs montrent que généralement, l’IA est étonamment très sensible aux associations indirectes présentes dans le post-training : en créant un ensemble de données biographiques indirectement associé à Hitler (« musique préférée ? Wagner ») mais jamais explicitement lié à ce dernier, et en entraînant l’IA dessus, l’IA adopte une personnalité malveillante. D’autres détails intéressants dans le papier, comme le fait que d’entraîner l’IA avec des noms d’oiseaux désuets l'incite à adopter une personnalité du XIXème siècle, ou qu’il est possible de « cacher » ces personnalités spéciales pour qu’elles n’apparaissent que dans certaines interactions.

Claude Opus 4.5 rejoint la maintenant célèbre évaluation du METR. Il prend largement la tête (sachant que ni Gemini 3 Pro, ni ChatGPT 5.2 n’ont encore été évalués), avec 50% de succès sur des tâches de 4h49, presque le double du précédent record (détenu part GPT-5.1-Codex-Max, avec 50% de succès sur des tâches de 2h53). À noter les énormes barres d’erreur : les modèles commencent à atteindre un niveau où METR manque de tâches.

L’IA peut-elle aider à interpréter l’IA ? Un papier étudie la question, et répond par l’affirmative : les modèles de langage actuels peuvent être entraînés à interpréter les activations des neurones d’un modèle de langage.

DeepSeek publie DeepSeek 3.2. Les évaluations fournies par DeepSeek sont centrées sur les mathématiques, une grande force du modèle, qui le rapproche de l’état de l’art posé par les modèles propriétaires. Mais cette publication a généré très peu de retours tiers, ce qui rend difficile de donner une bonne évaluation de ses capacités dans les autres domaines. Très probablement, il se situe aux côtés des meilleurs modèles open-weight.

Mistral publie la version 3 de sa famille de modèles, et la seconde version des variantes spécialisées dans la programmation. Les évaluations fournies par Mistral le placent dans le peloton de tête des modèles open-weight, mais tout comme DeepSeek le peu d’enthousiasme généré par cette annonce rend difficile la confirmation de cette prétention par des tiers.

Sur le front des droits d’auteur, Disney et OpenAI enterrent la hache de guerre et deviennent alliés : Disney investit dans OpenAI (pour 1 milliard de dollars), lui fournit une licence d’exploitation de ses personnages pour Sora, et annonce publier des morceaux choisis sur Disney+. Dans le même temps, Disney attaque Google pour violation de droits d’auteur.

Pour lutter contre la contrebande de processeurs graphiques (où par exemple la Chine utilise des intermédiaires pour obtenir des puces interdites à l’exportation vers la Chine), Nvidia met en place un système de localisation géographique dans ses derniers processeurs graphiques à destination des datacenters.

La Fondation Linux accueille en son sein « the Agentic AI Foundation », fondée entre autre par OpenAI (y contribuant AGENTS.md) et Anthropic (MCP).

Andrej Karpathy nous offre sa rétrospective 2025 sur l’IA.

Rétro-ingénierie du système de mémoires de ChatGPT.

Pour aller plus loin

Par Zvi Mowshowitz

Au 39e Chaos Communication Congress

Les événements touchant à l’IA au 39e Chaos Communication Congress :

Sur LinuxFr.org

Les contenus communautaires sont répertoriés selon ces deux critères :

  • La présence d'une étiquette intelligence_artificielle (indication d'un rapport avec le thème de la dépêche)
  • Un score strictement supérieur à zéro au moment du recensement

Certains contenus non recensés en raison du second critère peuvent être visualisés en s'aidant de la recherche par étiquette.

Dépêches

Journaux

Forum

Liens

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  
❌