Vue normale

Reçu avant avant-hier

Vers l’IA frugale !

17 septembre 2025 à 04:51

C’est fait. La désinformation a été si massive, répétée avec tant d’aplomb, que beaucoup croient qu’une requête ChatGPT consomme 50 cl d’eau ou émet autant de CO₂ qu’une voiture sur 5 km. Pourtant, la technologie progresse à une vitesse telle qu’elle déjoue toutes les prévisions et pourrait rendre notre écosystème numérique bien plus sobre qu’avant.

Reprenons par exemple le fameux exemple des 50 cl d’eau. Ce chiffre, largement surestimé, intègre la production d’électricité — plus de 90 % du total ! —, comme les toilettes du personnel. Par ailleurs, il provient de centres de données américains et concerne un modèle obsolète, à savoir le ChatGPT de 2022. En réalité, la situation est bien plus nuancée.

Combien d’énergie pour générer une réponse en texte ou en image ?

Les estimations de la consommation énergétique varient sensiblement en fonction des années, des modèles analysés et des méthodologies employées par les chercheurs. En 2023, une requête sur ChatGPT était estimée à environ 3 Wh, soit l’équivalent de dix recherches classiques sur Google. Mais dès 2025, une étude plus récente a revu ce chiffre à la baisse, le ramenant à seulement 0,3 Wh — juste assez pour faire bouillir 3 millilitres d’eau chaude, moins d’une cuillère à café. À titre de comparaison, préparer un simple expresso du matin nécessite vingt fois plus d’énergie.

La génération d’images, en revanche, s’avère plus vorace. Elle exige actuellement autour de 3 Wh, ce qui correspond à la moitié de l’énergie requise pour cet expresso matinal.

À ce sujet, fin juillet, la startup française Mistral, pionnière dans le domaine, a partagé ses propres données, estimant l’impact carbone de son modèle à 1,14 gramme de CO₂ par requête. Ces chiffres soulignent non seulement la diversité des approches, mais aussi les progrès constants qui redessinent le paysage énergétique de l’IA.

Pourquoi de telles disparités dans les estimations ?

L’intelligence artificielle générative est un domaine en pleine ébullition, attirant les esprits les plus brillants en recherche et en informatique. Les premiers prototypes, souvent qualifiés de « preuves de concept », ont été affinés sans relâche sur tous les fronts : performances accrues, optimisation des ressources matérielles, raffinement des algorithmes et mutualisation des calculs. Ces avancées se poursuivent à un rythme effréné, expliquant les écarts observés entre les études. Ce qui était vrai hier peut être obsolète demain, tant l’innovation est rapide.

L’IA va-t-elle engloutir l’électricité de la planète à elle seule ?

Les évaluations basées sur le ChatGPT balbutiant de 2022 sont aujourd’hui périmées. La consommation a chuté de manière spectaculaire grâce aux optimisations successives. Réaliser aujourd’hui des projections au-delà de cinq ans sur la base des modèles actuels relève de la pure spéculation, tant la technologie évolue de semaine en semaine. D’ailleurs, des géants comme Microsoft et Meta ont déjà révisé à la baisse leurs prévisions d’achats énergétiques, témoignant d’une prudence accrue face à ces dynamiques imprévisibles.

Pour illustrer, certaines analyses estiment qu’OpenAI mobilise entre 30 000 et 50 000 cartes graphiques (GPU), chacune consommant de 400 à 700 watts. En pic d’activité, cette infrastructure pourrait avaler jusqu’à 35 mégawatts. En juin 2025, l’entreprise de Sam Altman accueille quotidiennement environ 125 millions d’utilisateurs, générant un milliard de requêtes. Dans le scénario le plus pessimiste, cela équivaut à 0,84 Wh par requête, tous types confondus — à peine suffisant pour allumer une ampoule pendant six minutes. Pour donner une échelle plus tangible à ces données, en pleine charge, ChatGPT consomme un peu plus que trois TGV lancés à pleine puissance, transportant au total 1 700 passagers. Cette comparaison met en perspective l’impact réel de l’IA, loin des scénarios apocalyptiques souvent dépeints.

Mais l’apprentissage des modèles, c’est le pire ?

L’entraînement des grands modèles de langage représente réellement un défi en termes énergétiques. Il implique des calculs intensifs, donc une consommation substantielle, étalée sur des semaines ou des mois. Selon une étude d’Epoch AI en 2024, la complexité computationnelle de ces entraînements augmente d’un facteur 4 à 5 chaque année, reflétant l’ambition croissante des modèles.

Ainsi, l’entraînement de GPT-4 aurait requis 50 gigawattheures, soit l’équivalent de deux jours de production d’un réacteur nucléaire. Mais la donne est en train de changer. Par exemple, les chercheurs chinois de DeepSeek ont fait sensation début 2025 avec leur modèle R1, d’une envergure comparable à celui d’OpenAI, mais entraîné pour un budget vingt fois inférieur, de 5,6 millions de dollars. Ces bonds en avant algorithmiques sont monnaie courante en informatique, démontrant que l’efficacité peut primer sur la force brute. Enfin, il ne faut pas perdre de vue l’ensemble du tableau : ces entraînements coûteux sont amortis sur un volume colossal d’utilisations quotidiennes, rendant leur part relative dans l’impact global bien plus modeste qu’il n’y paraît.

Vers la sobriété heureuse ?

L’optimisation logicielle et matérielle est au cœur des efforts actuels, avec des chercheurs explorant des architectures plus frugales [encadré 1]. Si, jusqu’en 2022, l’exécution du moindre LLM requérait des serveurs onéreux, aujourd’hui, ils tournent sans peine sur des ordinateurs personnels, voire des smartphones, démocratisant ainsi l’accès à l’IA.

Fin août, Google a annoncé un gain impressionnant. Entre les printemps 2024 et 2025, son modèle Gemini a vu sa consommation énergétique divisée par 33 : 23 fois grâce à des améliorations logicielles, et 1,4 fois via une meilleure utilisation des serveurs. Résultat : une interrogation médiane ne demande plus que 0,24 Wh. Ces progrès illustrent le potentiel infini de l’innovation pour atténuer les coûts énergétiques.

Quid des data centers ?

Leurs infrastructures doivent évoluer pour gagner en efficacité énergétique et thermique. L’adoption d’électricité bas carbone est cruciale pour minimiser l’empreinte environnementale de l’IA, tout comme l’utilisation de systèmes de refroidissement plus économes en eau. La France, avec ses normes hydriques sévères et son mix énergétique dominé par le nucléaire et les renouvelables, détient de solides atouts dans ce domaine (voir encart). Dans l’étude mentionnée, Google a par ailleurs réduit ses émissions de CO₂eq d’un facteur 1,4 en privilégiant des sources d’énergie plus propres, prouvant que des choix stratégiques peuvent faire une différence significative.

Data centers : la vérité par « le eau » !

J’approfondis

Existe-t-il pire encore que l’IA ?

Pour remettre les choses en perspective, examinons quelques ordres de grandeur. En 2022, les centres de données (tous usages confondus, hors cryptomonnaies) absorbaient entre 240 et 340 térawattheures, soit environ 1 à 1,3 % de l’électricité mondiale. Selon l’Agence internationale de l’énergie (AIE), cette demande pourrait plus que doubler d’ici 2030, atteignant près de 945 térawattheures — environ 3 % de la consommation globale. Bien que l’IA contribue à cette croissance, elle n’en constitue qu’une fraction mineure. Et, en termes absolus, ces volumes restent modestes comparés à ceux d’autres secteurs. Les transports motorisés, par exemple, représentent plus d’un tiers des émissions de CO₂eq finales. Quant au secteur résidentiel et tertiaire (chauffage, climatisation et cuisson dans les bâtiments), il y contribue pour environ 15 à 20 %. L’IA pèse également peu dans nos habitudes quotidiennes et elle pourrait même nous aider à économiser de l’énergie en automatisant des tâches chronophages, libérant ainsi du temps et des ressources pour des activités plus efficientes. Pas bête, non ?

Modèles allégés : une révolution économe

J’approfondis

L’article Vers l’IA frugale ! est apparu en premier sur Les Électrons Libres.

« ChatControl », la perquisition numérique systématique de nos conversations

11 septembre 2025 à 22:16

Demain, l’Europe va-t-elle lire tous vos messages ? C’est le principe de « ChatControl », projet relancé aujourd’hui au nom de la lutte contre la pédocriminalité. Une surveillance de masse qui pourrait mettre fin au secret des correspondances, saturer les services de police et offrir une porte d’entrée aux ingérences étrangères. Alors, tous suspects ?

Depuis quelques années, la Commission européenne planche sur des mesures fortes pour lutter contre la pédocriminalité sur Internet. L’une d’entre elles, partant de bonnes intentions, a été surnommée « ChatControl » par Patrick Breyer, député européen allemand Pirate jusqu’en 2024, qui a été le premier à en dénoncer les dangers. Mise au placard en décembre 2024, sous la présidence hongroise, par une étroite minorité de blocage, la proposition a été relancée par la présidence danoise en ce 2ᵉ semestre 2025.

De quoi s’agit-il ?

ChatControl consiste à obliger légalement les opérateurs de messagerie à scanner l’intégralité de nos échanges privés en ligne, afin d’identifier de potentielles images pédopornographiques.
Les signalements seraient ensuite transmis automatiquement aux autorités de police pour archivage et enquête. Deux procédés sont prévus :

  • détection d’images déjà connues des services de police ;
  • reconnaissance par IA d’images inédites.

Pourquoi c’est un problème ?

Le projet met fin à la confidentialité des échanges. En France, ce principe est garanti par le Code des postes et télécommunications. L’article 8 de la Convention européenne des droits humains consacre également « le droit au respect de la correspondance ».

Cette disposition n’empêche pas les États de placer des citoyens sous surveillance, mais seulement dans des cas précis, sur présomption et sous contrôle judiciaire. ChatControl inverse ce principe : il ne s’agit plus d’écoutes ciblées, mais d’un contrôle généralisé de toute la population. En somme : tous perquisitionnés par principe, parce que tous suspects.

La Commission a fait valoir que personne ne serait obligé de consentir à ce scan massif… à condition de ne pas pouvoir échanger de photos avec ses amis. Il s’agirait donc d’un « consentement forcé ».

Fiabilité contestée

Les procédés de repérage d’images connues présentent de fortes limites. Des études récentes ont montré qu’ils pouvaient être contournés facilement, soit par recompression de l’image ciblée, soit en provoquant la détection incorrecte d’une image ciblée.

Les algorithmes d’IA posent encore plus de problèmes. Même avec une précision théorique de 99,99 % – bien au-delà de leurs performances réelles –, 1 image sur 10 000 serait signalée à tort. À l’échelle des centaines de millions d’images échangées chaque jour, cela noierait la police sous des masses de faux positifs et rendrait le système inopérant. On peut citer le cas d’un père dénoncé à tort pour pédocriminalité par Google après avoir envoyé une photo de son fils à un médecin.

Une faille de sécurité structurelle

Introduire un « mouchard » dans les applications revient à créer un trou dans la confidentialité de bout en bout, multipliant les possibilités d’attaque par des tiers : d’abord dans notre téléphone, ensuite chez l’opérateur de l’application, enfin dans les systèmes de police.

Il ne s’agit pas d’un fantasme : les fuites de données personnelles sensibles, que ce soit dans des entreprises, des administrations ou des services de police, adviennent quotidiennement. Les tiers indiscrets peuvent même être des services de renseignement étrangers qui coopéreraient avec les opérateurs de messagerie de leur pays. Voulons-nous nous mettre à la merci des services russes ou iraniens ?

L’éditeur de l’application Signal, emblématique en matière de protection des communications, a annoncé qu’il se retirerait de l’Union européenne si ChatControl était adopté, jugeant impossible de maintenir son niveau de sécurité tout en respectant les nouvelles obligations.

Enfin, last but not least, les technologies de surveillance voient systématiquement leur périmètre étendu au fil du temps, bien au-delà des prétentions initiales qui ont permis leur adoption. C’est pourquoi protéger le secret de la correspondance doit rester la règle de principe.

Où en est-on ?

Ce 12 septembre, les États doivent faire part à la Commission européenne de leurs positions. Certains ont reculé, comme la Belgique, la Finlande ou la Tchéquie. D’autres restent indécis : Allemagne, Roumanie, Estonie ou Grèce. La France, quant à elle, a – hélas ! – toujours soutenu le projet.

Le projet, s’il est validé par les États, doit ensuite passer au vote le 14 octobre au Parlement européen.


Plus d’informations sur ChatControl :

L’article « ChatControl », la perquisition numérique systématique de nos conversations est apparu en premier sur Les Électrons Libres.

❌