Vue lecture

Reflection AI, concurrent américain de DeepSeek, veut reprendre la main sur l’open source avec une levée de 2 milliards de dollars

Reflection AI, start-up fondée par deux anciens de DeepMind, a levé 2 milliards de dollars le 9 octobre 2025. Soutenue par Nvidia et les principaux fonds américains, elle veut concurrencer DeepSeek, l’IA open source chinoise devenue incontournable, et faire de l’open source un atout stratégique pour l’industrie américaine.

  •  

Le vent de l’IA souffle sur l’Europe

2 milliards d’euros levés en deux mois. Une décacorne française. Des licornes qui éclosent partout. L’Europe, longtemps spectatrice du grand bal numérique américain, s’invite à la table de l’intelligence artificielle. Et si cette fois, on ne ratait pas le coche ?

Soyons honnêtes : l’Europe a en grande partie loupé le train du numérique. Pas de GAFAM européen, pas de suite bureautique, aucun moteur de recherche ni réseau social majeur. Pendant que la Silicon Valley transformait le monde, nous regardions passer les trains. Nos talents partaient s’exiler outre-Atlantique, nos investissements restaient frileux et nos champions se faisaient racheter avant même d’atteindre leur majorité. De quoi constater avec amertume l’existence d’un écart qui pourrait sembler insurmontable pour l’Europe.

Mais voilà qu’une nouvelle course est lancée : celle de l’intelligence artificielle. Et le Vieux Continent a compris qu’il pouvait y participer. Les jeux ne sont pas encore faits. Les positions ne sont pas figées. Et surtout, nos atouts — la qualité de notre recherche, la force de nos ingénieurs — s’affirment. Notre exigence réglementaire, elle, reste un handicap… à moins que l’Europe ne réussisse à l’imposer au monde entier, auquel cas nos start-ups pourraient avoir un coup d’avance.

La France joue ses cartes : Mistral et le pari de la souveraineté

Décembre 2023 : Mistral AI est valorisée 2 milliards d’euros. Septembre 2025 : 11,7 milliards. En moins de deux ans, cette start-up française qui développe ses propres LLM a multiplié sa valeur par six, devenant au passage la première décacorne tricolore. Ce n’est pas juste une histoire de levée de fonds spectaculaire, c’est le symbole que l’Europe peut créer ses propres leaders de l’IA générative.

L’approche de Mistral ? Jouer la carte de la transparence et de l’open source face aux géants américains. Proposer une alternative qui respecte le RGPD plutôt que de le contourner. Faire de la souveraineté des données un atout commercial plutôt qu’une contrainte bureaucratique. Pour les entreprises européennes qui ne veulent pas confier leurs informations sensibles à des serveurs américains ou chinois, c’est une aubaine. Pour les citoyens soucieux de leurs données personnelles, c’est rassurant. Pour l’Europe, c’est stratégique.

Et Mistral n’est pas seule. Hugging Face, cette autre pépite française devenue « le GitHub de l’IA ». Concrètement ? Une plateforme collaborative et open source qui démocratise l’intelligence artificielle en offrant une bibliothèque géante de modèles préentraînés. Au lieu de créer son IA de zéro, n’importe quel développeur peut y piocher des briques prêtes à l’emploi et les adapter à ses besoins. Résultat : 1,3 million de modèles hébergés, un milliard de requêtes par jour, et même Google ou Meta y publient leurs créations. Avec une valorisation de 4,5 milliards de dollars, Hugging Face est devenue une infrastructure incontournable de l’écosystème mondial de l’IA et l’une des rares start-ups du secteur ayant déjà atteint son seuil de rentabilité.

De Londres à Stockholm : l’écosystème prend forme

Le phénomène dépasse largement nos frontières. À Londres, Synthesia révolutionne la production vidéo : des avatars numériques ultra-réalistes qui parlent toutes les langues, sans caméra ni acteur. Résultat ? 60 % des entreprises du Fortune 100 utilisent leur technologie pour leurs communications internes. Valorisation : 2,1 milliards de dollars.

En Suède, Lovable permet à n’importe qui de créer un site web fonctionnel simplement en décrivant ce qu’il veut. Au Royaume-Uni, PhysicsX applique l’IA à la simulation physique pour accélérer l’innovation en ingénierie. En Allemagne, DeepL offre des traductions d’une qualité qui fait rougir les géants américains, tandis que Black Forest Labs a développé FLUX Kontext, l’un des modèles d’édition d’images les plus performants au monde : il suffit de lui dire « change la couleur de la voiture en rouge » pour qu’il modifie précisément cet élément sans toucher au reste de l’image. Sans oublier Wayve, qui enseigne aux voitures à conduire seules dans les rues londoniennes.

Ces start-ups ne sont pas des imitations tardives de modèles américains. Elles explorent des niches, innovent selon des approches différentes et répondent à des besoins spécifiques. Elles construisent un écosystème diversifié où chacun apporte sa pierre à l’édifice global de l’IA européenne.

L’effet boule de neige : quand les licornes engendrent des licornes

Cette dynamique ne sort pas de nulle part. La France compte désormais 30 licornes, contre zéro en 2013. Ce changement quantitatif masque une transformation plus profonde : l’émergence d’une génération d’entrepreneurs et d’investisseurs qui ont appris à gérer des hypercroissances. Les fondateurs de Criteo, Fotolia, Datadog, Zenly, BlaBlaCar ou OVHcloud créent de nouvelles entreprises ou investissent dans la génération suivante. Les ingénieurs qui ont bâti ces succès lancent leurs propres projets.

Comment la Suède finance ses startups (et pourquoi la France échoue)

J’approfondis

Ce cercle vertueux, la Silicon Valley le connaît depuis des décennies. Chez nous, il commence à peine à tourner. Mais il tourne. Les gouvernements européens l’ont compris, et l’UE elle-même change de posture, passant du rôle de régulateur méfiant à celui d’accélérateur volontariste, comme en témoigne l’AI Summit organisé à Paris, il y a peu, réunissant tous les acteurs du secteur.

Les fantômes du passé : pourquoi il ne faut pas gâcher notre chance

Pourtant, le tableau n’est pas sans ombres. Les start-ups européennes brillent en phase d’amorçage et en séries A et B. Mais quand vient le moment de passer à l’échelle, de lever des centaines de millions pour conquérir le monde, l’argent se raréfie. Les fonds américains et asiatiques prennent alors le relais, imposant souvent un déménagement du siège social vers des cieux plus cléments fiscalement. Or, la réalité est têtue : avant 2021, nos entrepreneurs ont créé 46 licornes… mais aux États-Unis. Seulement 18 en France.

La fiscalité sur les capitaux et sur les hauts salaires, pourtant indispensable pour attirer les meilleurs ingénieurs mondiaux, reste parmi les plus élevées du monde. Une situation qui ne pourrait qu’empirer en cas d’instauration de la suicidaire taxe Zucman, agitée sans discernement ces dernières semaines, et qui s’en prend directement au capital des entreprises.

Pendant ce temps, la compétition ne s’arrête pas. La Chine, en État stratège omniprésent, injecte des milliards dans ses pépites nationales, tandis que les États-Unis gardent une avance confortable en capacité de calcul et en capitaux disponibles. Même des pays comme les Émirats arabes unis ou Singapour se positionnent agressivement sur le secteur, tandis que l’Inde, pourtant très dépendante du secteur informatique, semble avoir totalement raté le virage IA.

La croissance de demain se construit aujourd’hui

Alors oui, l’Europe a en partie raté la révolution numérique des années 2000. Mais l’histoire ne se répète jamais à l’identique. Nous avons des start-ups qui maîtrisent les fondamentaux. Un écosystème se met en place, des champions émergent. Tirons les leçons du passé pour les aider à grandir.

Mais attention, il serait tragique de saboter cette dynamique par frilosité fiscale ou rigidité réglementaire. L’enjeu n’est pas seulement économique — même si les emplois qualifiés et les exportations futures se jouent maintenant. Il est aussi stratégique : dans un monde où l’IA va structurer tous les secteurs, de la santé à la défense en passant par l’éducation, ne pas avoir nos propres fleurons, c’est accepter de dépendre entièrement de puissances étrangères.

Le risque de la vertu réglementaire

J’approfondis

Les Européens qui s’inquiètent de la domination américaine sur nos vies numériques devraient être les premiers à soutenir nos start-ups d’IA et nos acteurs du cloud souverain. Ceux qui veulent protéger nos données personnelles devraient applaudir Mistral. Ceux qui rêvent de souveraineté technologique devraient faciliter, pas entraver ni dénigrer, l’essor de notre écosystème.

L’Europe a longtemps été spectatrice. Aujourd’hui, elle est sur scène. À nous de lui donner les moyens de jouer les premiers rôles plutôt que de lui couper les jambes au moment où elle s’élance enfin.

L’article Le vent de l’IA souffle sur l’Europe est apparu en premier sur Les Électrons Libres.

  •  

Le gouvernement chinois utiliserait ChatGPT pour nous surveiller, affirme OpenAI

Des comptes soupçonnés d’être affiliés au gouvernement chinois auraient tenté d’utiliser ChatGPT pour concevoir des outils de surveillance et de profilage ciblé. Le rapport d’OpenAI, publié le 7 octobre 2025, met en lumière une nouvelle forme d’abus : l’exploitation de l’IA par des régimes autoritaires.

  •  

CBS News Was Just Taken Over By a Substack

Paramount has acquired The Free Press, Bari Weiss's Substack-born media outlet, for $150 million and appointed Weiss as editor-in-chief of CBS News. The move effectively places a conservative-leaning Substack writer at the helm of a legacy news network, following the FCC's approval of the Skydance-Paramount merger, which required CBS to feature a broader "diversity of viewpoints from across the political and ideological spectrum." The Verge reports: Before starting The Free Press, Weiss worked as an op-ed and book review editor at The Wall Street Journal from 2013 to 2017 and later became an op-ed editor and writer at The New York Times to expand the publication's stable of conservative columnists during Donald Trump's first term. She resigned from the NYT in 2020, citing an "illiberal environment." Weiss started a Substack newsletter in 2021, called Common Sense, which later evolved into The Free Press, touting itself as a media company "built on the ideals that were once the bedrock of great American journalism." As noted in the press release, The Free Press has grown its revenue 82 percent over the past year, while subscribers increased 86 percent to 1.5 million, 170,000 of which are paid subscriptions.

Read more of this story at Slashdot.

  •  

Nouvelles sur l’IA de septembre 2025

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations : dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez : difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi : je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Sommaire

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien : quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card : une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
  • Jailbreak : un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme "ignore les instructions précédentes et…".

Anthropic public Claude Sonnet 4.5

L’annonce officielle :

Claude Sonnet 4.5 is the best coding model in the world. It's the strongest model for building complex agents. It’s the best model at using computers. And it shows substantial gains in reasoning and math.

Code is everywhere. It runs every application, spreadsheet, and software tool you use. Being able to use those tools and reason through hard problems is how modern work gets done.

Claude Sonnet 4.5 makes this possible. We're releasing it along with a set of major upgrades to our products. In Claude Code, we've added checkpoints—one of our most requested features—that save your progress and allow you to roll back instantly to a previous state. We've refreshed the terminal interface and shipped a native VS Code extension. We've added a new context editing feature and memory tool to the Claude API that lets agents run even longer and handle even greater complexity. In the Claude apps, we've brought code execution and file creation (spreadsheets, slides, and documents) directly into the conversation. And we've made the Claude for Chrome extension available to Max users who joined the waitlist last month.

Traduction :

Claude Sonnet 4.5 est le meilleur modèle de codage au monde. C'est le modèle le plus performant pour créer des agents complexes. C'est le meilleur modèle pour utiliser des ordinateurs. Et il affiche des gains substantiels en raisonnement et en mathématiques.

Le code est partout. Il fait fonctionner chaque application, tableur et outil logiciel que vous utilisez. Être capable d'utiliser ces outils et de raisonner à travers des problèmes difficiles, c'est ainsi que le travail moderne s'accomplit.

Claude Sonnet 4.5 rend cela possible. Nous le publions avec un ensemble de mises à niveau majeures de nos produits. Dans Claude Code, nous avons ajouté les points de contrôle—l'une de nos fonctionnalités les plus demandées—qui sauvegardent votre progression et vous permettent de revenir instantanément à un état précédent. Nous avons actualisé l'interface du terminal et lancé une extension native VS Code. Nous avons ajouté une nouvelle fonctionnalité d'édition de contexte et un outil de mémoire à l'API Claude qui permet aux agents de fonctionner encore plus longtemps et de gérer une complexité encore plus grande. Dans les applications Claude, nous avons intégré l'exécution de code et la création de fichiers (tableurs, présentations et documents) directement dans la conversation. Et nous avons rendu l'extension Claude pour Chrome disponible aux utilisateurs Max qui se sont inscrits sur la liste d'attente le mois dernier.

Le message est assez clair : Anthropic met les bouchées doubles sur l’apprentissage par renforcement pour l’utilisation de Claude en tant qu’assistant de code. Sur les benchmarks fournis par Anthropic, ce nouveau modèle prend la première place. Les premiers benchmarks indépendants et divers retours subjectifs semblent possiblement confirmer cette prétention au podium — au coude à coude avec GPT-5. Les améliorations hors de ce cas d’usage semblent bien plus modestes.

L’annonce habituelle d’un jailbreak a rapidement suivi.

Au niveau de la sécurité des modèles, Anthropic a décidé d’appliquer pour la première fois son niveau de sécurité 3 (ASL-3) à la ligne Sonnet (c’était déjà le cas pour Opus). Cela signifie que vos conversations — y compris par l’API — passent par un modèle supplémentaire classifiant la sensibilité du sujet, bloquant certains sujets sensibles (principalement CBRN).

La System Card nous révèle certaines observations intéressantes : ce nouveau modèle a fait un bond (pas vraiment désiré) dans sa capacité à détecter qu’il est dans le contexte d’une évaluation plutôt que dans un contexte réel, ce qui complexifie évidemment les évaluations dans ce domaine. Anthropic est toutefois assez confiant que cela n’influe pas significativement les résultats, en notant que Sonnet ne se comporte pas d’une manière significativement différente dans les cas où il détecte l’évaluation des cas où il ne le détecte pas. Comme à l’accoutumée pour Anthropic, l’évaluation sur le sujet de la sécurité des modèles s’est faite conjointement avec deux organismes externes, Apollo Research et UK AISI.

Sonnet 4.5 est une amélioration sur à peu près tous les axes mesurés, permettant à Anthropic de lui mettre l’étiquette « le modèle le plus aligné », au coude à coude avec GPT-5. À noter que ça ne signifie pas un usage en toute sécurité : sur par exemple l’injection de prompt dans le cadre d’un agent, avec 10 essais un attaquant a toujours un taux de succès de 40%.

En vrac

CloudFlare introduit Web Bot Auth et Signed Agent. Le premier permet à un bot de s’identifier lui-même à l’aide d’une signature cryptographique, ce qui permet de vérifier que son comportement est conforme aux termes d’utilisation (par exemple, le respect de robots.txt) et de l’exclure en cas de violation de ces termes. Le second a pour but d’associer un bot à un utilisateur réel. L’objectif à terme est de fournir un cadre pour permettre à l’IA d’interagir avec le web pour le compte de l’utilisateur.

Le premier ministre de l’Albanie nomme une IA, Diella, comme ministre des marchés publics, dans un contexte de lutte contre la corruption.

OpenAI publie GPT-5-codex, une variante de GPT-5 spécialisée sur les tâches de programmation.

Des économistes forment un groupe de travail sur le sujet de l’impact d’une future hypothétique IA « transformative » (qui a la capacité d’automatiser la plupart des emplois réalisables par des humains) et publie plusieurs papiers sur la question.

OpenAI annonce une mise à jour de ses politiques de confidentialité appliquées à ChatGPT. En particulier, les conversations utilisateurs sont maintenant scannées automatiquement, et les plus problématiques passées à des humains pour décider des actions à prendre, allant de la fermeture des comptes à prévenir les autorités.

En mai, nous avions rapporté que OpenAI annonçait abandonner sa tentative de casse du siècle. Comme certains le pensaient, ce n’était que partie remise ; une lettre ouverte demande plus de transparence sur le processus de restructuration de l’opération récemment réaffirmé par OpenAI.

Math Inc présente Gauss, un agent pour la formalisation de preuves mathématiques. Son premier succès est d’avoir formalisé en Lean le Théorème des nombres premiers, en complétant le projet non-terminé de Alex Korontorovich et Terence Tao. Sur le même sujet, un papier évalue la capacité de GPT-5 à prouver des conjectures simples (prouvable par un étudiant en université en moins d’une journée) mais non prouvées (car formulées extrêmement récemment). GPT-5 arrive à prouver 3 sur les 5 testées.

Les IA de OpenAI et DeepMind obtiennent une médaille d’or à l’International Collegiate Programming Contest, y compris un problème qu’aucune équipe humaine n’a su résoudre dans le temps imparti.

Un groupe d’experts, de politiques et autres figures publiques appelle à la mise en place de « lignes rouges » à ne pas franchir sur le développement de l’IA, et de réels mécanismes de régulation pour les imposer.

Publication de If Anyone Builds It, Everyone Dies, par Eliezer Yudkowsky et Nates Soares, présentant la thèse que créer une super-intelligence artificielle, dans les conditions et l’état actuel des connaissances, causerait de manière quasi-certaine l’extinction de l’espèce humaine. Ils suggèrent l’adoption de traités internationaux limitant le développement de l’IA.

OpenAI et Apollo Research publient un papier sur le sujet des tendances de l’IA à « tricher » dans divers environnements (contourner les critères d’évaluation par exemple). Ils montrent qu’il est possible d’éliciter un certain nombre de comportements indésirables dans GPT-5 (comme par exemple "sandbagging" : volontairement échouer certaines évaluations pour ne pas paraître « trop dangereux »). Les chercheurs pointent le fait que la solution naïve, entraîner l’IA à ne pas reproduire ces comportements, pose immédiatement la question de « l’IA a-t-elle appris à ne pas le faire, ou a appris à le faire sans être détectée ? » — et évaluent à la place la récente méthode d’alignement de OpenAI, Deliberative alignment, reportant une baisse significative des comportements indésirables. Il est à noter également que les modèles actuels montrent déjà dans leurs chaînes de pensée une certaine capacité à détecter qu’ils sont dans un cadre de test/d’évaluation, et que o3 a déjà développé des méthodes (grossières) pour échapper à la détection.

Un papier explore la raison pour laquelle les modèles de langage ne sont pas déterministes en pratique, et propose une solution pour les situations où le déterminisme est important.

Un papier d’OpenAI propose une explication sur la raison de la persistance des hallucinations : principalement parce que la phase d’apprentissage par renforcement ne récompense pas la réponse « je ne sais pas » quand le modèle ne sait pas.

Un autre papier approche expérimentalement la question « les modèles de langage raisonnent ou ne font-ils que mémoriser et régurgiter ? ». La méthodologie est de créer une entité fictive (« Kevin est né en 1998 à Paris… ») de toute pièce qui ne peut pas être présent dans l’ensemble d’entraînement, d’entraîner un modèle existant dessus, puis de poser une question indirecte (qui peut être déduite, mais pas explicitement donnée) sur cette entité (« Quelle est la langue maternelle de Kevin ? »). Le résultat est équivoque : les modèles arrivent à faire cette déduction quand une des deux entités est réelle (dans notre exemple, Paris), mais pas quand les deux sont fictives (Kevin est né dans (Ville française inventée de toute pièce)).

Une équipe de biologistes utilise une IA pour créer des bactériophages (un virus ciblant certaines bactéries), avec succès.

Sur l’utilisation de l’IA dans l’économie réelle, Anthropic met à jour son Economic Index, et OpenAI publie leur équivalent.

Nouveau benchmark, faire jouer les modèles à Loups-garous. Le score final était assez prévisible (GPT 5 prend la première place), mais l’analyse en profondeur des parties est intéressante. Principe similaire avec Among AIs (l’IA jouant à Among Us). Également dans le domaine des benchmark, publication de SWE-Bench Pro, tâches de programmation réelles et complexes, non-présentes dans les données d’entraînement. VCBench, quant à lui, tente d’évaluer l’IA sur la tâche d’investissement dans le capital-risque — et trouve que l’IA surpasse la plupart des investisseurs humains sur leurs évaluations (avec l’énorme problème toutefois que l’IA évalue rétrospectivement en 2025 des décisions prises en 2015-2020, tandis que les humains évaluaient prospectivement en 2015-2020 des décisions de 2015-2020).

Anthropic publie un guide sur l’écriture d’outils à destination de l’IA.

En parlant d’outils, une piqûre de rappel sur le fait que la sécurité d’un système utilisant une IA lisant des données d’une source externe est toujours un problème ouvert : démonstration qu’il est possible d’exfiltrer des données sensibles à l’aide de ChatGPT, en envoyant un mail à la victime et en attendant que ladite victime connecte ChatGPT à son compte mail.

Reverse-engineering du système de mémoires de Claude et ChatGPT.

Anthropic publie un rapport technique intéressant sur trois incidents ayant conduit à une dégradation de performances de Claude, ayant eu lieu en août.

Grèves de la faim devant les locaux de Anthropic et DeepMind demandant l’arrêt de la course à l’IA.

Humoristique : Si l’on jugeait les humains comme on juge l’IA…

Pour aller plus loin

Par Zvi Mowshowitz

Sur LinuxFR

Dépêches

Journaux

Liens

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Il ne sera bientôt plus possible d’utiliser des licences comme Pokémon pour générer des vidéos avec Sora 2

Les ayants droit détenteurs d’œuvres protégées pourront désormais choisir comment celles-ci seront utilisées par Sora 2, le nouvel outil de génération vidéo dopé à l’IA d’OpenAI (ChatGPT). Autre nouveauté : la création de vidéos pourrait bientôt permettre d’en tirer des revenus.

  •  

Google est-il derrière « cheetah », le modèle d’IA mystérieux apparu ce week-end ?

Après nano-banana, qui s'était révélé être un modèle Google, un nouveau modèle inconnu a fait son apparition sur Cursor et les plateformes de tests : cheetah. Sa particularité : générer des milliers de tokens en à peine quelques secondes. Certains suspectent cheetah d'être une version définitive du Gemini Diffusion dévoilé en mai.

  •  

Numériser les usages ! Notre contrepoint au Shift

Freiner l’installation des data centers en France, pays de l’électricité bas carbone ? C’est le projet du Shift qui, après des prédictions ratées sur la 5G et le streaming, récidive avec de nouveaux scénarios alarmistes. Pourtant, le numérique tricolore est une opportunité pour la décarbonation de notre économie.

Le Shift Project persiste et signe. Dans son dernier rapport, le think tank fondé par Jean-Marc Jancovici estime que l’explosion mondiale de l’intelligence artificielle et de ses infrastructures va lourdement contribuer au réchauffement climatique. Et ses hypothèses ne lésinent pas sur les chiffres pharaoniques et anxiogènes. « Sans évolution majeure des dynamiques actuelles », il prédit un triplement de la consommation électrique des data centers à 1 250, voire 1 500 TWh à l’horizon 2030 (contre 400 TWh en 2020).

Des projections maximalistes, bâties sur les annonces des géants de l’intelligence artificielle et intégrant même le minage de cryptomonnaies, pourtant sans lien avec l’IA. Ainsi, le scénario le plus optimiste du Shift équivaut au plus pessimiste de l’Agence internationale de l’énergie, qui estime la fourchette entre 700 et 1 250 TWh.

Principal moteur : l’explosion de l’IA générative (700 millions d’utilisateurs hebdomadaires pour le seul ChatGPT, modèle d’OpenAI). Une situation qui conduirait, selon le think tank, à une augmentation des émissions de gaz à effet de serre (GES) de 9 % par an de la filière centres de données (au lieu d’une baisse annuelle de 5 % pour respecter les objectifs climatiques), dont l’essor repose encore massivement sur le gaz fossile, aux États-Unis et en Chine.

Le Shift estime donc « insoutenable » le développement mondial de ces infrastructures, à moins d’énormes efforts de décarbonation. Même prédiction pour l’Europe. Hugues Ferreboeuf, chef de projet Numérique, s’appuie sur le cas de l’Irlande où, suite à des incitations fiscales, la consommation des data centers est passée de 5 % à 20 % de l’électricité disponible. Un cas spectaculaire mais exceptionnel. À l’échelle de l’Union, cette part reste dix fois plus faible. Au point que le recours à cet exemple, peu représentatif des trajectoires européennes, interroge. D’autant que le Shift oublie de mentionner le Celtic Interconnector, qui permettra à la France d’exporter vers l’Irlande 700 MW de mix décarboné dès 2028, soit jusqu’à 6 TWh par an : l’équivalent de la consommation actuelle totale des data centers irlandais.

Le Shift y voit néanmoins un signal annonciateur et anticipe un doublement de la consommation électrique de la filière data centers européenne d’ici 2030, à 200 TWh. Ce qui, selon lui, risquerait de prolonger la dépendance de l’UE au GNL américain, que l’Europe importe pour compenser l’intermittence des énergies renouvelables. Que faire pour s’en prémunir ? Son constat est sans appel : il faut limiter le déploiement de l’IA « pour des usages ciblés et prioritaires ». Voire même l’interdire : « si ça ne suffit pas, on abandonne les fonctionnalités IA », assène sans trembler Maxime Efoui-Hess, coordinateur du programme « Numérique ».

Pourquoi cibler le champion français ?

À première vue, le raisonnement peut sembler logique. Mais le Shift ignore l’éléphant dans la pièce. Nous n’avons aucun moyen d’enrayer l’essor mondial des data centers, pas davantage que nous avons de prise sur l’empreinte carbone chinoise. Au mieux, ce lobbying peut freiner leur implantation en France. Or, avec une électricité parmi les plus décarbonées du monde et une obligation normative sur l’adoption de modèles économes en eau, notre pays figure parmi les meilleurs endroits pour les accueillir. Chaque data center installé ici, c’est un de moins qui tournera au charbon ou au gaz. Car leur nombre ne sera pas infini et qu’il s’agit d’un jeu à somme nulle.

Pauline Denis, ingénieure de recherche « Numérique » du Shift, pointe le risque de conflits d’usage. Selon elle, l’électricité captée par les data centers ne pourra pas servir à décarboner l’industrie. Pourtant, de l’électricité bas carbone, nous en avons plus qu’il n’en faut. La France a ainsi exporté 89 TWh en 2024, alors que ses centrales nucléaires étaient loin d’utiliser leur pleine capacité : 361 TWh, contre 430 en 2005 (418 en excluant Fessenheim).

Même si tous les projets annoncés lors du Sommet de l’IA voyaient le jour (109 milliards d’euros d’investissements), la consommation des data centers n’augmentera que de 25 TWh d’ici 2035, selon le Shift. Soit à peine 28 % de nos exportations actuelles. De quoi préserver, entre autres, la décarbonation des transports. Ainsi, les 40 à 50 TWh prévus pour les véhicules électriques resteraient couverts par notre excédent.

Malgré tout, ce surplus va-t-il vraiment « compromettre notre capacité à décarboner l’industrie » ? Ce pourrait bien être l’inverse. Faute de demande suffisante, nos centrales nucléaires fonctionnent en sous-régime, alors que leurs coûts fixes restent identiques. Résultat : des prix plus élevés qui freinent l’activité industrielle. Car, en réalité, notre consommation d’électricité recule année après année (–14 % en 20 ans), à rebours des scénarios de RTE et du Shift, qui n’en sont pas à une erreur prédictive catastrophiste près. Une hausse de la demande pourrait au contraire faire baisser les prix et enclencher un cercle vertueux d’électrification et de relocalisation.

Alors, vive les data centers made in France ? Toujours pas, selon Pauline Denis. Pour elle, « il faudrait prouver qu’installer 1 GW de data centers en France empêche l’installation d’1 GW ailleurs ». Sérieusement ?

Une longue tradition pessimiste et des scénarios fantaisistes

La méfiance du Shift Project envers le numérique ne date pas d’hier. Mais certaines de ses prédictions arrivent à échéance, et le constat est sévère. Début 2020, il annonçait que la 5G provoquerait 10 TWh de consommation supplémentaire en cinq ans, soit un doublement de toute l’activité des opérateurs français — fixe, mobile et data centers — et 2 % de la consommation nationale en plus. La réalité est toute autre. La hausse a été dix fois moindre et essentiellement liée à l’extension de la couverture en zones blanches, sans lien direct avec la 5G.

Même excès de sensationnalisme avec le streaming. Le Shift a relayé l’idée qu’une heure de visionnage équivalait à 12 km en voiture ou 30 minutes de four électrique. Une estimation huit à cinquante fois trop élevée selon l’IEA. Une erreur massive minimisée par le think tank. Faute d’erratum visible sur la page principale du rapport, le chiffre continue d’être repris dans les médias français.

Le shift : influenceur avant tout

J’approfondis

L’efficacité exponentielle de l’IA

Après ces errements, faire des prévisions sur une technologie aux progrès aussi foudroyants que l’IA semble bien téméraire. Charles Gorintin, cofondateur des start-up Alan et Mistral AI, soulignait déjà en janvier dernier la double révolution du secteur : « l’efficacité des modèles d’IA a été multipliée par 1 000 en trois ans et celle des puces par 100 depuis 2008 ».

En deux mois, une simple mise à jour des drivers a permis à Nvidia de doubler les performances de ses GB200, avec un nouveau gain attendu en décembre, où ils ne seront alors exploités qu’à 42 % de leur capacité (contre 22 % aujourd’hui) ! Le modèle chinois Deepseek V 3.2 a multiplié par 50 en un an la vitesse de l’attention, phase clé de l’inférence (utilisation) qui pèse 40 à 60 % du coût d’une requête. Google mise sur des modèles « QAT » (Quantization-Aware Training), entraînés et utilisés en 4 bits plutôt qu’en 16. De son côté, Alibaba a conçu Qwen3 Next, aussi performant que les géants du secteur, mais capable de tourner sur une seule carte de calcul.

Même en ignorant les évolutions matérielles, les performances des modèles permettent de baisser à vitesse grand V leur consommation de ressources, donc d’énergie et d’émissions de CO₂, à l’entraînement comme à l’utilisation. Des optimisations qui ne sont pas prises en compte par les règles de trois de nos amoureux de la décroissance.

Numérisons les usages !

Le rapport du Shift surprend aussi par le peu d’analyse des externalités positives du numérique. La visioconférence, par exemple, a réduit les déplacements et les émissions associées. Interrogé sur ce point, Maxime Efoui-Hess affirme que « ce n’est pas mesurable » et que « rien ne montre que le numérique a permis de décarboner le monde », puisque « les émissions des pays numérisés augmentent ». Une première erreur, surprenante de la part d’un spécialiste. Les émissions des pays riches, les plus numérisés, baissent depuis 18 ans. Il invoque également l’effet rebond, estimant que « l’on imprime moins de presse, mais [qu’]il y a beaucoup plus de carton pour la livraison ». C’est encore une fois faux, puisque la consommation de papier et de carton a baissé de 26 % en France depuis l’an 2000.

Avoir recours à l’IA permet déjà d’optimiser la consommation énergétique des bâtiments et des processus industriels et de développer de nouvelles solutions pour la transition écologique. Par essence, tous les processus effectués virtuellement, avec une électricité décarbonée, sont moins émetteurs que leurs équivalents physiques. Il faudrait au contraire le scander. La numérisation des usages est la suite logique de leur électrification !

Maxime Efoui-Hess reconnaît à mi-mot que mettre le numérique et l’IA au service de la décarbonation est possible, « à condition de regarder usage par usage si c’est bien pertinent ». On ne sait pas si l’on doit rire d’une telle prétention, ou trembler d’une volonté de contrôle aussi décontractée.

L’article Numériser les usages ! Notre contrepoint au Shift est apparu en premier sur Les Électrons Libres.

  •