Vue lecture

Électroscope #2 : vos organes en 4D, des objets connectés, des implants cérébraux et du nucléaire

Chaque lundi, Les Électrons Libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Une échographie qui voit nos organes… en 4D !

Des chercheurs français (Inserm/ESPCI/CNRS) ont mis au point une sonde à ultrasons « multi-lentilles » révolutionnaire qui filme la circulation du sang dans un organe entier, en temps réel et en 4D (soit en 3D + temps).

Elle ressemble à une grosse télécommande noire carrée que l’on pose simplement sur la peau avec un peu de gel. En une seconde, elle filme l’organe ciblé en 3D et suit le sang couler dans les moindres vaisseaux, comme un petit film en relief. Autrement dit, on ne regarde plus une tranche isolée : on voit l’organe complet vivre, avec ses artères et ses veines qui fonctionnent… en temps réel.

Sur des modèles animaux de taille humaine, l’équipe de recherche a réussi à cartographier les réseaux vasculaires et les flux à l’intérieur avec une précision allant jusqu’à moins de 100 µm.

Qu’est-ce que ça change ? Cette imagerie ouvre une vue d’ensemble inédite sur la microcirculation, aujourd’hui très difficile à observer à l’échelle d’un organe. Appliquée à l’humain, elle permettra de mieux comprendre l’appareil circulatoire (y compris le système lymphatique) et facilitera le diagnostic de certaines maladies liées à la perturbation sanguine.

Et surtout, l’outil final sera portable, comme une tablette, rapide et accessible. C’est une technologie non invasive pensée pour le lit d’hôpital, et pas juste pour les grands plateaux d’imagerie. L’objectif est de fusionner la précision d’un outil de recherche de pointe et la simplicité d’une banale échographie, au plus près du patient. Un véritable changement d’échelle pour l’imagerie vasculaire… et pour la prise de décision médicale au quotidien !

Le prix du Lidar tombe sous les… 200 $

Le lidar, c’est « le laser qui voit en 3D ». Un composant essentiel des voitures autonomes de Waymo et de ses concurrents (sauf Tesla, qui ne les utilise pas). Il ajoute un « œil 3D » qui mesure précisément les distances, établit une cartographie fine des obstacles et prend le relais quand les caméras s’avèrent insuffisantes (nuit, pluie, brouillard, contre-jour).

Hélas, il a toujours été hors de prix, autour de 10 000 dollars. Mais ça, c’était avant ! Imaginez maintenant un lidar si bon marché qu’il pourra désormais équiper des voitures d’entrée de gamme, et pas seulement des modèles premium. Mieux encore : à ce tarif, il devient possible d’équiper quantité de nouveaux outils : chariots élévateurs, tondeuses à gazon, etc.

C’est le pari de la start-up chinoise Hesai Technology, qui s’est imposée en peu de temps comme le plus grand producteur mondial de solutions lidar. Or, elle vient d’annoncer une nouvelle génération (série ATX) à moins de… 200 $ l’unité.

Une évolution décisive : à ce prix, le lidar change de catégorie. Il cesse d’être un gadget de luxe pour devenir un composant standard pour l’industrie automobile et bien d’autres secteurs.

Vers un recyclage du plastique à 95 % ?

Ecolanka est une jeune start-up française, spin-off du Softmat, un laboratoire de chimie rattaché au CNRS et à l’Université de Toulouse. Elle développe une technologie qui pourrait permettre de dégrader des polymères plastiques réputés « non dégradables » et faire passer le taux de recyclage de 40 % aujourd’hui à 95 %.

Concrètement, elle veut ajouter une petite dose (1 à 25 %) de monomères spéciaux dans les plastiques polymères courants. Résultat : ils gardent leurs performances, mais il devient alors possible de déclencher leur dégradation à la demande, en fin de vie. Pas besoin de changer les lignes de production. Ces monomères peuvent s’insérer facilement dans les procédés industriels, puisqu’il suffit de les ajouter comme on le ferait avec des additifs.

Pourquoi c’est utile : les emballages multicouches sont aujourd’hui un cauchemar du recyclage. Avec Ecolanka, on pourrait enfin les séparer après usage, ce qui améliorerait le tri et augmenterait la matière réellement récupérée. La start-up a déjà réussi à rendre du polyéthylène dégradable, ainsi que d’autres polymères comme le polystyrène et le PVC. Elle entame les démarches pour industrialiser cette technologie et passer du labo à l’usine.

Un implant cérébral plus petit qu’un grain de sel

Des ingénieurs de Cornell ont créé un implant neural minuscule, mesurant 300 microns de long pour 70 microns de large, capable d’enregistrer l’activité électrique du cerveau et de l’envoyer sans fil. Le dispositif, appelé MOTE, est alimenté par la lumière rouge ou infrarouge qui traverse les tissus. Testé chez la souris, il a fonctionné plus d’un an en continu. C’est à ce jour le plus petit implant connu capable de transmettre des signaux neuronaux sans fil.

Quel est l’avantage ? Un implant microscopique perturbe moins le cerveau : il limite les frottements et réduit la réaction immunitaire. En clair, on obtient un « télégramme » nerveux discret et durable, compatible avec des animaux restés sains et actifs sur la durée. À terme, ce format ouvre la voie à des capteurs ultradiscrets pour suivre l’activité nerveuse sur une longue période, sans gêner le patient. Les auteurs soulignent un potentiel d’enregistrement pendant une IRM et envisagent des applications dans d’autres tissus.

Première conversion de combustible nucléaire thorium-uranium

L’Institut de physique appliquée de l’Académie chinoise des sciences de Shanghai vient d’annoncer une grande première. Son petit réacteur à sels fondus TMSR-LF1 a converti du thorium 232 en uranium 233, c’est-à-dire qu’il a transformé un matériau « fertile » en un carburant nucléaire « fissile », qui sera à terme réutilisable dans le réacteur.

C’est un nouveau jalon dans la recherche, après le premier ajout au monde de thorium dans un réacteur à sels fondus, réalisé en octobre 2024. Le but est que ce type de réacteur puisse utiliser à l’avenir un combustible liquide (mélangé au sel), permettant de le « recharger » sans l’arrêter, tout en améliorant l’utilisation du combustible et en réduisant une partie des déchets nucléaires. Les autorités visent un démonstrateur de 100 MWth en 2035.

Les autres nouvelles fascinantes ou réjouissantes à ne pas manquer : 

  • La startup française Quandela vient de livrer au CEA « Lucy », présentée comme le plus puissant ordinateur quantique photonique jamais déployé dans un centre de calcul européen. Il va être couplé au supercalculateur Joliot-Curie.
  • Des chercheurs de l’université technique du Danemark ont produit un anti-venin qui, en tests précliniques, neutralise les poisons produits par 17 espèces de serpents africains (cobras, mambas, ringhals), et réduit le risque de réactions immunes.
  • Le CHU de Montpellier devient le premier hôpital au monde à combiner à la fois le scanner, l’échographie et l’angiographie, le tout en temps réel. De quoi prendre en charge les patients sur la même table, sans les déplacer d’une machine à l’autre.

L’article Électroscope #2 : vos organes en 4D, des objets connectés, des implants cérébraux et du nucléaire est apparu en premier sur Les Électrons Libres.

  •  

Bridge returned error 0! (20401)

See https://curl.haxx.se/libcurl/c/libcurl-errors.html for description of the curl error code.

Details

Type: HttpException
Code: 0
Message: cURL error Resolving timed out after 5000 milliseconds: 28 (https://curl.haxx.se/libcurl/c/libcurl-errors.html) for https://public.api.bsky.app/xrpc/app.bsky.feed.getAuthorFeed?actor=did%3Aplc%3Atoudj53egawswz2ypw3zyn2u&filter=posts_and_author_threads&limit=30
File: lib/http.php
Line: 185

Trace

#0 index.php(73): RssBridge->main()
#1 lib/RssBridge.php(39): RssBridge->{closure}()
#2 lib/RssBridge.php(37): BasicAuthMiddleware->__invoke()
#3 middlewares/BasicAuthMiddleware.php(13): RssBridge->{closure}()
#4 lib/RssBridge.php(37): CacheMiddleware->__invoke()
#5 middlewares/CacheMiddleware.php(44): RssBridge->{closure}()
#6 lib/RssBridge.php(37): ExceptionMiddleware->__invoke()
#7 middlewares/ExceptionMiddleware.php(17): RssBridge->{closure}()
#8 lib/RssBridge.php(37): SecurityMiddleware->__invoke()
#9 middlewares/SecurityMiddleware.php(19): RssBridge->{closure}()
#10 lib/RssBridge.php(37): MaintenanceMiddleware->__invoke()
#11 middlewares/MaintenanceMiddleware.php(10): RssBridge->{closure}()
#12 lib/RssBridge.php(37): TokenAuthenticationMiddleware->__invoke()
#13 middlewares/TokenAuthenticationMiddleware.php(10): RssBridge->{closure}()
#14 lib/RssBridge.php(34): DisplayAction->__invoke()
#15 actions/DisplayAction.php(54): DisplayAction->createResponse()
#16 actions/DisplayAction.php(89): BlueskyBridge->collectData()
#17 bridges/BlueskyBridge.php(164): BlueskyBridge->getAuthorFeed()
#18 bridges/BlueskyBridge.php(633): getContents()
#19 lib/contents.php(104): CurlHttpClient->request()
#20 lib/http.php(185)

Context

Query: action=display&bridge=BlueskyBridge&data_source=getAuthorFeed&user_id=tristankamin.bsky.social&feed_filter=posts_and_author_threads&include_reposts=on&format=Atom
Version: 2025-08-05 (git.master.de9aef0)
OS: Linux
PHP: 8.2.29

Go back

mruac

  •  

Redémarrer le moteur français

« De l’argent, il y en a. » La France se voit encore comme un pays riche, alors qu’elle enchaîne les prêts pour maintenir son train de vie. Un déni qui l’empêche de voir le vrai problème : le moteur de notre prospérité a calé.

Rarement la construction d’un budget aura été aussi douloureuse. Responsabilisés par la situation politique, les députés devaient tricoter une loi de finances cohérente, en accord avec le contexte économique d’un pays fragilisé par un demi-siècle de déficits chroniques. À la place, ils ont laissé exulter leur surmoi fiscal sans aucune modération, rivalisant d’ingéniosité pour sécuriser la première place mondiale de la France en matière de prélèvements obligatoires.

Si la nécessité de réduire drastiquement le déficit est immédiate, il est préjudiciable d’abandonner toute réflexion structurelle sur les causes ayant mené à cette situation.

Il y a deux facteurs expliquant l’endettement de la France : le montant pharaonique de ses dépenses publiques, conséquence d’une omniprésence de l’intervention de l’État, et le déni sur la richesse réelle de notre pays.

Imaginons un ménage qui, malgré des revenus devenus modestes par la faute d’aléas de la vie, continue de vivre comme durant ses années fastes : grand appartement, voiture de sport, restaurants étoilés. À force de dépenser plus qu’il ne gagne, ses dettes s’accumulent et chaque fin de mois devient un casse-tête. C’est exactement la situation de la France, qui continue d’avoir des dépenses, notamment sociales, dignes de pays largement excédentaires, alors que sa capacité à créer de la richesse s’est largement essoufflée.

Nous sommes enfermés dans une hallucination collective, alimentée par des élus affirmant que la France est un pays suffisamment opulent — ou disposant de suffisamment de riches à taxer — pour maintenir son train de vie. Il n’est donc pas étonnant qu’en retour la principale demande des citoyens soit une augmentation de leur pouvoir d’achat. Or, ce dernier ne se décrète ni à Bercy ni à l’Assemblée : il se construit au sein des entreprises. Si un élu peut modifier à la marge le taux ou l’assiette d’un impôt ou d’une cotisation pour redistribuer la richesse à disposition, à dépenses équivalentes, il ne pourra se substituer au réel moteur de la hausse des salaires : la productivité.

Ce concept un peu obscur est à la base de notre prospérité. La productivité reflète notre capacité à créer de la richesse sur un temps de travail donné. Un boulanger, par exemple, s’il produit 100 baguettes par heure, générant chacune 10 centimes de valeur ajoutée, aura alors une productivité horaire de 10 euros. Si, par l’amélioration de son art, le recours à un four plus performant ou la mise en place d’une meilleure organisation, il se met à en produire 150 par heure, alors sa productivité aura augmenté de 50 %. Il s’agit donc d’un indicateur mesurant l’efficacité réelle du temps de travail d’un salarié.

Dans ce domaine, la France s’est toujours enorgueillie d’avoir la meilleure productivité horaire au monde. C’est hélas rigoureusement faux. Si l’on analyse les données de l’OCDE en la matière, l’Hexagone n’a jamais dépassé la cinquième place depuis 2000. Et depuis le Covid, il est tombé à la dixième position.

Article réservé à nos abonnés.

S'abonner dès 5€/mois

ou

Acheter cet article pour 1,50€

 
 

L’article Redémarrer le moteur français est apparu en premier sur Les Électrons Libres.

💾

  •  

Photo du jour

Michaël Mangeon @mangeon4.bsky.social posted:
Photo du jour

Novembre 1970 : Manutention de la cuve principale de Phénix, prototype de réacteur nucléaire à neutrons rapides (RNR) refroidi au sodium, en construction sur le site du CEA Marcoule.

Archives historiques CEA © CEA/Pierre JAHAN – J1585

  •  

Microsoft's lack of quality control is out of control • The Register

Je ne suis pas le seul à penser qu'il y a de plus en plus de problèmes chez Microsoft : Des malfaçons dans Azure aux mises à jour Windows qui posent de plus en plus de soucis (et ça, c'est sans mentionner les problèmes de pillage de la vie privée, d'IA forcée partout et du délai de livraison des mises à jour de sécurité particulièrment problématique (https://sebsauvage.net/links/?RZxk-Q)).

Vous voulez un OS stable pour votre business, où tout est proprement testé ?
J'ai fortement le sentiment qu'une Debian est largement plus fiable et stable qu'un Windows pour de la prod, n'est-ce pas ?
(Permalink)
  •  

Gel des loyers : miracle social ou bombe à retardement ?

Mercredi 5 novembre, New York a basculé. À 34 ans, Zohran Mamdani, élu du Queens et nouvelle figure de la gauche démocrate, décroche la mairie en promettant un gel immédiat des loyers pour près d’un million d’appartements — dans une ville où le loyer médian dépasse 3 500 dollars. Une mesure radicale… qui, partout, a toujours eu des effets délétères.

Une régulation ancienne

À New York, le logement n’a jamais été un marché totalement libre. Depuis l’après-guerre, deux régimes coexistent : les rent-controlled apartments, vestiges des années 1940, aux loyers quasi figés, rappelant le système de notre fameuse « loi de 1948 » (voir encart) ; et surtout les rent-stabilized apartments, nés en 1969, où les augmentations sont encadrées. Ce second dispositif représente l’essentiel du parc régulé, soit près d’un tiers du marché locatif new-yorkais.

La « loi de 1948 », ou la location… en héritage !

J’approfondis

Chaque année, la Rent Guidelines Board (RGB) — un organe indépendant dont les membres sont nommés par le maire — fixe les hausses autorisées, généralement de l’ordre de 1 à 3 %. Ces décisions, très politiques, reflètent la tension entre propriétaires, qui invoquent la hausse des coûts de maintenance, et locataires, qui dénoncent des loyers devenus insoutenables.

La réforme HSTPA (Housing Stability and Tenant Protection Act), adoptée en 2019, a profondément renforcé ce cadre. Elle a supprimé la plupart des possibilités de sortie du régime stabilisé, limité les hausses après travaux et renforcé la protection contre les expulsions. Résultat : la majorité des logements stabilisés sont désormais « bloqués » dans ce système, tandis que la vacance locative est tombée à 1,4 %, selon un rapport du directeur financier de la ville datant d’avril 2024. Un seuil considéré comme critique.

L’électrochoc Mamdani

Face à cette situation, Zohran Mamdani a bâti sa victoire sur le mot d’ordre « Freeze the rent ». Son projet est clair : geler totalement les loyers du parc stabilisé pendant au moins un an, dès 2026. Il promet aussi de créer un fonds municipal pour compenser les petits propriétaires, financé par un ajustement fiscal sur les grandes sociétés immobilières.

Pour ses partisans, cette mesure répond à une urgence sociale. Près de 50 % des locataires new-yorkais consacrent plus du tiers de leurs revenus au logement, et près d’un sur quatre dépasse les 50 %. La ville l’affirme d’ailleurs dans son rapport déjà cité : « Le coût du logement est devenu la première cause de pauvreté urbaine à New York. »

Pour ses opposants, c’est une mesure aussi symbolique que dangereuse. Les organisations de propriétaires redoutent un effondrement de la rentabilité, un désengagement de l’entretien — déjà problématique — et un ralentissement de la construction neuve.

Le marché new-yorkais fonctionne aujourd’hui comme un système à deux vitesses. Les locataires en logement stabilisé bénéficient d’une sécurité rare, avec des loyers bien inférieurs au marché et une quasi-impossibilité d’expulsion. Mais ce privilège a un revers. Les nouveaux arrivants peinent à trouver un logement, car l’offre est rigide et les appartements stabilisés se transmettent parfois comme un héritage, en plus de poser des problèmes de mobilité sociale et professionnelle. Le Comptroller (le directeur financier) estime à plus de 26 000 le nombre de logements stabilisés vacants depuis 2020, souvent parce que les travaux de mise aux normes sont devenus économiquement dissuasifs.

Un gel total risque d’aggraver cette situation. D’un côté, il sécuriserait les locataires existants. De l’autre, il pourrait désinciter les propriétaires à entretenir ou remettre en location les biens vacants, voire les pousser à contourner le dispositif (via des locations meublées, saisonnières ou des conversions en copropriétés). L’effet mécanique est connu et délétère : la raréfaction de l’offre sur le segment régulé exerce une pression croissante sur le marché libre, où les loyers flambent encore davantage. Une logique déjà observée à San Francisco, Stockholm ou Berlin (voir encart).

Berlin, Stockholm, San Francisco, mêmes causes, mêmes effets

J’approfondis

En France, un encadrement jouant le compromis entre régulation et marché

La France offre un laboratoire instructif de la régulation des loyers à l’échelle locale. Après la suspension du dispositif Duflot en 2017, le gouvernement a réintroduit l’encadrement des loyers par la loi Élan (2018) dans les zones dites « tendues », à titre expérimental. D’abord remis en place à Paris en 2019, il s’est progressivement étendu à Lille, Lyon, Villeurbanne, Bordeaux, Montpellier, et plus récemment à plusieurs communes de Seine-Saint-Denis. Le principe est simple : pour chaque type de bien, un loyer de référence est défini par arrêté préfectoral, calculé à partir des données de l’Observatoire local des loyers. Ce montant peut être majoré de 20 % ou minoré de 30 % selon l’état du logement et sa localisation. En théorie, tout dépassement est sanctionnable, mais en pratique, le contrôle et la mise en conformité demeurent les maillons faibles du système.

L’évaluation conduite en 2024 par l’Atelier parisien d’urbanisme (Apur) — une agence d’urbanisme ayant le statut d’association à but non lucratif — et le Centre d’économie et de sociologie appliquées à l’agriculture et aux espaces ruraux (CESAER) a permis, pour la première fois, de mesurer ses effets à grande échelle. Les conclusions sont contrastées. D’un côté, le dispositif a eu un effet réel sur les loyers les plus excessifs. Les annonces dépassant largement le plafond ont reculé, et le niveau moyen des loyers de relocation a baissé de 3 à 5 % par rapport au marché libre. L’étude souligne aussi que l’information du locataire reste inégale : peu d’entre eux savent qu’ils peuvent exiger un réajustement, et les procédures de recours demeurent complexes. Surtout, la mesure a participé à un mouvement extrêmement grave, ayant vu l’offre locative parisienne se tarir de 73 % entre janvier 2021 et le même mois de 2024. Si les raisons en sont diverses (mise en place d’un nouveau DPE ayant éloigné les passoires thermiques du marché, boom des locations Airbnb dans la perspective des Jeux olympiques, et crise de l’achat conduisant les locataires souhaitant devenir propriétaires à remettre à plus tard leur projet), l’encadrement des loyers a aussi participé du phénomène.

Mais au-delà de ces effets directs, ce principe soulève des enjeux économiques plus profonds. Les professionnels du secteur constatent une rigidification de l’offre locative, notamment dans le segment des petites surfaces, les propriétaires préférant vendre ou louer en courte durée plutôt que de s’exposer à une réglementation jugée contraignante. Selon le rapport de la Cour des comptes de 2023, le dispositif contribue à « stabiliser les loyers dans le parc existant », mais il ne peut « compenser l’insuffisance chronique de l’offre locative, liée à la rareté du foncier et à la lenteur des procédures d’aménagement ». En d’autres termes, l’encadrement protège mais ne produit pas.

Les effets territoriaux sont tout aussi contrastés. À Lille, les rapports de la métropole montrent un respect légèrement supérieur à Paris, mais un impact limité sur le niveau général des loyers. À Lyon et Villeurbanne, la mise en œuvre s’est heurtée à des résistances juridiques et politiques, les préfets ayant tardé à signer les arrêtés. À Bordeaux, le dispositif est encore trop récent pour être évalué, mais les agences locales notent déjà une baisse des offres en location longue durée. Comme toujours, à force de contraintes, certains propriétaires renoncent à louer dans le parc privé, alors même que des dizaines de milliers de logements restent vacants faute de rénovation ou d’incitations suffisantes.

La leçon est claire : l’encadrement, même accompagné d’une politique d’ensemble combinant incitations fiscales à la rénovation, soutien à la construction neuve et régulation des usages alternatifs comme Airbnb, produit non seulement une redoutable contraction du marché, mais aussi une distorsion de concurrence. Il fige les déséquilibres et accentue les inégalités entre locataires protégés et exclus du système. Un autre effet pervers tient à la sélection des heureux élus. À mesure que l’offre se contracte, les bailleurs exigent des dossiers blindés : CDI stable, revenus supérieurs à 3,5 fois le loyer, garant résidant en France, épargne conséquente. En conséquence, les ménages plus modestes ou récemment arrivés sont systématiquement écartés, tandis que les profils les plus aisés décrochent les rares logements encadrés et profitent pleinement du loyer plafonné.

Au fond, la France se trouve dans une position comparable à celle de New York. L’offre reste trop faible, les coûts de production trop élevés et les circuits de rénovation trop lourds. On ne stabilise pas un marché du logement sans investir massivement dans ce qui le nourrit : la construction, la rénovation et la confiance.

Mamdani face au dilemme universel

En gelant les loyers, Zohran Mamdani fait le choix du court terme social contre le moyen terme économique. Le geste est certes fort et symbolique. Il redonne espoir à des millions de locataires étranglés par la hausse du coût de la vie. Mais il ne suffira pas, à lui seul, à résoudre la crise du logement new-yorkaise et pourrait même l’aggraver en figeant les déséquilibres, en asséchant l’offre et en renforçant la fracture entre locataires protégés et exclus du système.

Le maire de New York semble en être conscient : il évoque déjà un programme de densification urbaine autour des lignes de métro et des aides ciblées à la rénovation énergétique. Mais ces chantiers prendront du temps. Et dans une ville où le logement est devenu un symbole de survie autant qu’un bien économique, chaque mois compte.

Justice sociale vs réalité économique

L’encadrement des loyers agit comme un anesthésiant. Il apaise la douleur immédiate, mais ne soigne pas la maladie et l’aggrave souvent. À New York comme à Paris, la tension vient d’un déficit d’offre structurel et d’une concentration croissante des revenus immobiliers. L’histoire du logement, à New York comme ailleurs, rappelle une règle simple : on ne gèle pas un marché sans en payer les conséquences…

L’article Gel des loyers : miracle social ou bombe à retardement ? est apparu en premier sur Les Électrons Libres.

  •  

Meta tirerait 10% de ses revenus d’arnaques et de publicités frauduleuses - Next

Mais Google aussi !
Quand j'avais des publicités Google AdSense sur mon site, je passais mon temps - TOUS LES JOURS - à blacklister des site d'arnaque dans la console Google (cf. https://sebsauvage.net/rhaa/index.php?2010/05/12/07/37/24-la-farandole-des-arnaqueurs)
Google et Meta disent vouloir protéger les internautes. En réalité il n'en ont rien à foutre tant que le fric rentre.
(Permalink)
  •  

Non, l’IA ne va pas détruire la planète… Au contraire !

Le travail de sape porte ses fruits. À force d’entendre répéter partout que l’intelligence artificielle serait une aberration écologique, une part croissante du public s’en convainc sans chercher plus loin. Pourtant, derrière la peur se cache un outil d’une puissance inédite, capable de réparer, d’optimiser et de verdir bien plus qu’il ne consomme.

Lui est journaliste au Monde, elle a 23 ans et sort d’un échec en fac d’anglais. Lui culpabilise du « bilan carbone » de ses expériences avec Sora ; elle refuse d’en entendre parler : « l’IA détruit la planète ». Deux réactions, deux faces d’une même pièce : celle d’un narratif anti-IA devenu réflexe, nourri d’études fragiles, de comparaisons absurdes et d’une bonne dose de catastrophisme intéressé.

Le faux procès fait à l’IA

En juin 2025, le ministère de l’Éducation nationale publiait un « Cadre d’usage de l’intelligence artificielle » recommandant de ne l’utiliser « que si aucune autre solution moins coûteuse écologiquement ne répond au besoin ». Autrement dit, l’IA est présumée coupable. Cette approche s’appuie sur la notion d’« IA frugale » définie par l’AFNOR en 2024 : une IA sommée de prouver qu’elle ne consomme pas trop avant même qu’on évalue ce qu’elle permet d’économiser. Le doute érigé en principe de précaution administratif.

En février 2025, un collectif d’associations mené par Attac, La Quadrature du Net et la Ligue des droits de l’Homme publiait dans Le Monde une tribune titrée : « L’IA contre les droits humains, sociaux et environnementaux ». On y lisait que l’IA « accélère le désastre écologique », « aggrave les injustices » et « renforce la concentration des pouvoirs », tout en prolongeant « les dynamiques néocoloniales » et en se mettant « au service de projets autoritaires et impérialistes ». Un texte sans données, mais avec un vocabulaire grandiloquent à la hauteur du désastre annoncé. La technologie y est condamnée non pour ce qu’elle fait, mais pour ce qu’elle symbolise : le capitalisme, la productivité, le progrès — bref, tout ce qu’il faut exorciser.

Les médias se sont empressés de relayer cette inquiétude morale. À l’automne, France 2 consacre un reportage à « la soif du numérique qui assèche les sols », reprenant l’idée qu’une requête ChatGPT consommerait un grand verre d’eau. Le chiffre, issu d’une étude américaine non évaluée datant de 2023, a depuis été largement réfuté : elle supposait un refroidissement 100 % à l’eau, en circuit ouvert, y ajoutait l’eau utilisée pour produire l’électricité et confondait eau prélevée (souvent restituée) et eau réellement consommée. Résultat : un calcul gonflé d’un facteur cent, voire mille. En réalité, l’impact d’une requête se mesure en dés à coudre, pas en baignoires. Pas de quoi pleurer des rivières.

Mais qu’importe, la peur se vend mieux que la nuance. La « sobriété numérique » est devenue un marché prospère, avec ses rapports, ses formations et ses audits. Une poignée de consultants s’est spécialisée dans la production de chiffres alarmistes — avant de vendre les solutions censées y remédier. Le comble de l’économie circulaire.

Les faits, rien que les faits

Derrière la panique, les ordres de grandeur racontent une toute autre histoire. En 2023, une requête sur ChatGPT consommait environ trois wattheures ; deux ans plus tard, à peine 0,3 — vingt fois moins qu’un simple expresso. Même à pleine charge, les serveurs d’OpenAI ne tirent que 35 mégawatts, l’équivalent de trois TGV lancés à pleine puissance. Le coût énergétique d’une réponse se résume donc à six minutes d’ampoule allumée.

Quant à l’entraînement des grands modèles, il reste ponctuel et amorti. GPT-4 aurait nécessité une cinquantaine de gigawattheures, soit deux jours de production d’un réacteur nucléaire. Rapporté aux milliards d’utilisations quotidiennes, l’impact unitaire devient infinitésimal.

La consommation d’eau de l’IA ? Une goutte d’eau dans l’océan. Les data centers du monde entier en consomment entre 500 et 700 milliards de litres par an, soit environ 0,015 % de l’eau utilisée sur la planète. L’intelligence artificielle représente moins de la moitié de ce total. Et la tendance est à la baisse : les systèmes de refroidissement en circuit fermé (closed loop) réduisent les prélèvements de plus de 90 %. En France, un arrêté de 2025 interdit désormais l’usage d’eau potable dans ces installations ; neuf nouveaux sites sur dix sont déjà équipés de ces circuits fermés. À Marseille, Google refroidit même ses serveurs avec de l’eau de mer recirculée, restituée sans perte.

La Fake news des 50cl

J’approfondis

L’innovation plus sobre que la sobriété

Pendant que certains se noient encore dans un verre d’eau de 50 centilitres, les ingénieurs, eux, font fondre la consommation. Les modèles récents sont découpés en « experts » et chaque requête n’active que certains d’entre eux ; on ne réentraîne presque jamais un modèle à partir de zéro ; on compresse les réseaux neuronaux, on réduit la précision des calculs, on passe de seize bits à quatre. Dans le même temps, les puces spécialisées ont gagné un facteur mille d’efficacité en quinze ans. Nvidia, Google, Alibaba, Mistral ou DeepSeek multiplient les gains à chaque itération : une simple mise à jour logicielle suffit aujourd’hui à diviser par deux la consommation d’un processeur.

La vraie sobriété n’a donc rien de punitif, elle est technologique. L’IA devient chaque jour plus légère, plus rapide, plus proche de l’utilisateur. Certains modèles tournent déjà sur smartphone. On n’a jamais produit autant d’intelligence avec aussi peu d’énergie.

Héberger plutôt qu’interdire

Qui veut noyer son chien l’accuse de la rage. C’est précisément au moment où la technologie devient capable d’éteindre la contestation que retentissent les appels les plus vibrants à la restreindre. Le Shift Project, think tank fondé par Jean-Marc Jancovici, recommande ainsi de « limiter le déploiement de l’IA aux usages prioritaires ». Définis par qui, au fait ?

Le rapport prédit un triplement de la consommation mondiale des data centers d’ici 2030, jusqu’à 1 500 TWh. Un scénario au-delà même des prévisions les plus pessimistes de l’Agence internationale de l’énergie, qui situe la fourchette entre 700 et 1 250 TWh.

Surtout, le Shift oublie un détail essentiel : déplacer les infrastructures n’en réduit pas la consommation, il la déplace. Empêcher l’installation de data centers en France, pays dont l’électricité est décarbonée à plus de 90 %, reviendrait simplement à les voir pousser ailleurs, sur des réseaux alimentés au gaz ou au charbon. En 2024, la France a exporté 89 TWh d’électricité ; même si tous les projets annoncés voyaient le jour, les data centers n’en consommeraient que 25 TWh d’ici 2035, soit un peu plus du quart de nos exportations actuelles. Mieux encore : une demande accrue contribuerait à stabiliser le coût du mégawattheure en améliorant le taux d’utilisation du parc nucléaire.

Numériser, c’est décarboner

On reproche souvent à l’IA de trop consommer. On oublie tout ce qu’elle fait économiser. La visioconférence remplace des déplacements professionnels. Les bâtiments intelligents ajustent d’eux-mêmes leur chauffage. Les chaînes logistiques s’affinent, les réseaux se synchronisent, l’agriculture de précision limite l’irrigation et les intrants, la maintenance prédictive prévient les pannes et réduit les rebuts.

Partout où l’intelligence artificielle s’installe, les émissions reculent. Selon l’Agence internationale de l’énergie, les pays les plus numérisés voient leurs rejets de CO₂ baisser depuis près de vingt ans. En France, la consommation de papier et de carton a diminué de 26 % depuis 2000 : la dématérialisation, ici encore, a tenu ses promesses.

Chaque activité virtuelle alimentée par une électricité décarbonée est moins émettrice que son équivalent physique. Numériser les usages, c’est prolonger l’électrification de l’économie ; c’est l’étape suivante, logique et nécessaire, de la transition énergétique.

Dix usages de l’IA qu’on nous cache

J’approfondis

L’Europe, un continent d’avance

Et si, pour une fois, l’Europe ne ratait pas le train de la révolution technologique ? En moins de deux ans, Mistral AI est devenue la première décacorne française, valorisée à 11,7 milliards d’euros. Sa stratégie : l’open source, la transparence et l’efficacité. Hugging Face, avec ses 1,3 million de modèles hébergés et son milliard de requêtes quotidiennes, est déjà rentable. Autour d’eux, DeepL, Synthesia, Wayve, PhysicsX ou Black Forest Labs inventent une IA européenne, sobre, innovante et pragmatique. Encore faut-il que la vertu réglementaire ne se change pas en autocensure industrielle. Une fiscalité trop lourde, un soupçon systématique sur la technologie, et l’Europe reprendra sa place en tribunes.

Réconcilier progrès et planète

L’intelligence artificielle n’est pas l’ennemie du climat, c’est déjà l’un de ses meilleurs alliés. Pendant qu’on se bat sur des chiffres, elle agit. Ses usages environnementaux se déploient dans trois grands domaines : l’énergie et le climat, la biodiversité et les écosystèmes, les ressources et la production. Elle mesure, anticipe, corrige. Elle réduit les gaspillages, rationalise la consommation et nous rend collectivement plus efficaces. Chaque kilowattheure dépensé pour elle en fait économiser bien d’autres ailleurs.

La vraie question n’est pas combien l’IA consomme, mais quelle est sa balance bénéfice-risque. Refuser son essor au nom d’externalités négatives montées en épingle, c’est renoncer à toutes les externalités positives qu’elle rend possibles. Autrement dit, se priver du progrès au nom de la peur qu’il inspire. Ou, plus cyniquement encore, vouloir interdire la solution parce qu’on prospère sur le problème.

L’article Non, l’IA ne va pas détruire la planète… Au contraire ! est apparu en premier sur Les Électrons Libres.

  •