Lancement d’Artémis 2 : sortie de la fusée lunaire de la Nasa

© SPUS/ABACA

© SPUS/ABACA

Des observations satellitaires tentent de percer à jour la glace de l'Antarctique pour voir ce qui se cache dessous. Une étude capitale pour mieux comprendre la fonte des glaces sur ce continent particulièrement vulnérable au changement climatique.

Les xénobots attirent aujourd’hui l’attention. Cette nouvelle catégorie de « robots vivants », fabriqués à partir de cellules d’amphibien et conçus grâce à des algorithmes, est capable de se déplacer, de se réparer et même, dans certaines expériences, de se reproduire en assemblant de nouveaux agrégats cellulaires. Ces entités questionnent la frontière entre machine et organisme. Des études récentes détaillent mieux leur fonctionnement moléculaire et ravivent les débats éthiques sur le contrôle de ces formes de vie programmables.

Une étude internationale dirigée par l'Université du Cap révèle la découverte de fossiles microscopiques dans une roche vieille de 444 millions d'années. Ils ont prospéré dans des fonds marins après une extinction massive et une période de glaciation majeure.

Le suivi de la qualité de l’air s’est grandement démocratisé grâce à l’essor de microcapteurs électroniques accessibles à tout un chacun. Ces dispositifs sont-ils performants, et à quelles conditions peuvent-ils fournir une information utilisable ? État des lieux.

© AFP
© dimazel / stock.adobe.com

© Figaro Live

© AGUSTIN PAULLIER / AFP
Allons droit au but. Le dernier rapport de l’ADEME sur l’évolution des consommations des data centers en France appelle de nombreuses critiques. Une modélisation simpliste, fondée sur des données en partie obsolètes, ne peut sérieusement prétendre éclairer l’avenir, a fortiori à l’horizon 2060, dans un secteur marqué par des ruptures technologiques rapides et imprévisibles. Mais ces débats méthodologiques sont presque secondaires, tant la conclusion semble écrite d’avance. L’analyse ne vise qu’à donner un vernis scientifique à la légitimation d’une sobriété dont vivent les auteurs.
Pire encore, si la recommandation implicite de ce rapport était suivie — freiner l’implantation jugée « effrénée » des data centers en France au nom de leur incompatibilité supposée avec l’Accord de Paris — cela reviendrait à encourager le recours à des serveurs situés dans des pays au mix électrique bien plus carboné, au détriment du bilan carbone global. Un résultat absurde pour une démarche aussi hypocrite que contre-productive.
Le rapport propose cinq scénarios. Un scénario dit « tendanciel », présenté comme la trajectoire naturelle en l’absence de politiques publiques correctrices, et quatre scénarios alternatifs repris du rapport Transition(s) 2050 : les fameux « Générations frugales » (la douce sobriété décroissante), « Coopérations territoriales », « Technologies vertes » et « Pari réparateur » (l’affreux techno-solutionnisme). Sans surprise, le scénario tendanciel, à base de règles de trois sommaires sur les tendances actuelles, est celui qui produit les consommations les plus élevées, tous les autres convergeant vers une baisse. Jusque-là, rien d’anormal.
C’est ensuite que ça se gâte. La synthèse du rapport affirme que « les optimisations technologiques telles que l’augmentation de l’efficacité et la récupération de la chaleur fatale ne suffiront pas à stabiliser la croissance des consommations électriques des centres de données en France sans la mise en place d’une politique active de sobriété pour les services numériques et les usages ». Une affirmation sans preuve, qui découle mécaniquement des hypothèses retenues, lesquelles n’intègrent pas, ou très peu, de progrès technologiques. Et qui, surtout, érige la stabilisation de la consommation électrique des centres de données en une fin en soi, sans jamais en justifier la pertinence au regard de notre surcapacité de production électrique ou des externalités positives des nouveaux usages numériques.
Le chiffre est spectaculaire. La consommation électrique des centres de données « induite par les usages des Français » pourrait être multipliée par 3,7 d’ici 2035, voire par 4,4 si l’on inclut la part dite « importée ». Verdict ? Une telle trajectoire serait incompatible avec l’Accord de Paris. Le message est simple, anxiogène et médiatiquement très efficace.
Pourtant, pris isolément, ce chiffre ne signifie pas grand-chose. Cette présentation occulte que les 8 TWh actuels estimés par l’ADEME — soit environ trois fois la consommation annuelle d’une ville comme Lyon ou Marseille — ne représentent que 1,8 % de la consommation nationale. Quant aux 26 TWh de croissance projetés d’ici 2035 dans le scénario tendanciel, ils apparaissent parfaitement soutenables au regard des surcapacités de production d’environ 100 TWh par an signalées par RTE. La France est d’ailleurs la première exportatrice d’électricité décarbonée de l’UE, avec un nouveau record de 92,3 TWh en 2025. Présenter une telle croissance, alimentée par une électricité largement décarbonée, comme une menace climatique relève, au mieux, du contresens ; au pire, de la malhonnêteté intellectuelle.
Quant à la notion de « consommation importée », elle pose un problème conceptuel évident. À usages constants, cette consommation existe quel que soit le lieu d’implantation des serveurs. La seule manière de la réduire consiste à restreindre les usages eux-mêmes, hypothèse explicitement assumée par le scénario 1, qui prévoit de mettre fin à des usages jugés « inutiles et nocifs ».
À l’inverse, freiner la construction de data centers en France, voire instaurer un moratoire comme suggéré par ce même scénario 1, ne supprime rien, mais déplace le problème, transformant une prétendue mesure de sobriété en dégradation globale.
Le rapport présente son approche comme reposant sur un travail de « modélisation ». En clair, un tableau Excel.
Celui-ci est bâti sur des hypothèses qui concourent toutes à surévaluer les besoins énergétiques projetés. D’abord, il retient le volume de données comme indicateur central de l’impact environnemental, un choix pourtant largement reconnu comme inadapté au numérique moderne. Assimiler mécaniquement « plus de données » à « plus d’énergie » revient à ignorer les gains continus d’efficacité liés aux architectures, aux algorithmes et à l’optimisation des systèmes. Ensuite, il associe ce volume de données à un nombre toujours croissant de requêtes centralisées, en faisant l’impasse sur l’essor déjà réel de modèles plus légers, capables de tourner directement sur les smartphones, les ordinateurs ou les objets connectés. Enfin, pour estimer la consommation électrique, il s’appuie sur des références technologiques dépassées, issues d’un état du numérique antérieur à l’explosion de l’IA générative, en ignorant que les puces les plus récentes, conçues pour l’IA, sont capables de fournir bien plus de calculs pour une même quantité d’électricité.
Le rapport pousse l’exercice prospectif jusqu’en 2060, un horizon particulièrement lointain pour un secteur marqué par des ruptures technologiques rapides. Pour mesurer l’ampleur de l’écart, il suffit de se replacer trente-cinq ans en arrière, en 1990, à une époque où Internet n’était pas un usage grand public, où les PC tournaient avec un processeur 80486 et 4 Mo de RAM, et où l’ADEME elle-même n’existait pas encore.
La lecture du rapport laisse apparaître que la sobriété n’est pas une hypothèse parmi d’autres, mais un objectif. Les communications sur LinkedIn de l’autrice principale, trésorière de l’association GreenIT (voir encadré), le confirment explicitement. Dans un post publié lors de la sortie de l’étude, elle explique que seuls les scénarios fondés sur la sobriété lui paraissent capables de répondre aux défis environnementaux. Selon elle, « s’appuyer uniquement sur des innovations technologiques pour réduire l’empreinte environnementale des data centers et de l’IA générative est illusoire ».
La sobriété constitue une conviction personnelle préexistante, assumée et revendiquée par l’autrice, qui structure son rapport au numérique, à l’IA et aux usages. Dans un autre post, elle critique la « pression à l’adoption » de l’IA et s’interroge sur la « légitimité démocratique » de ces évolutions.
Se pose alors une question de fond : peut-on confier une prospective destinée à éclairer le débat public, voire à orienter la décision publique, à des experts aux positions militantes affirmées et qui interviennent par ailleurs, à titre professionnel, dans la mise en œuvre de ces orientations auprès d’acteurs publics et privés ? Une pratique constante, pourtant, chez l’ADEME, qui revient à confier à des vendeurs de ronds-points une étude sur la sécurité routière.
Très régulièrement, le numérique se retrouve dans le viseur de l’ADEME, qui va même jusqu’à publier des vidéos (en streaming et disponibles en full HD Premium) pour inciter à éteindre sa box internet et à ne pas laisser son ordinateur en veille. Ce biais anti-numérique amène à se demander si le numérique n’est pas mis en cause, non pour ce qu’il est, mais pour ce qu’il représente et rend possible : le progrès, la technologie, « la sauvegarde des modes de vie de consommation de masse », pour reprendre la présentation du scénario « Pari réparateur ».
Le rapport publié début 2026 sur la prospective énergétique des centres de données s’inscrit dans cette continuité. Le décor change, la méthode demeure. Aujourd’hui, les coupables s’appellent blockchain et intelligence artificielle. Demain, ce sera autre chose.
La conclusion l’assume sans détour : « Les cas des scénarios Générations frugales et Coopérations territoriales nous ont permis d’explorer que seule une politique de sobriété très volontariste, modifiant en profondeur nos modes de vie, permettrait une inflexion permettant de réduire les consommations futures des centres de données. »
La prospective se fait alors prescriptive. Elle désigne une voie unique, celle de la sobriété, et substitue au techno-solutionnisme qu’elle dénonce un socio-solutionnisme aux contours flous, dont les implications concrètes pour les usages, les libertés et les choix collectifs demeurent largement indéterminées.
Et si le principal défaut du numérique, aux yeux de l’ADEME, était précisément de permettre de décarboner sans passer par la sobriété ?
L’article Les paniques numériques de l’ADEME est apparu en premier sur Les Électrons Libres.

Une étude, récemment publiée, révèle que la chasse à la baleine remonte à 1 000 ans plus tôt que ce qui était estimé auparavant. La localisation également est différente de ce que l'on pensait : cela a débuté en Amérique du Sud, et non en Amérique du Nord.

Des fossiles d'organismes à corps mous datant de 570 millions d'années ont été découverts, préservés sous forme d'empreintes dans le grès grâce à un mélange d'argiles. Cette découverte renverse l'hypothèse admise jusqu'à présent et donne une nouvelle explication à cette fossilisation exceptionnelle.

© Evelyn Hockstein / REUTERS

© Marguerite Mangin

Dans une nouvelle étude, des chercheurs ont étudié pour la première fois des molécules métaboliques dans des os fossilisés datant de 1,3 à 3 millions d'années. Ils ont ainsi obtenu des informations sur la santé et l'environnement des animaux préhistoriques.
Leur rôle stratégique est aujourd’hui reconnu par les États et l’Union européenne. La France compte déjà 300 à 320 data centers, ce qui la situe au 3e ou 4e rang européen, derrière l’Allemagne et le Royaume-Uni et au coude à coude avec les Pays-Bas. Idéalement située au carrefour des grands flux numériques au sein de l’Europe et avec l’Afrique ou l’Amérique, elle dispose en outre de l’un des mix électriques les plus faiblement carbonés au monde, d’un réseau électrique stable et d’un tissu industriel solide. Autant d’atouts qui devraient la conduire à en faire un secteur d’excellence, en cohérence avec ses objectifs climatiques et de souveraineté numérique. C’est pourtant au nom de l’environnement et de la santé publique qu’un projet porté par l’aménageur Segro au Bourget (Seine-Saint-Denis) cristallise une opposition locale d’une rare virulence.
Le projet prévoit l’implantation d’un centre de données sur un ancien site logistique H&M de la ZAC du Commandant-Rolland, sur une emprise de 3,7 à 4,1 hectares. La surface de plancher atteindrait 25 300 m², pour une puissance de raccordement de 75 MW et une consommation annuelle estimée à 526 GWh, soit environ 3,2 fois la consommation électrique du Bourget.
L’installation comprendrait 33 groupes électrogènes, des batteries de secours lithium-ion, des systèmes de refroidissement au fluide R1234ze, ainsi qu’un projet de récupération de chaleur fatale — la chaleur dissipée par les équipements informatiques, susceptible d’être valorisée pour alimenter un réseau de chauffage urbain ou des bâtiments voisins —, à ce stade non contractualisé. Le site est situé en zone urbaine dense, à proximité immédiate de logements et d’établissements recevant du public.
Sur le plan foncier, le projet s’inscrit toutefois dans une logique classique. Les data centers sont des bâtiments compacts, peu consommateurs de voirie et de stationnement, et moins gourmands en foncier qu’un entrepôt logistique ou une zone commerciale. Cette réalité contraste avec certains discours militants, comme celui de Charlie Hebdo évoquant des « forêts de béton qui dévorent le territoire », alors même que, le plus souvent, ces infrastructures permettent, comme ici, la réhabilitation d’une friche industrielle et la création d’emplois locaux.
Plus de 18 000 personnes ont signé la pétition réclamant l’arrêt immédiat du projet, un chiffre élevé rapporté aux 15 000 habitants de la commune. Le texte mobilise deux registres. D’une part, celui du désastre écologique, évoquant les « millions de litres d’eau pour refroidir les machines », une « consommation d’électricité monstrueuse » et un projet qui « ne servirait qu’à stocker des données, sans améliorer le quotidien ». D’autre part, celui du sentiment d’abandon territorial, avec des formules telles que « assez de mépris pour la Seine-Saint-Denis », « territoire déjà saturé, déjà sacrifié » ou encore « dépotoir énergétique de l’Île-de-France ». Un sentiment qui traduit, en négatif, la réalité d’un département devenu le pôle principal d’accueil de data centers et des emplois qualifiés qui vont avec.
Cette hostilité est relayée par le député LFI Aly Diouara, déjà opposé au data center de La Courneuve ainsi qu’à… la réalisation d’une liaison cyclable entre la Courneuve et Bobigny le long de la RD 986. Ici, il invoque le principe de précaution et des « risques sanitaires, environnementaux et contentieux », en s’appuyant sur l’avis de la Mission régionale d’autorité environnementale (MRAe) — avis qui ne conclut à aucun moment à l’existence de risques sanitaires avérés.
Même tonalité chez Vincent Capo-Canellas, sénateur UDI de la Seine-Saint-Denis et ancien maire du Bourget, qui évoque un risque de dévalorisation immobilière et dénonce une « absence de concertation ». Un paradoxe, en pleine enquête publique.
Quant au MNLE 93 (section locale du Mouvement national de lutte pour l’environnement), il s’oppose frontalement au projet, qualifié d’« enjeu de santé publique en zone urbanisée », une expression sortie de nulle part.
Tous les opposants s’appuient sur l’avis de la MRAe du 30 juin 2025, qui constitue le socle technique du débat. L’avis relève des insuffisances méthodologiques et formule treize recommandations portant sur le bruit, l’air, les risques industriels, les champs électromagnétiques et les effets cumulés. Il souligne notamment la « forte présence de logements et d’établissements recevant du public à proximité du site » et demande de « compléter l’analyse des risques en intégrant des scénarios d’accidents graves incluant les effets sur les populations riveraines ».
L’avis ne conclut ni à un danger avéré, ni à un dépassement réglementaire, ni à l’inacceptabilité du projet. En revanche, il adopte une posture de précaution maximale, en privilégiant systématiquement les hypothèses les plus défavorables, au-delà des exigences réglementaires, sans jamais se prononcer explicitement sur la maîtrise des impacts.
Sur les champs électromagnétiques, la MRAe évoque des « carences du dossier initial » et demande des compléments d’analyse en raison « d’équipements qui génèrent des champs électromagnétiques aux effets peu documentés », alors même que les niveaux attendus relèvent de sources électriques classiques et demeurent très inférieurs aux seuils réglementaires.
Le fluide frigorigène R1234ze — développé pour remplacer les HFC à fort effet de serre et autorisé par la réglementation européenne —, choisi pour les 48 groupes froids du site, fait l’objet d’une demande d’évaluation de ses produits de décomposition dans l’atmosphère, lesquels « pourraient très fortement relativiser sa qualité de gaz peu responsable d’effet de serre ». Un gaz que la MRAe assimile, à la différence de la réglementation, à un « PFAS », en questionnant son impact « tant sur la santé des populations que sur les milieux ».
Sans surprise, cette posture est aujourd’hui instrumentalisée politiquement, transformant des demandes de compléments méthodologiques en arguments de refus de principe, un glissement déjà relevé par Les Électrons libres.
Les risques industriels associés aux data centers sont documentés, encadrés et globalement faibles. Le principal concerne l’incendie, lié aux installations électriques, aux batteries ou aux cuves de stockage du carburant des générateurs. Les data centers figurent parmi les bâtiments industriels les plus surveillés — détection précoce, compartimentage, systèmes d’extinction spécifiques — et les incidents recensés ont causé des dommages matériels, sans victime civile ni impact sanitaire extérieur durable documenté. L’incendie spectaculaire d’OVHcloud à Strasbourg en 2021 en est une illustration.
Les risques liés aux batteries lithium-ion restent théoriques et extrêmement rares en exploitation réelle. Les groupes électrogènes, utilisés essentiellement lors de tests ou de coupures électriques, fonctionnent quelques dizaines d’heures par an, avec un niveau de risque comparable à celui d’hôpitaux ou de grands immeubles tertiaires.
Les nuisances sont elles aussi modérées et ponctuelles : bruit de ventilation, tests de groupes électrogènes, émissions atmosphériques limitées dans le temps. Rapportées à l’environnement existant du Bourget — bruit aérien, autoroutes A1 et A3, nœud ferroviaire, tissu industriel dense —, elles apparaissent marginales. Dans ce contexte, un data center constitue objectivement l’un des usages industriels les moins perturbateurs du secteur.
Le projet de data center du Bourget révèle un paradoxe français : un pays objectivement bien placé pour accueillir des infrastructures numériques stratégiques, aux nuisances limitées, mais où chaque implantation locale devient le réceptacle de peurs, de slogans et d’instrumentalisations.
Un paradoxe résumé par ce commentaire laissé sur le site de la pétition : « Ces data centers sont des aberrations écologiques, gros consommateurs d’électricité et d’eau, tout ça pour Google, Meta et autres, leurs moteurs de recherche et leurs algorithmes pour vous gaver d’informations peu rigoureuses, voire fausses, ou pire, tendancieuses. » Un propos lui-même nourri de fausses informations, qui se révèle ainsi ironiquement victime de ce qu’il prétend dénoncer.
Entre un avis environnemental poussé à l’extrême de la précaution et son exploitation politique maximale, le débat a glissé du terrain des faits vers celui de la peur. Si l’absence de preuve ne vaut pas preuve de l’absence, elle ne peut non plus justifier un soupçon permanent et une obstruction de fait. À force de voir du danger partout, le risque est de compromettre une ambition industrielle pourtant cohérente avec nos atouts énergétiques et, au nom d’un sentiment d’abandon territorial ressenti, voire entretenu, de priver un territoire des leviers économiques directs (emplois) et indirects (impôts) dont il a précisément besoin.
L’article Data centers : peurs sur l’avenir est apparu en premier sur Les Électrons Libres.

© BublikHaus - stock.adobe.com

Une récente étude japonaise a présenté un nouveau virus géant, l'ushikuvirus, qui pourrait éclairer l'origine des cellules eucaryotes, et donc améliorer la compréhension des origines du développement de la vie sur Terre.
© DOMINIQUE MARIOTTI / stock.adobe.com

Une étude révolutionnaire par des scientifiques norvégiens et allemands révèle que, durant l'Oligocène, la calotte glaciaire en Antarctique était bien moins dynamique qu'on ne le croyait jusqu'à présent.