A320 cloués au sol : pourquoi Airbus a préféré jouer la prudence face au grand danger des radiations solaires

© KIRILL KUDRYAVTSEV / AFP

© KIRILL KUDRYAVTSEV / AFP

© SINA SCHULDT / dpa Picture-Alliance via AFP

© Tyrone Siu / REUTERS
![]()
Un ancêtre géant des requins régnait sur les mers d'Australie il y a 115 millions d'années, soit bien plus tôt que dans les théories admises jusqu'à aujourd'hui par les scientifiques. C'est ce qu'a mis en évidence une étude parue en octobre 2025, publiée dans la revue Nature.
![]()
Le 23 novembre 2025, l'éruption du volcan éthiopien Hayli Gubbi, resté calme depuis 12 000 ans, a impressionné le monde. Les images vues du ciel, publiées par différentes agences de surveillance de la Terre, donnent une autre perspective du phénomène.
![]()
Une nouvelle étude parue le 24 novembre 2025 révèle que les chiens gardent des traces génétiques de loup dans leur ADN. Contrairement à ce que l'on pourrait croire, il ne s'agit pas d'ADN lupin ancestral, mais plutôt de la preuve d'une hybridation récente entre les deux espèces.
Recenser les pandas géants n’est déjà pas une sinécure. Ces animaux emblématiques sont pourtant gros, lents et confinés à une zone géographique bien délimitée des montagnes du centre de la Chine. Lors du dernier recensement, les autorités ont estimé leur population à 1 864 individus à l’état sauvage. Un chiffre précis… en apparence. Depuis, certains pandas sont nés, d’autres sont morts, et quelques-uns échappent toujours aux radars. Alors imaginez compter toutes les formes de vie sur Terre, du virus microscopique au séquoia géant. L’exercice devient vertigineux.
On l’a vu, dans un seul gramme de sol, on peut trouver jusqu’à un milliard de bactéries, réparties en plusieurs millions d’espèces. Compter la biodiversité n’a donc rien d’une simple opération de dénombrement : c’est un défi scientifique, technologique et quasi philosophique. C’est vouloir réaliser un puzzle dont on n’a qu’une toute petite partie des pièces.
Les scientifiques disposent d’un arsenal impressionnant de méthodes pour tenter d’y voir clair dans le foisonnement du vivant. Certaines reposent sur le bon vieux travail de terrain : observer, capturer, noter.
Les inventaires exhaustifs restent possibles pour quelques espèces emblématiques, comme le panda, d’autres grands mammifères ou encore certains arbres d’une parcelle forestière. Mais la plupart du temps, on doit se contenter d’échantillons représentatifs. On compte ce qu’il y a dans un carré de terrain (un quadrat) ou le long d’une ligne (un transect), puis on extrapole.
Pour les animaux particulièrement mobiles, on utilise la méthode « capture-marquage-recapture ». On attrape quelques individus, on les marque, puis on observe la proportion d’individus marqués lors d’une seconde capture. Une formule statistique permet alors d’estimer la population totale. Outre la mobilité, d’autres facteurs rendent ces approches de terrain compliquées : la taille (microbe ou baleine), le milieu (montagne, canopée, abysses, sol, air, désert, etc.), le mode de vie (diurne ou nocturne), la discrétion ou encore la taille de la population.
Heureusement, de nouvelles technologies viennent en renfort. Grâce à l’ADN environnemental, on peut aujourd’hui identifier les espèces présentes dans un lac en analysant simplement un échantillon d’eau. Des méthodes encore en développement sont même basées sur l’ADN retrouvé dans l’air ambiant. Chaque être vivant laisse en effet derrière lui une trace génétique, et le séquençage permet de dresser un inventaire invisible. Le barcoding génétique, lui, fonctionne comme un code-barres moléculaire : une courte séquence d’ADN suffit pour reconnaître une espèce. Quant aux drones et satellites, ils repèrent la déforestation ou les troupeaux d’éléphants. La bioacoustique, enfin, alliée à l’IA, analyse les sons de la nature pour identifier près de 15 000 espèces — oiseaux, amphibiens, mammifères, insectes — y compris sous l’eau comme sur les récifs coralliens.
Mais même armés des meilleurs outils, les scientifiques avancent à tâtons. Le suivi de la biodiversité souffre de biais profonds.
Le premier est un biais taxonomique. On mesure surtout ce qu’on connaît. Les mammifères, les oiseaux ou les poissons, visibles et charismatiques, sont abondamment suivis. Mais le reste du vivant — insectes, champignons, micro-organismes du sol — demeure largement dans l’ombre. Or, ces êtres invisibles constituent l’essentiel de la biodiversité et assurent le fonctionnement même des écosystèmes.
Ensuite s’ajoute un biais géographique. Les données se concentrent dans les régions où se trouvent les chercheurs, en Europe et en Amérique du Nord. À l’inverse, les véritables « hotspots » de biodiversité — forêts tropicales, récifs coralliens, zones humides d’Asie du Sud — sont souvent sous-échantillonnés, faute de moyens, d’accès ou de stabilité politique.
Le dernier biais est économique et médiatique. Surveiller un éléphant rapporte plus d’attention (et de financements) que d’étudier une colonie de fourmis. À l’arrivée, notre vision du vivant reste partielle, déséquilibrée, voire franchement déformée.
Mesurer la biodiversité, c’est vouloir résumer un monde infiniment complexe en quelques chiffres. Mais que mesure-t-on, au juste ? Le nombre d’espèces ? Leur abondance ? Leur répartition ? Tout cela à la fois ?
La difficulté tient aussi au fait qu’une large part du vivant nous échappe encore. On estime que seules 20 % des espèces ont été décrites, et personne ne sait combien il en reste à découvrir. À cela s’ajoute une évidence que l’on oublie souvent : les extinctions font partie de l’histoire naturelle. Environ 99 % des espèces ayant jamais vécu sur Terre ont disparu bien avant que l’humanité ne songe à compter quoi que ce soit.
Comparer les dynamiques entre groupes d’espèces relève donc du casse-tête. Une hausse des populations de loups en Europe compense-t-elle la disparition des orangs-outans en Indonésie ? Et si les mammifères se portent mieux, cela suffit-il à relativiser le déclin des amphibiens ?
Pour tenter de synthétiser un monde foisonnant, le Living Planet Index (LPI), piloté par le WWF et la Zoological Society of London, combine les données de près de 35 000 populations animales. C’est de là que provient notre fameux chiffre choc de –73 % depuis 1970. Le résultat est spectaculaire, mais il est souvent mal interprété. Il ne signifie pas que 73 % des vertébrés sauvages ont disparu, contrairement à ce que l’on lit régulièrement. Il signifie que, parmi les 35 000 populations suivies, la baisse moyenne — calculée sans tenir compte de leur taille respective — a été de 73 %. Une nuance essentielle.

Une étude a montré que la méthode de calcul du LPI est beaucoup plus sensible aux baisses qu’aux hausses. Cette asymétrie donne un poids disproportionné à un petit nombre de populations en déclin très prononcé, ce qui tire la tendance globale vers le bas. Quant au biais géographique déjà évoqué, il fait que l’indice reflète surtout les régions du monde où les données sont abondantes, pas nécessairement celles où la biodiversité est la plus riche. Dit autrement : on mesure ce que l’on sait compter, pas forcément ce qui compte le plus.
La communauté scientifique elle-même appelle désormais à manier le LPI avec prudence. Ce n’est pas le thermomètre de la biodiversité mondiale, mais un outil utile parmi d’autres, avec ses forces, ses angles morts et ses limites.
Créée en 1964, la Liste rouge de l’Union internationale pour la conservation de la nature (UICN) est aujourd’hui la référence mondiale pour évaluer le risque d’extinction des espèces. Elle recense plus de 170 000 espèces évaluées et les classe dans neuf catégories, de « Préoccupation mineure » à « Éteinte », selon un protocole standardisé reposant sur cinq critères officiels (A à E) : ampleur du déclin, taille de la population, aire de répartition, fragmentation de l’habitat et probabilité d’extinction modélisée. Ce cadre homogène, validé par des experts internationaux, est utilisé par les chercheurs, les ONG et les gouvernements pour dresser un aperçu global de l’état du vivant et orienter les priorités de conservation.
La Liste rouge reflète les connaissances disponibles, qui restent très inégales selon les groupes taxonomiques, et souffre des mêmes biais que les autres indicateurs. Sa catégorisation est aussi volontairement prudente. Une species peut entrer rapidement dans une catégorie menacée dès qu’un seuil de déclin est franchi, mais en sortir exige des preuves robustes d’amélioration durable, mesurées sur dix ans ou trois générations. À cela s’ajoute un effet d’attention : les espèces en progression sont souvent moins suivies que celles en difficulté, ce qui peut retarder la validation de leur amélioration.
Compter la biodiversité, ce n’est pas seulement accumuler des données : c’est tenter de comprendre les équilibres du vivant et d’en suivre les transformations. Les biais sont réels, les incertitudes nombreuses, mais ces travaux restent indispensables pour éclairer les décisions publiques, orienter la conservation et éviter que l’action écologique ne s’engage sur de fausses pistes.
En matière de biodiversité, les chiffres sont des balises, pas des certitudes. Ils exigent de la méthode, de la prudence et une véritable humilité devant la complexité du vivant.
L’article Compter le vivant : une mission (presque) impossible est apparu en premier sur Les Électrons Libres.
![]()
Une équipe internationale de scientifiques a réfuté toutes les hypothèses avancées jusqu'à présent sur la diversification des races canines. Non, nos compagnons à quatre pattes ne se sont pas surtout diversifiés depuis 200 ans, mais bien depuis des milliers d'années.
![]()
Dans les Alpes françaises, quelques poignées de terre suffisent aux scientifiques pour cartographier la vie grâce à l’ADN environnemental. Une technologie centrale dans le cadre de Dynabiod, un programme de recherche de grande ampleur confié au CNRS pour surveiller et prédire l’état de la biodiversité, et plus particulièrement des plantes et des invertébrés, dont le démarrage est prévu en mars 2026.
Cerrillos, petite ville chilienne de 88 000 habitants, devait accueillir un nouveau data center de Google. Dans son livre à succès consacré à Sam Altman et au système OpenAI, Karen Hao décrit une installation dont les besoins en eau dépasseraient mille fois ceux de la commune. De quoi s’imaginer un véritable monstre technologique à la soif inextinguible. Le chiffre était frappant… trop, sans doute.
Car tout ceci s’est révélé être une énorme erreur factuelle, qui fait partir la démonstration à vau-l’eau et basculer Karen Hao — pourtant diplômée d’ingénierie du MIT — du côté obscur de l’information scientifique.
Dans un contexte saturé de chiffres alarmistes sur l’IA, ce ratio improbable a pu paraître crédible à beaucoup. Mais pas à Andy Masley, membre du courant de l’Effective Altruism, dont la démarche repose strictement sur les faits et les preuves.
Un calcul rapide montre en effet que ce ratio impliquerait que chaque habitant n’utilise que 0,2 litre d’eau par jour — une absurdité, près de 900 fois moins que la moyenne chilienne. En consultant les rapports de la SMAPA (service municipal de l’eau de Maipú/Cerrillos), Masley découvre que les chiffres présentés comme des « litres » dans la réponse officielle obtenue par Hao sont en réalité des mètres cubes. Une erreur d’unité qui change la comparaison d’un facteur 1 000.
Karen Hao a reconnu l’erreur et admis qu’un contrôle de plausibilité aurait suffi à la repérer. Elle a aussi annoncé qu’elle mettrait à jour son livre une fois la confirmation officielle reçue, tout en maintenant ses critiques sur l’implantation de data centers en zones de stress hydrique.
Mais ce n’est pas tout. Masley lui reproche aussi d’avoir fondé sa comparaison sur les valeurs maximales de prélèvement autorisées, alors que la consommation réelle se situe plutôt autour de 20 % de ce plafond. Une autre source majeure de surestimation.
Enfin, il pointe la confusion fréquente entre prélèvements et consommation nette : les volumes cités correspondent à de l’eau prélevée — restituée à plus de 90 % — et non à la part réellement consommée. Une nuance pourtant essentielle pour comprendre l’impact réel d’un data center.
Ces trois éléments — l’erreur d’unité, la comparaison à la capacité maximale autorisée et la confusion entre prélèvements et consommation nette — modifient radicalement l’interprétation du cas de Cerrillos.
Rien d’anecdotique. La circulation mondiale de chiffres spectaculaires mais faux finit par façonner une image déformée de l’IA, présentée comme une industrie prédatrice. Ce décalage entre perception et réalité alimente la défiance du public et complique tout débat rationnel autour de ces infrastructures.
S’il est légitime de se poser des questions sur l’impact environnemental des data centers, encore faut-il poser correctement les enjeux. Le volume total d’eau consommée, pris isolément, n’a aucune signification. Ce qui compte, c’est où et quand l’eau est prélevée. Un captage dans un grand cours d’eau en période de crue n’a aucun impact, alors que puiser de l’eau potable dans une zone sous stress hydrique peut devenir problématique.
À Cerrillos, Google a mis en pause son projet de 200 millions de dollars après qu’un tribunal environnemental chilien a partiellement révoqué son autorisation et demandé une réévaluation intégrant la vulnérabilité de l’aquifère local et les effets du changement climatique.
L’entreprise a annoncé repartir « à zéro », en adoptant un refroidissement par air, sans aucun prélèvement dans les puits environnants. Une solution plus coûteuse, mais appelée à devenir la norme partout où l’usage de l’eau fait l’objet d’une forte compétition.
L’article “L’empire de l’IA”, la contre-attaque qui fait plouf ! est apparu en premier sur Les Électrons Libres.
Nous parlons du climat comme d’une courbe globale qui s’élève et que l’humanité devrait stabiliser. Mais les civilisations ne vivent pas dans les moyennes planétaires : elles vivent dans des régions capables de basculer brutalement, parfois sans que la température globale n’enregistre grand-chose. Il y a douze mille ans, à peine un instant dans l’histoire de la planète, l’hémisphère Nord a plongé dans un changement brutal qui a redessiné les paysages et les modes de vie humains. Comprendre cet épisode oublié pourrait bien être essentiel pour penser la résilience du XXIᵉ siècle.
Depuis des années, le débat climatique s’organise autour d’un récit désormais familier : la Terre se réchauffe à un rythme inédit par rapport aux millions d’années précédentes, et ce réchauffement est principalement dû aux activités humaines. Cette affirmation est solide, étayée par les rapports du GIEC et abondamment commentée. Mais elle occupe tellement de place qu’elle finit par constituer presque tout le récit climatique contemporain. Or la manière dont les sociétés humaines perçoivent et subissent les transformations du climat est bien plus complexe. Les civilisations ne vivent pas dans la moyenne globale, mais dans des régions où l’équilibre peut se rompre en quelques années.
Parmi les épisodes qui illustrent le mieux cette réalité figure le Dryas récent, un événement climatiquement abrupt, récent au sens géologique et pourtant largement absent du débat public. Il s’est produit il y a environ douze mille ans, un battement de cils à l’échelle de la Terre, trop court pour laisser une marque profonde dans les archives planétaires, mais suffisamment long pour transformer durablement l’hémisphère Nord. À ce moment-là, le monde sortait de la dernière glaciation et se dirigeait vers un climat plus chaud et plus stable. Puis, soudainement, l’hémisphère Nord a basculé dans un refroidissement rapide : plusieurs degrés perdus en l’espace de quelques années à quelques décennies, entre deux et six en Europe, parfois jusqu’à dix au Groenland. En termes climatiques, c’est l’équivalent d’un déplacement de plusieurs centaines de kilomètres de latitude, mais vécu à l’échelle d’une vie humaine.
Ce basculement rapide n’a presque pas modifié la température moyenne globale. Si nous avions disposé des outils de mesure actuels, la courbe globale n’aurait rien laissé deviner, et pourtant les écosystèmes, les migrations et les sociétés humaines ont été profondément affectés. Cette dissociation entre la stabilité globale et l’instabilité régionale constitue un enseignement majeur : un climat peut paraître stable à l’échelle planétaire tout en étant chaotique là où vivent les civilisations.
Mais c’est la fin du Dryas récent qui illustre le mieux la violence potentielle des transitions climatiques. Après environ 1 200 ans de froid, l’hémisphère Nord a connu un réchauffement si rapide qu’il dépasse tout ce que l’humanité contemporaine considère comme un scénario extrême : plusieurs degrés gagnés en quelques années, ou quelques décennies au maximum. Une accélération fulgurante qui marque le début de l’Holocène, la période tempérée durant laquelle toutes les civilisations historiques se développeront. Cette transition — un refroidissement brutal suivi d’un réchauffement encore plus rapide — montre que les changements de seuil peuvent survenir de manière explosive et que les régions peuvent basculer presque instantanément par rapport aux rythmes géologiques.
Les conséquences de ce double mouvement ont été considérables. La mégafaune a décliné, les biomes se sont reconfigurés et certaines sociétés humaines ont disparu ou se sont déplacées. L’agriculture elle-même émerge précisément à la fin de cette période. Non pas dans un climat stable, mais au contraire dans un monde en pleine réorganisation. Beaucoup d’historiens y voient la trace d’une adaptation forcée : lorsque l’environnement devient trop imprévisible, les humains cherchent à en reprendre le contrôle.
Ce récit, pourtant central pour comprendre notre rapport au climat, est presque absent de la discussion contemporaine. Nous nous focalisons sur la variation de la température globale et sur son origine anthropique, comme si l’ensemble du risque climatique se concentrait dans une seule courbe. Or l’histoire récente de la Terre montre exactement l’inverse : les bouleversements susceptibles de transformer les sociétés humaines peuvent être régionaux, rapides et invisibles dans la moyenne globale. C’est là un paradoxe dérangeant : nous surveillons l’indicateur qui monte le plus régulièrement, mais pas nécessairement celui qui menace le plus concrètement nos infrastructures, nos ressources et notre organisation sociale.
Sommes-nous mieux préparés qu’il y a douze mille ans ? Sur le plan technologique, sans aucun doute. Mais notre sophistication nous rend aussi vulnérables : une agriculture dépendante de chaînes logistiques mondiales, une énergie centralisée, des systèmes urbains fragiles face aux perturbations soudaines et une interdépendance généralisée qui transforme des chocs locaux en crises globales. Nous sommes puissants, mais notre puissance repose sur une complexité qui, en cas de perturbation rapide, pourrait devenir notre talon d’Achille.
C’est précisément ici qu’il devient nécessaire d’admettre l’évidence : la question n’est pas de savoir si un changement rapide du climat est possible, mais quand ? Reconnaître que ce type d’épisode peut survenir, indépendamment ou en combinaison avec le réchauffement actuel, est une condition préalable à toute réflexion sérieuse. Il ne s’agit pas d’imaginer des scénarios catastrophistes, mais d’accepter que notre monde peut être confronté à des ruptures soudaines et de réfléchir à la manière de s’y préparer et de s’y adapter. Cela implique des infrastructures distribuées, une agriculture capable d’encaisser des variations fortes, des systèmes d’énergie autonomes, des mécanismes de stockage durable du savoir et une capacité institutionnelle à absorber l’imprévu. La technologie n’est pas un luxe dans cette perspective : elle devient une assurance-vie collective.
Le Dryas récent ne nous dit pas que l’histoire climatique va se répéter. Il nous dit que les ruptures soudaines peuvent exister, qu’elles peuvent être rapides, régionales, intenses et que la moyenne globale n’est pas, à elle seule, un bon indicateur du danger pour les sociétés humaines. Comprendre cela n’invite ni au fatalisme ni à la peur ; cela invite à élargir notre regard, à sortir de la vision étroite d’un climat résumé à une courbe globale et à envisager notre avenir avec une ambition plus vaste : celle de bâtir une civilisation capable d’encaisser l’inattendu.
L’article Climat : bâtir un monde prêt pour l’inattendu est apparu en premier sur Les Électrons Libres.
La COP 30 se déroule à Belém, en Amazonie, près de dix ans après les accords de Paris. Pour beaucoup, ces sommets climatiques ne sont que des exercices de communication, sans impact réel sur la trajectoire d’une humanité toujours plus dépendante des énergies fossiles. Les émissions mondiales de CO₂ n’ont jamais été aussi élevées, et les records de chaleur s’enchaînent. Pourtant, derrière ce constat alarmant, des signes tangibles d’espoir émergent. Non pas parce que la situation est bonne, mais parce qu’elle aurait pu être bien pire. Et surtout parce que les mécanismes de la transition énergétique, souvent invisibles, sont déjà à l’œuvre.
Le principal obstacle à l’optimisme est un biais cognitif : nous n’avons pas de « planète B » témoin. Il est impossible de voir ce qui se serait passé si nous n’avions rien fait. Le verre à moitié vide – la hausse continue des émissions – occulte le verre à moitié plein : la catastrophe que nous avons évitée. Pourtant, des chercheurs de l’Agence internationale de l’énergie (AIE) ont tenté de modéliser ce scénario. Leur conclusion : grâce aux politiques climatiques mises en place depuis 2015, les émissions mondiales de CO₂ sont 40 % inférieures à ce qu’elles auraient été sans ces efforts. Loin d’être un échec, les accords de Paris ont enclenché un ralentissement spectaculaire de la catastrophe annoncée, prouvant que l’action collective, les technologies vertes et l’innovation ont un impact massif.

Mais si les technologies vertes explosent, pourquoi les émissions globales ne baissent-elles pas ? C’est la thèse de « l’empilement », défendue notamment par l’historien Jean-Baptiste Fressoz : les nouvelles énergies (solaire, éolien) ne remplaceraient pas les anciennes (charbon, pétrole), elles ne feraient que s’y ajouter pour satisfaire un appétit énergétique insatiable.
Cette théorie est séduisante mais fausse, car elle ignore la dynamique du développement humain. Les pays très pauvres utilisent majoritairement des énergies « renouvelables » : bois issu de la déforestation, résidus agricoles, bouses de vache séchées. Ces sources sont désastreuses pour les écosystèmes locaux et la santé (pollution de l’air intérieur). Pour ces populations, passer aux énergies fossiles (gaz, charbon) n’est pas un problème : c’est une solution, un accélérateur massif de niveau de vie, de santé et d’éducation.
C’est là qu’intervient la fameuse « courbe de Kuznets » environnementale : les pays en développement consomment logiquement de plus en plus d’énergies fossiles, faisant monter les émissions globales. Mais seulement jusqu’à un certain point. Les pays riches, après avoir atteint un pic d’émissions, voient celles-ci diminuer, même en tenant compte des délocalisations, à mesure que leur prospérité leur permet d’investir dans des technologies plus propres.

Or, jusqu’à présent, environ 80 % de la population mondiale se situait à gauche de la courbe de Kuznets : l’augmentation de leur niveau de vie se traduisait par une hausse des émissions compensant largement la baisse chez les 20 % à droite de la courbe. D’où la hausse mondiale des émissions.
La bonne nouvelle, c’est que des masses démographiques colossales s’apprêtent à franchir ce point d’inflexion. L’exemple le plus frappant est la Chine. Longtemps « usine du monde » alimentée au charbon, le pays opère un virage spectaculaire. Les voitures électriques y représentent désormais 50 % des parts de marché, et le pays installe plus de panneaux solaires et d’éoliennes que le reste du monde réuni, dépassant largement ses nouvelles constructions de centrales à charbon. Parce que des géants comme la Chine et bientôt l’Inde atteignent ce point d’inflexion, le plafonnement des émissions mondiales n’est plus une hypothèse lointaine : il est imminent. La deuxième bonne nouvelle est que beaucoup de pays pauvres vont pouvoir, grâce à la baisse spectaculaire des prix des technologies vertes, sauter des étapes fossiles de développement, c’est-à-dire adopter directement les voitures électriques et les renouvelables sans passer par les voitures thermiques et les centrales à charbon.

Reste l’argument politique. Un climatosceptique comme Donald Trump à la Maison-Blanche ne risque-t-il pas de tout anéantir ? Pour le comprendre, regardons le Texas. Cet État nous apprend deux choses cruciales.
D’abord, que le fait d’être victime d’événements climatiques extrêmes (comme le blizzard dévastateur de 2021) n’empêche pas de voter massivement pour des candidats niant le problème. Plus globalement, lorsqu’il s’agit de voter ou de payer, l’écologie reste rarement la priorité numéro un du citoyen. La décroissance, si elle vend beaucoup de papier, rapporte peu de bulletins.
Ensuite, et c’est la leçon la plus importante : l’indifférence à l’environnement n’empêche pas d’être un champion de la transition. Le Texas, républicain et pétrolier, est l’État qui installe le plus de panneaux solaires aux États-Unis, devant la Californie démocrate. Pourquoi ? Non pas par idéologie, mais parce que c’est rentable. Trump, pas plus qu’un autre, ne peut lutter contre des forces économiques et technologiques devenues inarrêtables. Le marché et l’innovation sont plus puissants que la politique.
Le problème du réchauffement climatique, s’il est complexe, n’a rien de magique. Il peut être résumé à un problème d’ingénierie : il est causé par nos émissions de CO₂. Ces émissions résultent de la combustion des énergies fossiles (gaz naturel, pétrole, charbon). Cette combustion alimente des milliards de machines (voitures, chaudières, usines). Ces machines sont largement inefficaces et ont une durée de vie limitée.
La solution est donc simple dans son principe : accélérer le remplacement de ces machines thermiques par des machines électriques plus efficaces. La plupart de ces machines vertes (voitures électriques, pompes à chaleur, éoliennes, panneaux photovoltaïques) sont déjà disponibles, matures et compétitives. Pour accélérer la bascule, il faut les rendre encore moins chères (via l’industrialisation et des mécanismes de type taxe carbone) et innover pour mettre sur le marché les quelques technologies qui nous manquent (acier vert, ciment décarboné, etc.).
Le pessimisme qui entoure la COP 30, s’il est compréhensible, est un luxe que nous ne pouvons plus nous permettre. Il repose surtout sur une lecture statique d’un monde en pleine mutation. La véritable histoire de cette décennie n’est pas celle de notre inaction, mais celle d’un basculement technologique et économique d’une rapidité sans précédent. La transition énergétique n’est pas un vœu pieux : c’est un processus industriel et économique déjà enclenché, largement indépendant des soubresauts politiques. Comme le montrent l’exemple du Texas ou de la Chine, le progrès n’attend pas qu’on lui donne la permission. La question n’est donc plus de savoir si nous allons réussir à décarboner, mais à quelle vitesse nous allons y parvenir. Et dans l’éventualité où nous irions trop lentement, nous pourrons toujours mobiliser certaines techniques de géo-ingénierie pour éviter les effets les plus délétères du réchauffement climatique. Mais cela fera l’objet d’un prochain épisode.
L’article COP 30 : Et si la transition énergétique était déjà en marche ? est apparu en premier sur Les Électrons Libres.
La biodiversité n’est pas la nature, elle en est la mesure, la traduction scientifique et comptable. Mais dans le débat public, les deux se confondent. Définir, classer, mesurer : voilà pour la science. Comprendre pourquoi nous protégeons le vivant relève d’un autre registre, celui de la philosophie, qui conceptualise autant qu’elle questionne et tente de rendre consciente notre part de subjectivité. Ce chapitre quitte le terrain du microscope pour celui du miroir. Alors, que cherchons-nous vraiment dans la nature, et qu’y trouvons-nous ?
La nature. Du latin natura, qui signifie à la fois “l’action de faire naître”, “l’état naturel d’une chose” et “l’ordre des choses”. Un mot qui désigne tout ensemble ce qui advient et ce qui est. Cette polysémie, on la retrouve dans notre relation à la nature. Chez Rousseau (Jean-Jacques), elle est pure et bonne ; chez Darwin, elle lutte et s’adapte ; chez Rousseau (Sandrine), elle souffre et réclame justice. Elle cristallise tour à tour notre nostalgie d’un paradis perdu et notre peur du monde que nous fabriquons. Elle est à la fois refuge et menace. Le mouvement romantique a célébré sa beauté sublime, à la fois apaisante et terrifiante. Aujourd’hui encore, cette ambivalence nous poursuit. Nous la divinisons tout en redoutant ses colères.
À mesure que les anciennes religions s’effacent, la nature tend à prendre leur place. Elle a ses prêtres, ses dogmes, ses rituels, ses péchés — polluer, consommer, croître. Ses apôtres parlent d’équilibre, de pureté, de “réparation du monde” — vocabulaire qui relève moins de la science que de la rédemption. Cette sacralisation du vivant révèle sans doute un besoin collectif de transcendance. Après avoir désenchanté le monde, nous l’avons re-sacralisé sous la forme du climat, du vivant ou de Gaïa.
Clément Rosset, philosophe du réel, rappelait pourtant dans L’Anti-nature que “l’idée de nature n’exprime jamais que les goûts et les préférences de celui qui l’invoque”. Elle ne décrit pas le réel, elle le juge. Elle devient un écran qui nous en éloigne. Dit autrement : si la nature devient un culte, peut-on encore la penser lucidement ?
Protéger suppose un choix. Ce que l’on estime digne de l’être, et ce que l’on accepte de laisser disparaître. Mais sur quoi se fonde ce choix ? Sur l’émotion, sur la beauté, sur l’utilité ou sur le droit ? La frontière est floue. La loi tente d’en fixer les contours, mais elle reflète souvent les préférences morales et culturelles d’une époque plus que des critères écologiques. Nous sauvons les espèces qui nous touchent — le panda, la baleine, l’abeille — mais pas la vipère, le moustique ou le virus. Entre utilité et compassion, entre beauté et empathie, nous dessinons une hiérarchie sentimentale du vivant.
Peter Singer, figure de l’éthique animale, proposait d’étendre notre considération morale à tout être capable de souffrir. Sa vision est radicale. La valeur d’un être ne tiendrait plus à son intelligence ou à sa beauté, mais à sa sensibilité. Mais jusqu’où aller ? Devons-nous plaindre la punaise de lit ou le parasite ? Et que devient la responsabilité humaine si toute intervention devient suspecte ? Le risque est de confondre le respect du vivant avec une culpabilité universelle.

Entre l’utilitarisme, qui, selon Bentham, vise le plus grand bonheur du plus grand nombre, et la morale selon laquelle chaque être vivant compterait également, où tracer la limite ?
Avant de se rêver protecteur du vivant, l’homme a dû l’affronter. La nature n’était pas un havre, mais un champ de forces hostiles — le froid, la faim, les prédateurs, la maladie. Pendant des millénaires, survivre signifiait résister à la nature, la détourner, la dompter. C’est en la combattant que nous avons appris à la connaître, et c’est en la transformant que nous sommes devenus ce que nous sommes. Le feu, l’agriculture, l’abri, l’outil, la médecine furent autant de réponses à une hostilité primitive. Ce que nous appelons aujourd’hui “domination” fut d’abord une condition de survie.
Mais cette conquête a inversé la relation. À force de se protéger de la nature, l’homme a fini par se croire extérieur à elle. « L’humain, écrivait Merleau-Ponty, est un être pour qui tout est fabriqué et culturel. » Mais s’il est à la fois nature et culture, peut-on vraiment opposer l’homme au monde qu’il transforme ? Nos villes, nos machines, nos champs, nos usines ne sont-ils pas eux aussi des écosystèmes ? Si l’homme fait partie de la nature, ses créations — même artificielles — ne devraient-elles pas être vues comme des prolongements du vivant, au même titre que la toile de l’araignée ou le barrage du castor ?
Créer, transformer, inventer : ce sont peut-être aussi des fonctions vitales de l’humanité, non des fautes contre la nature, mais l’expression de sa propre vitalité. L’homme modifie la nature parce que c’est sa manière d’en faire partie — non de s’en extraire. Tout comme le castor et les fourmis. Mais plus nous “travaillons” sur le vivant, plus nous contrarions — ou stimulons — sa résistance. Comme le rappelait le médecin Xavier Bichat, « la vie est l’ensemble des fonctions qui résistent à la mort ».
L’agriculture, la sélection, la génétique, la déforestation, la reforestation : tout acte humain est une expérience sur un organisme planétaire dont nous faisons partie.
Depuis quelques années, certains fleuves ou forêts se voient reconnaître une “personnalité juridique”. Derrière ces gestes symboliques se cache un besoin de réenchanter le lien entre droit et nature. Mais la nature lit-elle nos constitutions ? En attribuant des droits à la Terre, ne reconnaissons-nous pas, au fond, qu’elle n’en a que parce que nous lui en conférons ? Et, ce faisant, ne réduisons-nous pas la portée même de ce que nous prétendons sanctuariser ?
La nature n’a pas de morale. Elle crée, détruit, recommence. C’est nous qui y projetons la nôtre. Spinoza l’avait déjà vu : une même chose peut être bonne, mauvaise ou indifférente selon le point de vue. Un feu détruit une forêt et nourrit le sol ; un barrage inonde un marais et crée un lac plein d’oiseaux. Peut-on dire où se situe le bien absolu ? L’éthique écologique doit peut-être accepter cette relativité : toute action a des effets contraires, toute protection a un coût.
Hannah Arendt rappelait que l’être humain est hanté par deux angoisses : l’imprévisibilité et l’irréversibilité. Or la biodiversité cristallise les deux. Nous ne savons pas toujours où mènent nos interventions, et nous ne pouvons revenir en arrière. Agir malgré l’incertitude, n’est-ce pas là, finalement, le vrai défi ?
Nous rêvons souvent d’une nature originelle, intacte, antérieure à l’homme. Mais cette nature-là n’a jamais existé. La vie n’a cessé de se transformer, de conquérir, d’exclure ; les extinctions massives l’ont toujours façonnée. Ce que nous appelons “crise de la biodiversité” n’est pas la fin du vivant, mais la mise en crise de notre propre rapport à lui.
Le “péché” écologique consiste peut-être à vouloir transformer nos croyances collectives — autrement dit notre culture — en lois. Certaines de ces croyances reposent sans doute sur des intuitions justes. Il faut cependant qu’elles passent par le tamis de la science avant de devenir des normes.
La nature était là bien avant nous, et elle sera encore là après nous. Elle n’a pas besoin de notre secours pour survivre, mais nous avons besoin d’elle pour vivre. Sauver la nature, en réalité, c’est préserver les conditions de notre propre existence : les sols, l’eau, l’air, les équilibres et toute la machinerie complexe dont nous dépendons. Protéger le vivant n’est donc pas un geste de charité, mais une forme d’instinct de conservation — une lucidité plutôt qu’une générosité. C’est considérer la nature comme un sujet avec lequel il nous faut coopérer, pour la vie et la durabilité de l’espèce. Des espèces.
Entre le mythe du jardin d’Éden et la fuite en avant, il existe une voie plus raisonnée, plus raisonnable : celle d’une humanité consciente de sa puissance, mais aussi de ses limites. Ni démiurge, ni créature, ni pénitent, ni prédateur. Non pas maître du monde, mais son hôte ingénieux et lucide.
Cet article doit beaucoup aux apports philosophiques et à la relecture attentive de Lucille Garric, fondatrice de Tous Philosophes.
Épisode précédent : L’usine invisible qui fait tourner le monde
L’article L’illusion du paradis perdu est apparu en premier sur Les Électrons Libres.
L’homme modifie la nature depuis qu’il cultive. Bien avant les laboratoires modernes, il sélectionnait les plantes, croisait les variétés, domestiquait le vivant pour ses besoins. La carotte orange, la banane sans pépins, le maïs résistant aux maladies, ces aliments du quotidien portent l’empreinte de siècles de sélection artificielle. Ces manipulations restaient cependant limitées par les barrières biologiques naturelles. On hybridait des blés entre eux, jamais avec un tournesol ou une bactérie.
Tout a changé dans les années 1980 avec la découverte du code génétique. Les gènes sont devenus des séquences manipulables, comme des phrases dans une langue universelle. La transgénèse permet d’insérer précisément l’un de ceux provenant d’une espèce dans une autre. Par exemple, une bactérie pour protéger une aubergine des insectes, un tournesol pour rendre le blé tolérant à la sécheresse, ou la jonquille pour enrichir le riz en vitamine A et combattre la malnutrition infantile. Cette technique accélère une évolution naturelle exigeant des millénaires pour produire un croisement. Elle n’est pas employée sans de multiples précautions et contrôles. Chaque OGM subit en moyenne treize ans d’évaluations rigoureuses avant autorisation, loin des caricatures de « plantes Frankenstein » mises sur le marché sans recul.
Pourtant, l’Europe reste rétive, tout en important paradoxalement des tonnes de produits génétiquement modifiés pour nourrir son bétail, en interdisant à ses agriculteurs d’en cultiver.
Un symptôme des ravages du pouvoir d’une opinion qui aime se faire peur et s’attarde sur des images alarmistes. L’étude de Gilles-Éric Séralini, publiée en 2012 dans Food and Chemical Toxicology, illustre parfaitement ce phénomène, en plus d’avoir fait beaucoup de mal. Montée en épingle par les médias, elle montrait des rats développant des tumeurs après avoir consommé du maïs OGM NK603 et du Roundup. Les photos choc ont fait le tour du monde, alimentant les peurs. Mais la méthodologie était défaillante : échantillon trop petit, souches de rats prédisposées aux cancers, absence de contrôle statistique adéquat. La revue l’a rétractée en 2013. Séralini l’a republiée ailleurs sans corrections majeures, et des centaines d’analyses ultérieures ont invalidé ses conclusions, menées par deux cent quatre-vingts institutions.
Aucune d’entre elles n’a détecté le moindre risque sanitaire spécifique aux OGM. Pas d’allergies épidémiques, pas de différences chez les consommateurs. Un soja potentiellement allergène identifié dans les années 1990 n’a même pas quitté les laboratoires.
La « contamination » génétique effraie aussi, mais sans fondements solides. En vingt ans, moins de quatre cents incidents mineurs, souvent dus à des erreurs de tri ou de semences, ont été observés. Invalidant un fantasme à la vie dure : avec des centaines de millions d’hectares cultivés, aucune « superplante » invasive n’a émergé. Les gènes introduits se diluent naturellement s’ils ne confèrent pas d’avantage sélectif. Quant à l’idée que manger un OGM altère notre ADN, elle relève du mythe. L’estomac digère les gènes comme n’importe quelle molécule ; il ne les intègre pas. Sinon, nous serions tous des hybrides de poulet et de pain. Quant au mythe des semences stériles qui a alimenté les médias, si elles ont bien existé, elles n’ont jamais dépassé le stade des brevets. Un moratoire international les interdit depuis 2000. Aucune semence OGM commercialisée aujourd’hui n’est stérile.

Les bénéfices, eux, sont concrets. Les OGM ont réduit l’usage mondial de pesticides de 37 %, préservé les sols, stabilisé les rendements. Entre 1996 et 2018, ils ont généré 186 milliards de dollars de revenus supplémentaires et évité 27 milliards de kilos d’émissions de CO₂. Au Bangladesh, l’aubergine Bt, introduite en 2014, a divisé par dix les pulvérisations contre le foreur du fruit (une chenille qui creuse de petits tunnels dans les plantes pour s’en nourrir). Les paysans, autrefois empoisonnés par des applications quotidiennes d’intrants à mains nues, récoltent plus sainement. En Inde, leurs bénéfices ont augmenté de 1 200 roupies par hectare et par an. À l’opposé de la fake news colportée par Vandana Shiva, qui décrivait des cultivateurs poussés au suicide par le prix des semences. En Argentine, le blé HB4, tolérant à la sécheresse grâce à un gène de tournesol, sauve les cultures dans les plaines arides – une innovation portée par l’entreprise française Florimond Desprez, exportée pendant que l’Europe hésite. Aux États-Unis, la pomme de terre Innate réduit le gaspillage en noircissant moins. En Afrique, le maïs TELA résiste à la légionnaire d’automne, sécurisant l’alimentation de millions de gens. Les exemples de ce type sont légion.
Cet ensemble ne relève pas de la promesse, mais bien des faits. Entre 1996 et 2018, les cultures biotechnologiques ont généré 186 milliards de dollars de revenus supplémentaires et évité 27 milliards de kilos de CO₂.
Pendant ce temps, l’Europe, elle, cultive la prudence avec excès. Nous consommons déjà des variétés issues de mutagenèse chimique ou par irradiation, créées dans les années 1950 avec des milliers de mutations aléatoires non caractérisées, y compris en bio. Pourtant, la Cour de justice européenne freine désormais le progrès. En 2018, elle a classé les éditions génétiques comme CRISPR au même rang que les OGM transgéniques. Or cette révolution, inventée en Europe par la Française Emmanuelle Charpentier et l’Américaine Jennifer Doudna, permet, grâce à des « ciseaux moléculaires » ultra-précis, de corriger une lettre fautive dans l’ADN d’une plante, justement sans y ajouter de gène étranger. La technique profite aujourd’hui à l’Australie, au Brésil, au Japon ou au Royaume-Uni, mais pas à l’Europe, même si des discussions sont en cours.
La Commission a pourtant investi 200 millions d’euros entre 2001 et 2010 pour évaluer ces technologies ; cinq cents groupes d’experts ont conclu unanimement à l’absence de risques supérieurs aux méthodes conventionnelles. Mais les politiques ont ignoré ces rapports, ce qui n’est pas sans conséquences sur notre souveraineté alimentaire. Nos laboratoires innovent, mais nos règles repoussent les chercheurs. Paradoxe : le Pacte vert de l’UE vise à réduire l’usage des pesticides de moitié d’ici 2030, mais refuse les outils pour y parvenir. Nous importons du soja OGM brésilien pour nos élevages tout en interdisant sa culture locale. Ce n’est plus de la précaution, c’est de l’hypocrisie.
Les OGM sont le domaine agricole le plus scruté au monde. Ils diminuent les intrants chimiques, aident les paysans vulnérables, atténuent le changement climatique. Ignorer ces réalités au profit de la peur mène à la pénurie. Il est temps de choisir la raison : cultiver chez nous ce que nous importons, ou continuer à jouer les vertueux en délocalisant nos problèmes.
L’article OGM : 30 ans d’aveuglement européen est apparu en premier sur Les Électrons Libres.
Contrairement à la plupart des pays riches, les États-Unis n’ont, à ce jour, pas un seul kilomètre de ligne ferroviaire à grande vitesse.
Il existe bien quelques services comme Acela (Northeast Corridor, entre Washington DC et Boston) et Brightline (Floride, entre Miami et Orlando), services qui sont d’ailleurs des succès commerciaux. Mais leur vitesse de pointe de 240 km/h (Acela) et de 200 km/h (Brightline) ne permettent pas de les catégoriser dans la grande vitesse ferroviaire, que l’on fait généralement débuter à 250 km/h. Il n’y a guère que le Canada qui fasse pire, où il n’y a même pas de service optimisé similaire à Acela ou Brightline.


Figure 1 – Acela (à gauche) et Brightline (à droite). Source : Apple Maps.
Pour autant, des projets de lignes à grande vitesse existent. Certaines lignes sont même en construction, comme la problématique CASHR (California High Speed Rail) en Californie. Néanmoins, ces projets ne permettent pas de combler l’important retard pris au cours des dernières décennies. Et le désastre politique, logistique et budgétaire qu’est la CASHR n’incite pas à l’optimisme.

Pour faire le point sur les projets les plus avancés, je vous recommande cet article de Théo Laubry publié dans Slate. L’article aborde plus spécifiquement la ligne Brightline West, dont la construction vient de commencer entre Los Angeles et Las Vegas sur le modèle d’un partenariat public-privé. Située entre la Californie et le Nevada, cette ligne a de bien meilleures chances d’aboutir, et sans exploser son budget, que la CASHR.
Slate.frThéo Laubry
Théo l’écrit dans son article : l’état du ferroviaire à grande vitesse n’est que le reflet de l’état généralement mauvais du ferroviaire passager aux États-Unis. Comme le montre Figure 3, les États-Unis ont un important réseau ferré.

Ce réseau sert principalement au transport de fret. Comme le montre la Figure 4, le fret ferroviaire a une part modale beaucoup plus importante aux États-Unis qu’en Europe.

À quelques exceptions près, le ferroviaire passager est particulièrement peu développé aux États-Unis. Une illustration : la ligne du Pacific Surfliner n’offre que 10 allers-retours par jour entre Los Angeles (13.2 millions d’habitants dans la métropole) et San Diego (3.2 millions d’habitants dans la métropole), deux métropoles distantes de seulement 200 kilomètres. Le trajet dure environ 3 heures en train, contre environ 2 heures en voiture. La voie n’est pas électrifiée, et est même à voie unique sur une partie substantielle du trajet. Et pourtant, le Pacific Surfliner est le seconde ligne la plus empruntée du pays en nombre de voyageurs. C’est dire la faiblesse du ferroviaire passager.

L’administration de Joe Biden s’est engagée à revitaliser le transport ferroviaire de passagers. Mais le retard pris est important. Pour le combler, l’effort devra être maintenu sur une longue période. Il n’est pas certain que le climat politique chaotique des États-Unis permette un tel effort de long terme.
Carbon Brief a publié un article très complet, qui contient de nombreuses visualisations de données des températures globales. Elles montrent que 2024 a d'ores et déjà battu de nombreux records.
Comme le montre la Figure 1, les quatre premiers mois de 2024 sont ceux ayant connu l'anomalie de température la plus importante depuis les années 1940. L'anomalie de température est l'écart entre la température observée et la température moyenne au cours de la période 1850-1900.

La Figure 2 représente des données similaires, avec un pas quotidien plutôt que mensuel.

Enfin, la Figure 3 montre la distribution géographique de l'anomalie de température. Plus la zone est rouge, plus l'anomalie de température est importante. La carte montre que la quasi-totalité de la planète est concernée.

Je l'ai souvent dit, et l'article de Carbon Brief me permet de le répéter : il est essentiel de lutter contre le réchauffement climatique avec des solutions dont l'efficacité a été démontrée, en moins partiellement, par la littérature scientifique. Il n'y aurait rien de pire que de rater la transition écologique parce que l'on aurait mis en place des "solutions" inefficaces dont on se serait convaincus du contraire.
Si vous lisez l'anglais, l'article mérite d'être lu. Le travail de visualisation de données est par ailleurs remarquable.
Carbon BriefZeke Hausfather
Chère abonnée, cher abonné,
Je suis très heureux de partager avec vous le premier numéro du Point.
Le Point est un nouveau format que j'ai prévu de publier chaque samedi, normalement à 10 h (heure de Paris). Chaque numéro liste ce que j'ai publié au cours de la semaine dans la newsletter. J'expérimentale également une revue de presse ainsi qu'une section musicale.
Compte tenu du volume important d'articles et de Notes que je publie, l'un des objectifs du Point est de vous permettre de recevoir un email récapitulatif par semaine, plutôt qu'un email pour chaque article ou chaque Note. Vous êtes un certain nombre à m'avoir demandé cette option, la voici désormais disponible.
Vous pouvez paramétrer les emails que vous recevez dans votre compte.
Si vous avez connu les numéros du Fil que je publiais sur L'Économiste Sceptique, la revue de presse du Point s'en rapproche. La différence est que la revue de presse du Point couvre davantage de thématiques, est mieux organisée, et ne porte pas sur la littérature scientifique. J'ai prévu de partager la littérature scientifique dans des Notes ainsi que dans des articles.
Enfin, la section musicale me permet de partager sans prétention la musique que j'écoute en ce moment.
En fonction de vos retours et de la simplicité à maintenir la revue de presse et la section musicale, il est possible que ces deux sections du Point évoluent — voire disparaissent si l'expérimentation n'est pas concluante. Par contre, le récapitulatif hebdomadaire est un format pérenne, qui n'est pas expérimental.
L'accès au Point nécessite un abonnement à l'une des formules payantes de ma newsletter.
Bonne lecture !
Olivier
Comme le montre la Figure 1, le lac Gatun est un composant essentiel du canal du Panama.

Or, comme le montre la Figure 2, le niveau de l'eau dans le lac Gatun connaît un niveau historiquement bas.

En réalité, il s'agit du niveau le plus bas mesuré depuis 1965. En cause, une importante sécheresse en Amazonie, que la déforestation contribue à faire empirer.
Le niveau d'eau bas a contraint la Panama Canal Authority à réduire le transit quotidien de 36 bateaux à 24, ainsi que le tirant d'eau maximum (le tirant d'eau est la "profondeur" avec laquelle la coque d'un bateau peut s'enfoncer dans l'eau).
La réduction du transit a un impact négatif sur de nombreux secteurs, tels que l'énergie, les porte-conteneurs ou le transport du grain.
Because of historically low water levels at Gatun Lake, the Panama Canal Authority has reduced daily traffic from 36 to 24 vessels & limited allowable draft size, affecting energy product carriers, container vessels, & ships transporting grain from the US.
— @piie sur Bluesky
Ce type de perturbation va devenir de plus en plus fréquente à mesure que les effets du réchauffement climatique vont se manifester. Le Canal du Panama, comme de nombreuses autres infrastructures, a été conçu pour un climat différent de celui qui est en train de s'installer.
J’ai trouvé cet intéressant graphique dans un récent article de Laura Laker sur Bloomberg :

La Figure 1 montre que depuis les années 2000, le nombre de déplacements quotidiens à vélo à Londres a été multipliée par 4. D’environ 300.000 déplacements en 2000, il y a désormais entre 1.1 et 1.3 million de déplacements quotidiens à vélo selon les années.
Sur la même période, les déplacements quotidiens en voiture individuelle se sont lentement érodés, passant de 10.9 millions de déplacements à 9.2 millions de déplacements.
Bien sûr, il ne s’agit de données que pour une ville. Ces données illustrent cependant bien la tendance de fond de transformation des modes de transport urbains.