Vue normale

Reçu — 21 novembre 2025 Les Électrons Libres

Climat : bâtir un monde prêt pour l’inattendu

21 novembre 2025 à 06:19

Il y a 12 000 ans, le climat s’est refroidi brutalement, les températures chutant de près de 10 °C dans l’Atlantique Nord en quelques années seulement. Un épisode qui nous rappelle que notre priorité devrait être d’apprendre à nous adapter.

Nous parlons du climat comme d’une courbe globale qui s’élève et que l’humanité devrait stabiliser. Mais les civilisations ne vivent pas dans les moyennes planétaires : elles vivent dans des régions capables de basculer brutalement, parfois sans que la température globale n’enregistre grand-chose. Il y a douze mille ans, à peine un instant dans l’histoire de la planète, l’hémisphère Nord a plongé dans un changement brutal qui a redessiné les paysages et les modes de vie humains. Comprendre cet épisode oublié pourrait bien être essentiel pour penser la résilience du XXIᵉ siècle.

Depuis des années, le débat climatique s’organise autour d’un récit désormais familier : la Terre se réchauffe à un rythme inédit par rapport aux millions d’années précédentes, et ce réchauffement est principalement dû aux activités humaines. Cette affirmation est solide, étayée par les rapports du GIEC et abondamment commentée. Mais elle occupe tellement de place qu’elle finit par constituer presque tout le récit climatique contemporain. Or la manière dont les sociétés humaines perçoivent et subissent les transformations du climat est bien plus complexe. Les civilisations ne vivent pas dans la moyenne globale, mais dans des régions où l’équilibre peut se rompre en quelques années.

Le Dryas récent : un basculement climatique oublié

Parmi les épisodes qui illustrent le mieux cette réalité figure le Dryas récent, un événement climatiquement abrupt, récent au sens géologique et pourtant largement absent du débat public. Il s’est produit il y a environ douze mille ans, un battement de cils à l’échelle de la Terre, trop court pour laisser une marque profonde dans les archives planétaires, mais suffisamment long pour transformer durablement l’hémisphère Nord. À ce moment-là, le monde sortait de la dernière glaciation et se dirigeait vers un climat plus chaud et plus stable. Puis, soudainement, l’hémisphère Nord a basculé dans un refroidissement rapide : plusieurs degrés perdus en l’espace de quelques années à quelques décennies, entre deux et six en Europe, parfois jusqu’à dix au Groenland. En termes climatiques, c’est l’équivalent d’un déplacement de plusieurs centaines de kilomètres de latitude, mais vécu à l’échelle d’une vie humaine.

Ce basculement rapide n’a presque pas modifié la température moyenne globale. Si nous avions disposé des outils de mesure actuels, la courbe globale n’aurait rien laissé deviner, et pourtant les écosystèmes, les migrations et les sociétés humaines ont été profondément affectés. Cette dissociation entre la stabilité globale et l’instabilité régionale constitue un enseignement majeur : un climat peut paraître stable à l’échelle planétaire tout en étant chaotique là où vivent les civilisations.

Les causes du Dryas récent : un mystère climatique encore ouvert

J’approfondis

Une fin brutale, un réchauffement explosif

Mais c’est la fin du Dryas récent qui illustre le mieux la violence potentielle des transitions climatiques. Après environ 1 200 ans de froid, l’hémisphère Nord a connu un réchauffement si rapide qu’il dépasse tout ce que l’humanité contemporaine considère comme un scénario extrême : plusieurs degrés gagnés en quelques années, ou quelques décennies au maximum. Une accélération fulgurante qui marque le début de l’Holocène, la période tempérée durant laquelle toutes les civilisations historiques se développeront. Cette transition — un refroidissement brutal suivi d’un réchauffement encore plus rapide — montre que les changements de seuil peuvent survenir de manière explosive et que les régions peuvent basculer presque instantanément par rapport aux rythmes géologiques.

Conséquences humaines et écologiques

Les conséquences de ce double mouvement ont été considérables. La mégafaune a décliné, les biomes se sont reconfigurés et certaines sociétés humaines ont disparu ou se sont déplacées. L’agriculture elle-même émerge précisément à la fin de cette période. Non pas dans un climat stable, mais au contraire dans un monde en pleine réorganisation. Beaucoup d’historiens y voient la trace d’une adaptation forcée : lorsque l’environnement devient trop imprévisible, les humains cherchent à en reprendre le contrôle.

Le Dryas récent a-t-il entraîné l’invention de l’agriculture ?

J’approfondis

Ce que cet épisode oublié devrait nous apprendre

Ce récit, pourtant central pour comprendre notre rapport au climat, est presque absent de la discussion contemporaine. Nous nous focalisons sur la variation de la température globale et sur son origine anthropique, comme si l’ensemble du risque climatique se concentrait dans une seule courbe. Or l’histoire récente de la Terre montre exactement l’inverse : les bouleversements susceptibles de transformer les sociétés humaines peuvent être régionaux, rapides et invisibles dans la moyenne globale. C’est là un paradoxe dérangeant : nous surveillons l’indicateur qui monte le plus régulièrement, mais pas nécessairement celui qui menace le plus concrètement nos infrastructures, nos ressources et notre organisation sociale.

Sommes-nous mieux préparés qu’il y a douze mille ans ? Sur le plan technologique, sans aucun doute. Mais notre sophistication nous rend aussi vulnérables : une agriculture dépendante de chaînes logistiques mondiales, une énergie centralisée, des systèmes urbains fragiles face aux perturbations soudaines et une interdépendance généralisée qui transforme des chocs locaux en crises globales. Nous sommes puissants, mais notre puissance repose sur une complexité qui, en cas de perturbation rapide, pourrait devenir notre talon d’Achille.

C’est précisément ici qu’il devient nécessaire d’admettre l’évidence : la question n’est pas de savoir si un changement rapide du climat est possible, mais quand ? Reconnaître que ce type d’épisode peut survenir, indépendamment ou en combinaison avec le réchauffement actuel, est une condition préalable à toute réflexion sérieuse. Il ne s’agit pas d’imaginer des scénarios catastrophistes, mais d’accepter que notre monde peut être confronté à des ruptures soudaines et de réfléchir à la manière de s’y préparer et de s’y adapter. Cela implique des infrastructures distribuées, une agriculture capable d’encaisser des variations fortes, des systèmes d’énergie autonomes, des mécanismes de stockage durable du savoir et une capacité institutionnelle à absorber l’imprévu. La technologie n’est pas un luxe dans cette perspective : elle devient une assurance-vie collective.

Le Dryas récent ne nous dit pas que l’histoire climatique va se répéter. Il nous dit que les ruptures soudaines peuvent exister, qu’elles peuvent être rapides, régionales, intenses et que la moyenne globale n’est pas, à elle seule, un bon indicateur du danger pour les sociétés humaines. Comprendre cela n’invite ni au fatalisme ni à la peur ; cela invite à élargir notre regard, à sortir de la vision étroite d’un climat résumé à une courbe globale et à envisager notre avenir avec une ambition plus vaste : celle de bâtir une civilisation capable d’encaisser l’inattendu.

L’article Climat : bâtir un monde prêt pour l’inattendu est apparu en premier sur Les Électrons Libres.

Reçu — 20 novembre 2025 Les Électrons Libres

COP 30 : Et si la transition énergétique était déjà en marche ?

20 novembre 2025 à 05:33

Les COP s’enchaînent presque aussi vite que les records de températures. Désespérant ? La lassitude et le défaitisme ambiants dissimulent pourtant de vrais progrès : en dix ans, l’innovation a déjà réduit de 40 % nos futures émissions de CO₂.

La COP 30 se déroule à Belém, en Amazonie, près de dix ans après les accords de Paris. Pour beaucoup, ces sommets climatiques ne sont que des exercices de communication, sans impact réel sur la trajectoire d’une humanité toujours plus dépendante des énergies fossiles. Les émissions mondiales de CO₂ n’ont jamais été aussi élevées, et les records de chaleur s’enchaînent. Pourtant, derrière ce constat alarmant, des signes tangibles d’espoir émergent. Non pas parce que la situation est bonne, mais parce qu’elle aurait pu être bien pire. Et surtout parce que les mécanismes de la transition énergétique, souvent invisibles, sont déjà à l’œuvre.

Les accords de Paris ou le paradoxe du progrès invisible

Le principal obstacle à l’optimisme est un biais cognitif : nous n’avons pas de « planète B » témoin. Il est impossible de voir ce qui se serait passé si nous n’avions rien fait. Le verre à moitié vide – la hausse continue des émissions – occulte le verre à moitié plein : la catastrophe que nous avons évitée. Pourtant, des chercheurs de l’Agence internationale de l’énergie (AIE) ont tenté de modéliser ce scénario. Leur conclusion : grâce aux politiques climatiques mises en place depuis 2015, les émissions mondiales de CO₂ sont 40 % inférieures à ce qu’elles auraient été sans ces efforts. Loin d’être un échec, les accords de Paris ont enclenché un ralentissement spectaculaire de la catastrophe annoncée, prouvant que l’action collective, les technologies vertes et l’innovation ont un impact massif.

Non, les énergies ne s’empilent pas (ou la fin d’un mythe)

Mais si les technologies vertes explosent, pourquoi les émissions globales ne baissent-elles pas ? C’est la thèse de « l’empilement », défendue notamment par l’historien Jean-Baptiste Fressoz : les nouvelles énergies (solaire, éolien) ne remplaceraient pas les anciennes (charbon, pétrole), elles ne feraient que s’y ajouter pour satisfaire un appétit énergétique insatiable.

Cette théorie est séduisante mais fausse, car elle ignore la dynamique du développement humain. Les pays très pauvres utilisent majoritairement des énergies « renouvelables » : bois issu de la déforestation, résidus agricoles, bouses de vache séchées. Ces sources sont désastreuses pour les écosystèmes locaux et la santé (pollution de l’air intérieur). Pour ces populations, passer aux énergies fossiles (gaz, charbon) n’est pas un problème : c’est une solution, un accélérateur massif de niveau de vie, de santé et d’éducation.

C’est là qu’intervient la fameuse « courbe de Kuznets » environnementale : les pays en développement consomment logiquement de plus en plus d’énergies fossiles, faisant monter les émissions globales. Mais seulement jusqu’à un certain point. Les pays riches, après avoir atteint un pic d’émissions, voient celles-ci diminuer, même en tenant compte des délocalisations, à mesure que leur prospérité leur permet d’investir dans des technologies plus propres.

Or, jusqu’à présent, environ 80 % de la population mondiale se situait à gauche de la courbe de Kuznets : l’augmentation de leur niveau de vie se traduisait par une hausse des émissions compensant largement la baisse chez les 20 % à droite de la courbe. D’où la hausse mondiale des émissions.

Le grand basculement est imminent

La bonne nouvelle, c’est que des masses démographiques colossales s’apprêtent à franchir ce point d’inflexion. L’exemple le plus frappant est la Chine. Longtemps « usine du monde » alimentée au charbon, le pays opère un virage spectaculaire. Les voitures électriques y représentent désormais 50 % des parts de marché, et le pays installe plus de panneaux solaires et d’éoliennes que le reste du monde réuni, dépassant largement ses nouvelles constructions de centrales à charbon. Parce que des géants comme la Chine et bientôt l’Inde atteignent ce point d’inflexion, le plafonnement des émissions mondiales n’est plus une hypothèse lointaine : il est imminent. La deuxième bonne nouvelle est que beaucoup de pays pauvres vont pouvoir, grâce à la baisse spectaculaire des prix des technologies vertes, sauter des étapes fossiles de développement, c’est-à-dire adopter directement les voitures électriques et les renouvelables sans passer par les voitures thermiques et les centrales à charbon.

Pourquoi Trump ne peut pas tuer la transition

Reste l’argument politique. Un climatosceptique comme Donald Trump à la Maison-Blanche ne risque-t-il pas de tout anéantir ? Pour le comprendre, regardons le Texas. Cet État nous apprend deux choses cruciales.

D’abord, que le fait d’être victime d’événements climatiques extrêmes (comme le blizzard dévastateur de 2021) n’empêche pas de voter massivement pour des candidats niant le problème. Plus globalement, lorsqu’il s’agit de voter ou de payer, l’écologie reste rarement la priorité numéro un du citoyen. La décroissance, si elle vend beaucoup de papier, rapporte peu de bulletins.

Ensuite, et c’est la leçon la plus importante : l’indifférence à l’environnement n’empêche pas d’être un champion de la transition. Le Texas, républicain et pétrolier, est l’État qui installe le plus de panneaux solaires aux États-Unis, devant la Californie démocrate. Pourquoi ? Non pas par idéologie, mais parce que c’est rentable. Trump, pas plus qu’un autre, ne peut lutter contre des forces économiques et technologiques devenues inarrêtables. Le marché et l’innovation sont plus puissants que la politique.

Quand la presse internationale confond scénario et prédiction

J’approfondis

La feuille de route est déjà écrite

Le problème du réchauffement climatique, s’il est complexe, n’a rien de magique. Il peut être résumé à un problème d’ingénierie : il est causé par nos émissions de CO₂. Ces émissions résultent de la combustion des énergies fossiles (gaz naturel, pétrole, charbon). Cette combustion alimente des milliards de machines (voitures, chaudières, usines). Ces machines sont largement inefficaces et ont une durée de vie limitée.

La solution est donc simple dans son principe : accélérer le remplacement de ces machines thermiques par des machines électriques plus efficaces. La plupart de ces machines vertes (voitures électriques, pompes à chaleur, éoliennes, panneaux photovoltaïques) sont déjà disponibles, matures et compétitives. Pour accélérer la bascule, il faut les rendre encore moins chères (via l’industrialisation et des mécanismes de type taxe carbone) et innover pour mettre sur le marché les quelques technologies qui nous manquent (acier vert, ciment décarboné, etc.).

Le mur de la transition énergétique est moins haut qu’on ne le croit

J’approfondis

L’optimisme comme moteur de l’action

Le pessimisme qui entoure la COP 30, s’il est compréhensible, est un luxe que nous ne pouvons plus nous permettre. Il repose surtout sur une lecture statique d’un monde en pleine mutation. La véritable histoire de cette décennie n’est pas celle de notre inaction, mais celle d’un basculement technologique et économique d’une rapidité sans précédent. La transition énergétique n’est pas un vœu pieux : c’est un processus industriel et économique déjà enclenché, largement indépendant des soubresauts politiques. Comme le montrent l’exemple du Texas ou de la Chine, le progrès n’attend pas qu’on lui donne la permission. La question n’est donc plus de savoir si nous allons réussir à décarboner, mais à quelle vitesse nous allons y parvenir. Et dans l’éventualité où nous irions trop lentement, nous pourrons toujours mobiliser certaines techniques de géo-ingénierie pour éviter les effets les plus délétères du réchauffement climatique. Mais cela fera l’objet d’un prochain épisode.

L’article COP 30 : Et si la transition énergétique était déjà en marche ? est apparu en premier sur Les Électrons Libres.

Reçu — 19 novembre 2025 Les Électrons Libres

Quand le web ne tient qu’à un fil

19 novembre 2025 à 05:28

Hier, le monde s’est arrêté. Pas à cause d’une météorite ou d’une guerre nucléaire, mais d’un bug. Comment notre civilisation ultra-moderne est-elle devenue dépendante d’un système où tout ou rien ne fonctionne ? Récit d’une fragilité invisible.

Pendant trois heures, certains sites dont les très populaires fournisseurs d’IA ChatGPT et Claude étaient bloqués, votre paiement en ligne a pu être refusé, des professionnels de santé n’avaient plus accès aux dossiers patients, le réseau social X/Twitter fonctionnait mal et votre jeu vidéo en ligne ne pouvait pas se lancer. L’incident a été bref, mais il a montré notre vulnérabilité – et notre impatience.

Car l’instantanéité est devenue notre drogue. Quand vous cliquez sur une vidéo, vous exigez qu’elle démarre dans la seconde, que vous soyez à Paris, Tokyo ou au fond de la Creuse. Pour réussir ce tour de magie quotidien, Internet ne se contente pas de serveurs classiques, centralisés. Il a fallu inventer des « super-livreurs ».

Dans le jargon, on les appelle les CDN (Content Delivery Networks) ou les plateformes d’« edge computing ». Pour comprendre, imaginez un auteur à succès. S’il devait envoyer chaque livre par la poste depuis sa propre maison, les délais seraient infernaux. La solution ? Il stocke des milliers d’exemplaires dans des entrepôts locaux pour les commandes Internet ou dans des librairies, au plus près des lecteurs. Sur le web, c’est pareil : des géants comme Cloudflare ou CloudFront (Amazon) ont une copie des contenus des sites web de leurs clients dans des milliers de « petits entrepôts numériques », redondants, partout sur la planète.

Le résultat est spectaculaire : Cloudflare gère à lui seul le trafic de plus de 20 % des sites mondiaux. Amazon a récemment pulvérisé les records en faisant transiter l’équivalent de millions de films HD (268 térabits !) en une seule seconde pour la sortie d’un jeu vidéo. Sauf qu’à force de vouloir aller vite, nous avons mis tous nos œufs numériques dans le même panier.

L’effet papillon : une erreur locale, une catastrophe mondiale

Gérer ces milliers d’entrepôts numériques ne se fait pas à la main. C’est là qu’intervient l’automatisation, la véritable épée à double tranchant du cloud moderne.

Les ingénieurs utilisent des outils surpuissants capables de mettre à jour la sécurité de la planète entière en un clic. C’est une force inouïe : une faille est découverte ? Elle est colmatée partout en dix secondes. Mais c’est aussi notre talon d’Achille. Si la mise à jour contient une erreur, une instruction contradictoire ou déclenche un bug non détecté auparavant (le cas pour cette panne), cette erreur se propage, elle aussi, à la vitesse de la lumière.

Il n’y a plus de fusible local. L’erreur ne fait pas sauter les plombs de la cuisine, elle se propage et éteint la ville, le pays, le continent. Le système est binaire : tout fonctionne à merveille, ou plus rien ne marche.

Les signes avant-coureurs étaient là

Ce scénario de « Grand Black-out » est la suite logique d’une série d’avertissements que nous avons collectivement ignorés.

Souvenez-vous (ou pas) de juillet 2019. Une grande partie du web devient inaccessible pendant trente minutes. La cause ? Une règle de pare-feu applicatif (WAF) mal écrite chez Cloudflare. Ce logiciel, censé trier les visiteurs légitimes des pirates, s’est emballé et a consommé toute la capacité de calcul des serveurs, bloquant tout le monde, même les gentils.

Rebelote en juin 2022. Une opération de maintenance, destinée ironiquement à rendre le réseau plus solide, a provoqué une panne. Depuis, les parts de marché de Cloudflare ne cessent de progresser, car le service est gratuit, simple et efficace, faisant oublier son aspect systémique.

Ce qui est effrayant, c’est l’effet domino. Aujourd’hui, un site web est comme un jeu de construction Lego. Il pioche ses briques un peu partout : la police d’écriture vient d’un CDN, la bibliothèque qui permet au site de s’afficher dépend des serveurs de Google et le panier d’achat s’appuie sur un élément JavaScript hébergé chez Cloudflare. Si l’un de ces géants de l’infrastructure tombe, il emporte tout le château avec lui. Votre site préféré n’est peut-être pas en panne, mais s’il ne peut plus charger ses briques essentielles, il s’affiche partiellement ou comme une page blanche. Pour vous, le résultat est le même : écran noir.

Le casse-tête de la souveraineté : quand le garde du corps est américain

J’approfondis

Le vaccin du chaos : casser pour mieux réparer

Faut-il pour autant jeter nos smartphones et revenir au papier carbone ? Certainement pas. L’innovation porte en elle les solutions à ses propres excès. Face à cette fragilité, une nouvelle philosophie d’ingénierie émerge, audacieuse et contre-intuitive : le « chaos engineering ».

L’idée est simple mais radicale : pour éviter la panne surprise, il faut provoquer des pannes volontaires. Des pionniers comme Netflix ont ouvert la voie avec un programme nommé « Chaos Monkey ». C’est un petit logiciel qui se promène dans leur infrastructure et « tue » des serveurs au hasard, en pleine journée, pendant que vous regardez votre série.

Cela semble suicidaire ? C’est en fait du génie. C’est un vaccin numérique. En inoculant des petites doses de désordre contrôlé, on force les ingénieurs à concevoir des systèmes capables de s’autoréparer, de cicatriser instantanément. Si un serveur meurt, un autre doit prendre le relais sans que l’image ne saute.

L’avenir d’un web robuste ne réside pas dans la perfection statique, mais dans la résilience dynamique. Nous ne devons plus prier pour que « ça tienne », nous devons brutaliser nos technologies pour les endurcir, à tous les niveaux. Grâce à cette culture du crash-test permanent, nous détectons mieux nos faiblesses structurelles et dépendances technologiques. Le web de demain ne doit pas tenir qu’à un fil, mais à une toile capable de se retisser elle-même.

L’article Quand le web ne tient qu’à un fil est apparu en premier sur Les Électrons Libres.

Reçu — 18 novembre 2025 Les Électrons Libres

L’illusion du paradis perdu

18 novembre 2025 à 05:47

On confond souvent la préservation des inestimables services écosystémiques rendus par la biodiversité avec la sanctuarisation de la nature. On en vient à starifier le panda en négligeant le travail obscur de milliards de bactéries. Derrière ces constats se cache une interrogation plus profonde. Pourquoi protège-t-on la nature, et de quoi ?

La biodiversité n’est pas la nature, elle en est la mesure, la traduction scientifique et comptable. Mais dans le débat public, les deux se confondent. Définir, classer, mesurer : voilà pour la science. Comprendre pourquoi nous protégeons le vivant relève d’un autre registre, celui de la philosophie, qui conceptualise autant qu’elle questionne et tente de rendre consciente notre part de subjectivité. Ce chapitre quitte le terrain du microscope pour celui du miroir. Alors, que cherchons-nous vraiment dans la nature, et qu’y trouvons-nous ?

La nature, notre dernier mythe ?

La nature. Du latin natura, qui signifie à la fois “l’action de faire naître”, “l’état naturel d’une chose” et “l’ordre des choses”. Un mot qui désigne tout ensemble ce qui advient et ce qui est. Cette polysémie, on la retrouve dans notre relation à la nature. Chez Rousseau (Jean-Jacques), elle est pure et bonne ; chez Darwin, elle lutte et s’adapte ; chez Rousseau (Sandrine), elle souffre et réclame justice. Elle cristallise tour à tour notre nostalgie d’un paradis perdu et notre peur du monde que nous fabriquons. Elle est à la fois refuge et menace. Le mouvement romantique a célébré sa beauté sublime, à la fois apaisante et terrifiante. Aujourd’hui encore, cette ambivalence nous poursuit. Nous la divinisons tout en redoutant ses colères.

À mesure que les anciennes religions s’effacent, la nature tend à prendre leur place. Elle a ses prêtres, ses dogmes, ses rituels, ses péchés — polluer, consommer, croître. Ses apôtres parlent d’équilibre, de pureté, de “réparation du monde” — vocabulaire qui relève moins de la science que de la rédemption. Cette sacralisation du vivant révèle sans doute un besoin collectif de transcendance. Après avoir désenchanté le monde, nous l’avons re-sacralisé sous la forme du climat, du vivant ou de Gaïa.

Clément Rosset, philosophe du réel, rappelait pourtant dans L’Anti-nature que “l’idée de nature n’exprime jamais que les goûts et les préférences de celui qui l’invoque”. Elle ne décrit pas le réel, elle le juge. Elle devient un écran qui nous en éloigne. Dit autrement : si la nature devient un culte, peut-on encore la penser lucidement ?

Pourquoi protège-t-on ?

Protéger suppose un choix. Ce que l’on estime digne de l’être, et ce que l’on accepte de laisser disparaître. Mais sur quoi se fonde ce choix ? Sur l’émotion, sur la beauté, sur l’utilité ou sur le droit ? La frontière est floue. La loi tente d’en fixer les contours, mais elle reflète souvent les préférences morales et culturelles d’une époque plus que des critères écologiques. Nous sauvons les espèces qui nous touchent — le panda, la baleine, l’abeille — mais pas la vipère, le moustique ou le virus. Entre utilité et compassion, entre beauté et empathie, nous dessinons une hiérarchie sentimentale du vivant.

Peter Singer, figure de l’éthique animale, proposait d’étendre notre considération morale à tout être capable de souffrir. Sa vision est radicale. La valeur d’un être ne tiendrait plus à son intelligence ou à sa beauté, mais à sa sensibilité. Mais jusqu’où aller ? Devons-nous plaindre la punaise de lit ou le parasite ? Et que devient la responsabilité humaine si toute intervention devient suspecte ? Le risque est de confondre le respect du vivant avec une culpabilité universelle.

Entre l’utilitarisme, qui, selon Bentham, vise le plus grand bonheur du plus grand nombre, et la morale selon laquelle chaque être vivant compterait également, où tracer la limite ?

La nature faite homme ?

Avant de se rêver protecteur du vivant, l’homme a dû l’affronter. La nature n’était pas un havre, mais un champ de forces hostiles — le froid, la faim, les prédateurs, la maladie. Pendant des millénaires, survivre signifiait résister à la nature, la détourner, la dompter. C’est en la combattant que nous avons appris à la connaître, et c’est en la transformant que nous sommes devenus ce que nous sommes. Le feu, l’agriculture, l’abri, l’outil, la médecine furent autant de réponses à une hostilité primitive. Ce que nous appelons aujourd’hui “domination” fut d’abord une condition de survie.

Le moustique, un mal nécessaire ?

J’approfondis

Mais cette conquête a inversé la relation. À force de se protéger de la nature, l’homme a fini par se croire extérieur à elle. « L’humain, écrivait Merleau-Ponty, est un être pour qui tout est fabriqué et culturel. » Mais s’il est à la fois nature et culture, peut-on vraiment opposer l’homme au monde qu’il transforme ? Nos villes, nos machines, nos champs, nos usines ne sont-ils pas eux aussi des écosystèmes ? Si l’homme fait partie de la nature, ses créations — même artificielles — ne devraient-elles pas être vues comme des prolongements du vivant, au même titre que la toile de l’araignée ou le barrage du castor ?

Créer, transformer, inventer : ce sont peut-être aussi des fonctions vitales de l’humanité, non des fautes contre la nature, mais l’expression de sa propre vitalité. L’homme modifie la nature parce que c’est sa manière d’en faire partie — non de s’en extraire. Tout comme le castor et les fourmis. Mais plus nous “travaillons” sur le vivant, plus nous contrarions — ou stimulons — sa résistance. Comme le rappelait le médecin Xavier Bichat, « la vie est l’ensemble des fonctions qui résistent à la mort ».

L’agriculture, la sélection, la génétique, la déforestation, la reforestation : tout acte humain est une expérience sur un organisme planétaire dont nous faisons partie.

Les droits de la nature ?

Depuis quelques années, certains fleuves ou forêts se voient reconnaître une “personnalité juridique”. Derrière ces gestes symboliques se cache un besoin de réenchanter le lien entre droit et nature. Mais la nature lit-elle nos constitutions ? En attribuant des droits à la Terre, ne reconnaissons-nous pas, au fond, qu’elle n’en a que parce que nous lui en conférons ? Et, ce faisant, ne réduisons-nous pas la portée même de ce que nous prétendons sanctuariser ?

Lettre ouverte au panda

J’approfondis

La nature n’a pas de morale. Elle crée, détruit, recommence. C’est nous qui y projetons la nôtre. Spinoza l’avait déjà vu : une même chose peut être bonne, mauvaise ou indifférente selon le point de vue. Un feu détruit une forêt et nourrit le sol ; un barrage inonde un marais et crée un lac plein d’oiseaux. Peut-on dire où se situe le bien absolu ? L’éthique écologique doit peut-être accepter cette relativité : toute action a des effets contraires, toute protection a un coût.

Hannah Arendt rappelait que l’être humain est hanté par deux angoisses : l’imprévisibilité et l’irréversibilité. Or la biodiversité cristallise les deux. Nous ne savons pas toujours où mènent nos interventions, et nous ne pouvons revenir en arrière. Agir malgré l’incertitude, n’est-ce pas là, finalement, le vrai défi ?

L’adieu au jardin d’Éden

Nous rêvons souvent d’une nature originelle, intacte, antérieure à l’homme. Mais cette nature-là n’a jamais existé. La vie n’a cessé de se transformer, de conquérir, d’exclure ; les extinctions massives l’ont toujours façonnée. Ce que nous appelons “crise de la biodiversité” n’est pas la fin du vivant, mais la mise en crise de notre propre rapport à lui.

Le “péché” écologique consiste peut-être à vouloir transformer nos croyances collectives — autrement dit notre culture — en lois. Certaines de ces croyances reposent sans doute sur des intuitions justes. Il faut cependant qu’elles passent par le tamis de la science avant de devenir des normes.

La nature était là bien avant nous, et elle sera encore là après nous. Elle n’a pas besoin de notre secours pour survivre, mais nous avons besoin d’elle pour vivre. Sauver la nature, en réalité, c’est préserver les conditions de notre propre existence : les sols, l’eau, l’air, les équilibres et toute la machinerie complexe dont nous dépendons. Protéger le vivant n’est donc pas un geste de charité, mais une forme d’instinct de conservation — une lucidité plutôt qu’une générosité. C’est considérer la nature comme un sujet avec lequel il nous faut coopérer, pour la vie et la durabilité de l’espèce. Des espèces.

Entre le mythe du jardin d’Éden et la fuite en avant, il existe une voie plus raisonnée, plus raisonnable : celle d’une humanité consciente de sa puissance, mais aussi de ses limites. Ni démiurge, ni créature, ni pénitent, ni prédateur. Non pas maître du monde, mais son hôte ingénieux et lucide.

Cet article doit beaucoup aux apports philosophiques et à la relecture attentive de Lucille Garric, fondatrice de Tous Philosophes.

Grande série biodiversité, à retrouver tous les mardis sur lel.media !

Épisode précédent : L’usine invisible qui fait tourner le monde

L’article L’illusion du paradis perdu est apparu en premier sur Les Électrons Libres.

Reçu — 17 novembre 2025 Les Électrons Libres

Électroscope #3 : le plus long tunnel sous-marin, une révolution dans la détection du cancer et l’IA au chevet de la planète

17 novembre 2025 à 05:42

Chaque lundi, Les Électrons Libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Une révolution dans la détection du cancer !

Imaginez un simple prélèvement sanguin capable de repérer plus de 50 cancers avant même les premiers symptômes. Pour des millions de personnes, cela signifie passer d’une attente anxieuse à une prise en charge ultra-précoce, quand les chances de guérison sont les plus élevées.

C’est la promesse du test Galleri, développé par la biotech américaine GRAIL. Les résultats de l’étude PATHFINDER 2, présentés en octobre 2025, sont éloquents. Chez 35 000 adultes de 50 ans et plus, ajouter Galleri aux dépistages classiques a permis de détecter sept fois plus de cancers en un an. Sur 100 personnes testées positives, plus de 60 ont bien un cancer confirmé. Et la moitié de ces tumeurs étaient au stade précoce (I ou II), où les traitements sont souvent curatifs. Galleri cible surtout les cancers « silencieux » – pancréas, foie, ovaires – pour lesquels aucun dépistage n’existe aujourd’hui. Un signal positif entraîne des examens complémentaires, malgré un risque de faux négatifs de 26,3 %. Pas encore remboursé ni approuvé par la Food and Drug Administration (FDA) américaine, le test coûte environ 950 dollars. Mais les données accumulées ouvrent la voie à une nouvelle ère, où un cancer deviendra une simple alerte que l’on peut traiter à temps.

L’IA au secours de la planète

Et si l’intelligence artificielle nous aidait à sauver les forêts, à repérer les espèces menacées et à entendre les cris d’alarme de la biodiversité ? Pour les habitants de régions vulnérables comme l’Amazonie ou les récifs coralliens, ces applications pourraient transformer la surveillance en action concrète, prévenant la déforestation avant qu’elle ne frappe et protégeant des animaux invisibles à l’œil nu. C’est la révolution que propose Google DeepMind avec son trio d’outils IA tout juste dévoilé.

D’abord, un modèle innovant pour prédire le risque de déforestation. Basé sur des images satellites, il permet d’anticiper les zones à haut risque avec une précision de 30 mètres. Il couvre de vastes régions en temps réel, aidant les décideurs à cibler les efforts de protection et à freiner la déforestation. Vient ensuite un projet ambitieux de cartographie des aires de répartition des espèces. En fusionnant des milliards d’images satellites, radar et laser, cette nouveauté, baptisée Alpha Earth Foundations, génère des cartes ultra-détaillées de la planète. Elle excelle pour suivre l’expansion urbaine, la santé des cultures ou les ressources en eau.

Enfin, Perch 2.0, le champion de la bioacoustique. Ce modèle analyse les sons de la nature pour identifier près de 15 000 espèces – oiseaux, amphibiens, mammifères, insectes –, y compris sous l’eau comme sur les récifs coralliens. Formé sur des milliers d’heures d’enregistrements, il détecte les vocalisations rares, accélère les classements d’espèces et s’adapte à de nouveaux environnements. Les écologues y voient un allié pour monitorer les populations en danger sans perturber les habitats. Ces avancées, open source pour l’essentiel, marquent un pas géant vers une écologie boostée par l’IA.

Le tunnel de Fehmarn Belt rapproche l’Allemagne et la Scandinavie

Effectuer le trajet entre Hambourg et Copenhague en seulement 2h30, en filant sous la mer Baltique, au lieu de 5 heures avec le ferry ? Ce sera bientôt possible !

C’est la promesse offerte par le tunnel de Fehmarn Belt, en pleine construction. Long de 18 kilomètres, il sera le plus long édifice routier et ferroviaire souterrain immergé au monde, reliant l’île danoise de Lolland à celle de Fehmarn, en Allemagne. Composé de 79 éléments en béton préfabriqués de 73 000 tonnes chacun, plus 10 éléments spéciaux, il comprendra deux tubes routiers à quatre voies, deux tubes ferroviaires pour des trains à 200 km/h et un tube de service d’urgence. Creusé dans une tranchée sous-marine à 40 mètres de profondeur, il traversera le détroit de Fehmarn Belt sans perturber la navigation en surface. En février 2025, les deux premiers éléments ont été transférés dans les bassins de Rødbyhavn, au Danemark, en attendant leur immersion prévue cet automne. Côté allemand, les approbations pour les connexions ferroviaires ont été accordées en juillet, mais des délais supplémentaires pourraient repousser l’ouverture au-delà de 2029. Coût total : 7,1 milliards d’euros, financés par le Danemark, l’Allemagne et l’UE via le programme CEF. Ce projet renforcera les échanges économiques et touristiques, avec un impact estimé à 4,6 milliards d’euros annuels pour la région.

La libération pour les enfants atteints d’ADA-SCID

Diagnostiquée à 3 mois seulement, en 2014, Eliana a été forcée de vivre dans un total isolement médicalisé. Confinée pour éviter les infections mortelles, elle ne pouvait ni aller à l’école ni jouer avec des camarades de son âge. « C’était comme vivre dans une bulle », raconte sa famille. Car les enfants atteints d’ADA-SCID naissent sans système immunitaire fonctionnel. Le moindre rhume peut leur être fatal. Mais une nouvelle thérapie génique expérimentale, appelée OTL-101 et développée à l’UCLA, offre un espoir formidable. Le traitement a déjà changé la vie de 59 d’entre eux, dont Eliana.

Ses cellules souches ont été corrigées pour produire l’enzyme manquante. Aujourd’hui, à 11 ans, elle est en parfaite santé. Elle court, rit et fréquente l’école sans crainte. Elle fait partie des cinq enfants suivis depuis plus de dix ans, tous guéris sans complications. « C’est un miracle stable », souligne le Dr Donald Kohn, qui a mené l’étude.

Look Up Space déploie le premier radar français de surveillance spatiale

Dans un ciel encombré de près de 40 000 débris et satellites actifs, la sécurité orbitale devient cruciale. Une collision peut priver des millions de GPS de communications ou de données météorologiques. La start-up française Look Up Space répond à cette problématique avec SORASYS 1, un radar de nouvelle génération installé à 1 200 mètres d’altitude en Lozère, opérationnel fin 2025. Capable de détecter des objets de 10 cm jusqu’à 2 000 km d’altitude, ce système utilise des antennes actives numériques et des ondes submétriques pour un suivi précis, en temps réel, quelles que soient les conditions météo ou lumineuses.

Fondée en 2022 par le général Michel Friedling et Juan Carlos Dolado Perez, Look Up Space a levé 50 millions d’euros en 2025. Prochaines étapes : deux radars SORASYS 2A et 2B en Polynésie française, puis un réseau de 7 stations interconnectées d’ici 2030. Objectif : une souveraineté européenne en surveillance spatiale, pour contrer la dépendance au matériel américain.

L’article Électroscope #3 : le plus long tunnel sous-marin, une révolution dans la détection du cancer et l’IA au chevet de la planète est apparu en premier sur Les Électrons Libres.

Reçu — 16 novembre 2025 Les Électrons Libres

Le mal français

16 novembre 2025 à 05:08

L’enfer est pavé de bonnes intentions législatives.
Encadrement des loyers qui assèche l’offre, bonus écologiques qui font flamber les prix, interdictions sans alternatives : la France excelle dans les lois d’affichage qui produisent l’inverse de l’effet recherché. De la malveillance ? Plutôt un manque criant de culture de l’évaluation.

Le Diagnostic de performance énergétique (DPE) en est un cas d’école. Pensé pour inciter à la rénovation et rendre nos logements moins énergivores, il a, malgré ses imperfections, été transformé par la loi Climat et Résilience de 2021 en véritable couperet. Tous les logements classés F et G, synonymes de « passoires thermiques », indépendamment des consommations réelles, se sont ainsi retrouvés progressivement interdits à la location. Conséquence : l’offre locative se raréfie, les loyers s’envolent et les plus modestes, ceux que cette mesure devait protéger, se retrouvent les plus pénalisés.

Ce genre de fiasco n’est pas un accident isolé mais le résultat d’un problème structurel. Des décisions sont prises, et des lois votées, sur des bases fragiles, sans véritable évaluation préalable ni possibilité de retour en arrière.

L’émotion contre la raison

Au démarrage est le chiffre, souvent choc.

Ainsi, celui des 48 000 morts annuels dus à la pollution atmosphérique, justifiant l’impérieuse nécessité de généraliser les zones à faibles émissions (ZFE). Il a été répété sur tous les plateaux télé, qualifié d’« hécatombe » par le président de la République lui-même, repris dans l’exposé des motifs de la loi et martelé par la ministre Barbara Pompili à l’ouverture des débats au Parlement. Un chiffre à la fois gonflé et trompeur, destiné à faire primer l’émotion sur la raison. Et parmi ces émotions, la plus puissante, la peur.

Le principe de précaution, inscrit dans la Constitution en 2005, illustre cette dérive. Pensé pour obliger à prendre des mesures de prévention des risques de « dommages graves et irréversibles », il s’est peu à peu transformé en culture du statu quo. L’aversion au risque a fini par remplacer son évaluation. L’interdiction est devenue la solution de facilité.

L’angle mort de l’évaluation

Une fois le train législatif parti sur de mauvais rails, il devient difficilement arrêtable. L’étape suivante, l’étude d’impact, pourtant cruciale, se révèle trop souvent une simple formalité.

Depuis la révision constitutionnelle de 2008 et l’article 8 de la loi organique de 2009, les projets de loi d’origine gouvernementale doivent être obligatoirement accompagnés de cette étude d’impact. Sur le papier, l’exigence est claire. En pratique, l’exercice tourne souvent à l’exposé de motifs à rallonge : peu de données fiables ni d’identification claire des risques, et pas d’analyse de scénarios alternatifs.

La loi Climat et Résilience en offre un exemple parfait. Outre le DPE et les ZFE, elle contient d’autres mesures structurantes dont le zéro artificialisation nette. Son étude d’impact a été qualifiée de « superficielle » par le Conseil d’État, qui relevait « des insuffisances notables » dans plusieurs volets du texte.

Sur les ZFE, le document s’attarde sur des détails — jusqu’à chiffrer à 890 000 euros le coût de la rénovation du Panthéon « imputable à la pollution de l’air » — mais passe sous silence les risques sociaux : ségrégation territoriale, sentiment d’exclusion.

Article réservé à nos abonnés.

S'abonner dès 5€/mois

ou

Acheter cet article pour 1,50€

L’article Le mal français est apparu en premier sur Les Électrons Libres.

💾

Reçu — 14 novembre 2025 Les Électrons Libres

La guerre des clics

Par : Jean Val
14 novembre 2025 à 05:43

Google est-il en danger ? Avec l’irruption des IA, ses milliards de recettes publicitaires sont menacés. Et les entreprises doivent réviser leurs méthodes : le SEO est mort, vive le GEO.

Depuis plus de vingt ans, Google règne sans partage sur la recherche en ligne. Avec près de 90 % des requêtes mondiales, le moteur de Mountain View est devenu la porte d’entrée d’Internet et la plus grosse régie publicitaire du monde. Son secret ? Un savant mélange de référencement naturel (SEO) et de liens sponsorisés (SEA). Les sites se battent pour grimper dans la page de résultats, les annonceurs paient pour exister, et Google, lui, encaisse.

Un modèle aussi simple qu’efficace. Mais fragile, car il repose sur un geste : le clic. Or une nouvelle génération d’utilisateurs se demande déjà pourquoi cliquer sur dix liens… quand une IA peut leur donner directement la réponse.

ChatGPT, le réflexe qui court-circuite Google

Depuis son lancement fin 2022, ChatGPT a bousculé les habitudes. Huit cents millions d’utilisateurs, un usage quotidien dans les entreprises, et un réflexe qui s’installe : taper une question dans une fenêtre de chat plutôt que dans une barre de recherche. 74 % disent l’utiliser pour chercher des informations au moins de temps en temps.

Et la tendance s’accélère. D’ici à 2026, jusqu’à un quart des requêtes pourraient passer par des assistants IA. OpenAI, avec ChatGPT Atlas, pousse même le concept plus loin : un navigateur où la recherche n’est plus une liste de liens mais une conversation. Demain, on ne cherchera plus le web, on lui parlera.

Atlas d’OpenAI, la nouvelle donne de la recherche web

J’approfondis

Le duo SEO/SEA perd de sa superbe

Pour les directions marketing, c’est un séisme. Pendant vingt ans, tout reposait sur le couple SEO/SEA : du contenu optimisé pour remonter dans Google et des annonces payantes pour s’y maintenir.
Mais voilà : les IA conversationnelles ne présentent plus dix liens, elles livrent une seule réponse, synthétique et contextualisée. Résultat : le trafic naturel chute, la publicité devient moins rentable et le marketing digital se retrouve à réinventer la roue.

Il faut désormais produire des contenus clairs, solides, bien structurés — et surtout pensés pour être compris par les IA. Autrement dit, parler leur langage. Mieux vaut un article précis et utile qu’un texte truffé de mots-clés.

Le GEO, nouveau graal du référencement

Bienvenue dans l’ère du GEO — Generative Engine Optimization. L’idée : ne plus seulement séduire l’algorithme de Google, mais être cité par les moteurs d’IA.

Pour cela, il ne suffit plus d’apparaître dans les dix premiers liens Google. Il faut désormais exister dans les corpus que les modèles d’IA consultent : articles de presse, blogs, Wikipédia, forums, réseaux professionnels. L’enjeu est de façonner leur mémoire conversationnelle, autrement dit la manière dont elles apprennent à citer des marques, des produits ou des sources crédibles. Cela implique de structurer les contenus comme des réponses directes aux questions que se posent les utilisateurs, d’adopter un ton naturel et fluide, proche du langage courant, et d’actualiser régulièrement les données pour rester visibles dans les flux d’information que les IA exploitent.

Vercel, la startup qui a hacké Google grâce à ChatGPT

J’approfondis

Les marques et organisations doivent donc associer systématiquement leur nom à des formulations naturelles, renforcer la crédibilité de leur site par des sources fiables (liens, mentions, transparence éditoriale) et multiplier leur présence sur les plateformes que les LLM lisent : Reddit, LinkedIn, Quora ainsi que la presse en ligne. Enfin, les contenus doivent être techniquement lisibles — via des balises FAQ, des métadonnées et des schémas structurés — pour que les modèles puissent les comprendre et les citer. Être mentionné par une IA n’est plus une affaire de mots-clés : c’est désormais une question de cohérence narrative, de confiance et de lisibilité machine.

On devine déjà la suite : demain, il y aura des « réponses sponsorisées » dans les IA, où un produit ou une marque apparaîtront directement dans la synthèse générée. Le SEO et la publicité classique vont converger vers ce référencement conversationnel, plus fluide, mais aussi plus opaque.

Google contre-attaque, mais le monde change

Faut-il enterrer Google ? Pas encore. Le géant reste incontournable pour acheter un billet d’avion, comparer des prix ou trouver un restaurant. Mais pour s’informer ou se documenter, l’IA prend l’avantage.

Les médias et marques l’ont compris : mieux vaut miser sur des contenus solides, sourcés et reconnaissables. Certains vont même jusqu’à négocier des partenariats avec les IA, histoire d’assurer leur visibilité dans les réponses.

Car la confiance va devenir la nouvelle monnaie du web : les IA privilégieront les contenus sérieux, vérifiés, actualisés. Les communicants, eux, devront apprendre à dialoguer avec ces nouveaux moteurs, à suivre leurs citations, à comprendre leur logique.

Et pendant ce temps, Google se réinvente. Ses projets Gemini et Bard injectent de l’IA au cœur même du moteur, quitte à rogner sur ses revenus publicitaires. Le pari est clair : mieux vaut transformer son modèle avant que d’autres ne le fassent à sa place.

Vers une recherche conversationnelle

La recherche en ligne entre dans une nouvelle ère : celle du dialogue. ChatGPT ne tue pas Google — il le force à changer. Les métriques aussi se transforment : on ne mesurera plus seulement le trafic ou le taux de clics, mais la confiance, la mention, la pertinence.

Demain, les gagnants seront ceux qui auront su comprendre cette bascule : maîtriser leurs données, inventer le SEO de l’IA et surtout gagner la confiance des machines. Le web ne sera plus seulement un espace à explorer, mais un langage à parler — celui de l’intelligence artificielle.

L’article La guerre des clics est apparu en premier sur Les Électrons Libres.

Reçu — 13 novembre 2025 Les Électrons Libres

OGM : 30 ans d’aveuglement européen

12 novembre 2025 à 20:26

C’est l’un des plus grands écarts entre science et opinion. Neuf scientifiques sur dix jugent les OGM sûrs, contre seulement un tiers des Français. Pourtant, depuis trente ans, ils sont à l’origine de progrès majeurs. Prêts à remettre en cause vos a priori ?

L’homme modifie la nature depuis qu’il cultive. Bien avant les laboratoires modernes, il sélectionnait les plantes, croisait les variétés, domestiquait le vivant pour ses besoins. La carotte orange, la banane sans pépins, le maïs résistant aux maladies, ces aliments du quotidien portent l’empreinte de siècles de sélection artificielle. Ces manipulations restaient cependant limitées par les barrières biologiques naturelles. On hybridait des blés entre eux, jamais avec un tournesol ou une bactérie.

Tout a changé dans les années 1980 avec la découverte du code génétique. Les gènes sont devenus des séquences manipulables, comme des phrases dans une langue universelle. La transgénèse permet d’insérer précisément l’un de ceux provenant d’une espèce dans une autre. Par exemple, une bactérie pour protéger une aubergine des insectes, un tournesol pour rendre le blé tolérant à la sécheresse, ou la jonquille pour enrichir le riz en vitamine A et combattre la malnutrition infantile. Cette technique accélère une évolution naturelle exigeant des millénaires pour produire un croisement. Elle n’est pas employée sans de multiples précautions et contrôles. Chaque OGM subit en moyenne treize ans d’évaluations rigoureuses avant autorisation, loin des caricatures de « plantes Frankenstein » mises sur le marché sans recul.

Pourtant, l’Europe reste rétive, tout en important paradoxalement des tonnes de produits génétiquement modifiés pour nourrir son bétail, en interdisant à ses agriculteurs d’en cultiver.

Un symptôme des ravages du pouvoir d’une opinion qui aime se faire peur et s’attarde sur des images alarmistes. L’étude de Gilles-Éric Séralini, publiée en 2012 dans Food and Chemical Toxicology, illustre parfaitement ce phénomène, en plus d’avoir fait beaucoup de mal. Montée en épingle par les médias, elle montrait des rats développant des tumeurs après avoir consommé du maïs OGM NK603 et du Roundup. Les photos choc ont fait le tour du monde, alimentant les peurs. Mais la méthodologie était défaillante : échantillon trop petit, souches de rats prédisposées aux cancers, absence de contrôle statistique adéquat. La revue l’a rétractée en 2013. Séralini l’a republiée ailleurs sans corrections majeures, et des centaines d’analyses ultérieures ont invalidé ses conclusions, menées par deux cent quatre-vingts institutions.

Aucune d’entre elles n’a détecté le moindre risque sanitaire spécifique aux OGM. Pas d’allergies épidémiques, pas de différences chez les consommateurs. Un soja potentiellement allergène identifié dans les années 1990 n’a même pas quitté les laboratoires.

La « contamination » génétique effraie aussi, mais sans fondements solides. En vingt ans, moins de quatre cents incidents mineurs, souvent dus à des erreurs de tri ou de semences, ont été observés. Invalidant un fantasme à la vie dure : avec des centaines de millions d’hectares cultivés, aucune « superplante » invasive n’a émergé. Les gènes introduits se diluent naturellement s’ils ne confèrent pas d’avantage sélectif. Quant à l’idée que manger un OGM altère notre ADN, elle relève du mythe. L’estomac digère les gènes comme n’importe quelle molécule ; il ne les intègre pas. Sinon, nous serions tous des hybrides de poulet et de pain. Quant au mythe des semences stériles qui a alimenté les médias, si elles ont bien existé, elles n’ont jamais dépassé le stade des brevets. Un moratoire international les interdit depuis 2000. Aucune semence OGM commercialisée aujourd’hui n’est stérile.

Les bénéfices, eux, sont concrets. Les OGM ont réduit l’usage mondial de pesticides de 37 %, préservé les sols, stabilisé les rendements. Entre 1996 et 2018, ils ont généré 186 milliards de dollars de revenus supplémentaires et évité 27 milliards de kilos d’émissions de CO₂. Au Bangladesh, l’aubergine Bt, introduite en 2014, a divisé par dix les pulvérisations contre le foreur du fruit (une chenille qui creuse de petits tunnels dans les plantes pour s’en nourrir). Les paysans, autrefois empoisonnés par des applications quotidiennes d’intrants à mains nues, récoltent plus sainement. En Inde, leurs bénéfices ont augmenté de 1 200 roupies par hectare et par an. À l’opposé de la fake news colportée par Vandana Shiva, qui décrivait des cultivateurs poussés au suicide par le prix des semences. En Argentine, le blé HB4, tolérant à la sécheresse grâce à un gène de tournesol, sauve les cultures dans les plaines arides – une innovation portée par l’entreprise française Florimond Desprez, exportée pendant que l’Europe hésite. Aux États-Unis, la pomme de terre Innate réduit le gaspillage en noircissant moins. En Afrique, le maïs TELA résiste à la légionnaire d’automne, sécurisant l’alimentation de millions de gens. Les exemples de ce type sont légion.

Quand les OGM sauvent des vies et des cultures

J’approfondis

Cet ensemble ne relève pas de la promesse, mais bien des faits. Entre 1996 et 2018, les cultures biotechnologiques ont généré 186 milliards de dollars de revenus supplémentaires et évité 27 milliards de kilos de CO₂.

Pendant ce temps, l’Europe, elle, cultive la prudence avec excès. Nous consommons déjà des variétés issues de mutagenèse chimique ou par irradiation, créées dans les années 1950 avec des milliers de mutations aléatoires non caractérisées, y compris en bio. Pourtant, la Cour de justice européenne freine désormais le progrès. En 2018, elle a classé les éditions génétiques comme CRISPR au même rang que les OGM transgéniques. Or cette révolution, inventée en Europe par la Française Emmanuelle Charpentier et l’Américaine Jennifer Doudna, permet, grâce à des « ciseaux moléculaires » ultra-précis, de corriger une lettre fautive dans l’ADN d’une plante, justement sans y ajouter de gène étranger. La technique profite aujourd’hui à l’Australie, au Brésil, au Japon ou au Royaume-Uni, mais pas à l’Europe, même si des discussions sont en cours.

La Commission a pourtant investi 200 millions d’euros entre 2001 et 2010 pour évaluer ces technologies ; cinq cents groupes d’experts ont conclu unanimement à l’absence de risques supérieurs aux méthodes conventionnelles. Mais les politiques ont ignoré ces rapports, ce qui n’est pas sans conséquences sur notre souveraineté alimentaire. Nos laboratoires innovent, mais nos règles repoussent les chercheurs. Paradoxe : le Pacte vert de l’UE vise à réduire l’usage des pesticides de moitié d’ici 2030, mais refuse les outils pour y parvenir. Nous importons du soja OGM brésilien pour nos élevages tout en interdisant sa culture locale. Ce n’est plus de la précaution, c’est de l’hypocrisie.

Les OGM sont le domaine agricole le plus scruté au monde. Ils diminuent les intrants chimiques, aident les paysans vulnérables, atténuent le changement climatique. Ignorer ces réalités au profit de la peur mène à la pénurie. Il est temps de choisir la raison : cultiver chez nous ce que nous importons, ou continuer à jouer les vertueux en délocalisant nos problèmes.

L’article OGM : 30 ans d’aveuglement européen est apparu en premier sur Les Électrons Libres.

Reçu — 12 novembre 2025 Les Électrons Libres

Kimi K2 Thinking, l’IA qui pense et qui agit

12 novembre 2025 à 05:18

Une IA open source, capable de rivaliser avec les meilleurs modèles, entraînée pour seulement quelques millions d’euros ? C’est la révolution Moonshot AI : une prouesse qui balaie les scénarios catastrophes sur le coût énergétique de l’intelligence artificielle.

La start-up chinoise Moonshot AI, soutenue par Alibaba, vient de dévoiler Kimi K2 Thinking, son modèle de langage qui ne se contente pas de répondre, mais qui réfléchit et agit en exécutant de 200 à 300 appels d’outils séquentiellement, grâce à un raisonnement adaptatif et à long terme. Tel un ingénieur, il peut enchaîner les cycles de réflexion, de recherche, de navigation Internet, de développement — en boucle — jusqu’à trouver la solution à un problème complexe.

Comme la plupart des solutions d’IA chinoises, Kimi K2 Thinking est proposé en open source, ce qui va permettre aux autres acteurs de s’en inspirer et de progresser à leur tour. Un cycle vertueux de développement et de partage qui fait l’excellence et la fertilité de l’IA chinoise et que pratiquement aucune société américaine n’applique, sinon sur de petits modèles parfois destinés à faire de la communication plutôt qu’a un usage réel.

Ici, le modèle compte 1 000 milliards de paramètres : il rivalise donc en taille avec les plus grands opus des géants américains OpenAI, Google et Anthropic. Mais si la taille est une métrique, la performance en est une autre — et c’est là que Kimi K2 Thinking fait fort, en battant assez largement ses concurrents payants dans de nombreux benchmarks de raisonnement, notamment ceux qui n’impliquent pas d’étapes de programmation.

Mais ce n’est pas tout. Moonshot AI, loin des élucubrations actuelles sur les gigadatacenters pour l’entraînement de l’IA, qui consommeraient l’équivalent de la production d’une tranche complète de centrale nucléaire (la France en possède 56), annonce un coût d’entraînement record de 4,6 millions de dollars, contre des sommes des dizaines de fois plus importantes chez ses concurrents américains. Ce chiffre ne concerne que la puissance de calcul nécessaire pour entraîner le modèle, pas les salaires des ingénieurs, ni la collecte de données ou les autres frais de développement.

Cette prouesse est obtenue grâce à une astuce intelligente : Kimi K2 Thinking est entrainé à partir de son petit frère Kimi K2 (Instruct – modèle sans raisonnement) avec une précision ultra-réduite (QAT 4 bits), ce qui divise, sans perte notable de qualité, jusqu’à quatre fois la mémoire et les calculs requis. De plus, il n’active à chaque utilisation que quelques experts de 32 de ses 1 000 milliards de paramètres (architecture dite Mixture of Experts (MoE)). C’est le premier modèle de raisonnement à utiliser le QAT et le MoE, ce qui le place aussi premier à offrir un coût d’inférence aussi compétitif avec un usage plus rapide.

Puisqu’il est gratuit, combien cela vous coûterait-il de faire tourner cet ingénieur maison 24/7 ? Le ticket d’entrée, qui ne cesse de baisser, est d’environ 200 000 euros pour le serveur capable de s’y mettre. La compétition avec l’humain se rapproche.

L’article Kimi K2 Thinking, l’IA qui pense et qui agit est apparu en premier sur Les Électrons Libres.

❌