Vue lecture

Scanners pédiatriques, pas d’affolement ! 

Faut-il avoir peur des rayons X ? Une vaste enquête nord-américaine relance le débat sur les radiations médicales, évoquant jusqu’à un cancer pédiatrique sur dix lié aux scanners. Radioscopie de conclusions à relativiser.

Il est 22 h à l’hôpital. Un enfant fiévreux et anémié arrive aux urgences, ses parents inquiets redoutent une infection grave. Pour lever le doute, les médecins réalisent un scanner en urgence. L’examen est normal, soulagement général. Mais ce soulagement a un revers invisible : une dose de rayons X administrée à l’enfant. L’utilisation de la tomodensitométrie, plus connue sous le nom de scanner, s’est répandue de manière fulgurante, passant d’environ trois millions d’examens en 1980 à soixante-deux millions au milieu des années 2000 aux États-Unis. En France, on estime qu’environ onze millions de ces examens sont réalisés chaque année. Face à cette explosion, la question des risques liés aux rayonnements refait surface. Une nouvelle étude parue dans The New England Journal of Medicine vient justement de quantifier ce « coût caché » : elle suggère qu’un cas de cancer sur dix chez l’enfant pourrait être attribuable aux radiations mentionnées. Faut-il s’inquiéter d’un chiffre aussi important ? Comment ce risque se compare-t-il aux autres sources de radiation, et que faire pour le réduire sans renoncer aux outils favorisant le diagnostic ?

Des risques réels, mais très relatifs

L’étude nord-américaine a suivi 3,7 millions d’enfants nés entre 1996 et 2016 sur son continent. Les chercheurs ont mesuré la dose de rayonnement reçue par la moelle osseuse, exprimée en milligrays (mGy), qui quantifient l’énergie déposée dans un tissu, et analysé la survenue de cancers hématologiques comme les leucémies et les lymphomes. Leur constat : plus la dose cumulée est élevée, plus le risque croît. Les enfants ayant reçu entre 50 et 100 mGy voyaient leur risque relatif multiplié par environ 3,6. Selon les auteurs, environ 10 % des cancers du sang observés dans cette cohorte pourraient être attribués à l’imagerie. En termes de risque absolu, cela correspondait à une incidence cumulée de 55,1 cancers hématologiques pour 10 000 enfants exposés, contre 14,3 pour 10 000 chez les non exposés, soit un excès de 40,8 cas pour 10 000 enfants (environ 0,4 % supplémentaires). Ces chiffres frappent les esprits, mais ils reflètent un passé révolu : l’étude s’arrête en 2017 et repose sur des scanners souvent installés dans les années 2000, bien plus irradiants que les machines utilisées aujourd’hui. De plus, les grandes études épidémiologiques sont sujettes à des biais, notamment de sélection : les enfants subissant plusieurs scanners sont souvent déjà atteints de maladies graves, ce qui peut exagérer statistiquement le lien entre exposition et cancer.

Ce surrisque n’est pas une réelle découverte. Une étude européenne EPI-CT a déjà analysé plus de 658 000 enfants ayant subi des scanners de la tête, avec une dose moyenne de 38 mGy au cerveau par examen. Elle a recensé 165 tumeurs cérébrales malignes et estime qu’un seul de ces examens pourrait induire, pour 10 000 enfants, un cas supplémentaire de tumeur dans les cinq à quinze années suivantes. L’ASNR indique aussi qu’en France, environ 100 000 ces scanners sont réalisés chaque année chez les enfants de 0 à 15 ans. Si les doses pouvaient être réduites de moitié, l’excès de risque attendu serait très limité (quelques cas supplémentaires sur une décennie), dans un contexte global de milliers de tumeurs survenant spontanément. De quoi relativiser et rassurer les parents inquiets face à des titres parfois sensationnalistes et sans nuance.

Comparer pour comprendre

Pour mieux situer les doses, rappelons que l’exposition naturelle aux rayonnements est en moyenne de 2 à 4 mSv 1 par an, principalement liée au radon présent dans l’air des habitations et aux roches granitiques dans certaines régions comme la Bretagne, où l’irradiation naturelle peut atteindre localement 5 à 7 mSv par an. Les rayons cosmiques contribuent aussi, surtout en altitude ou lors des vols aériens. À titre de comparaison, un vol Nice–New York de six heures représente environ 0,02 mSv, une dose proche de ce que délivre une radiographie pulmonaire. Les aliments comme les fruits de mer apportent une dose très faible et le tabac expose également, mais ces apports restent mineurs comparés au radon. Une radiographie de l’abdomen correspond à environ 0,7 mSv, soit trois à quatre mois d’irradiation naturelle. Un scanner de la tête délivre en moyenne 1,6 à 2 mSv, l’équivalent de huit à dix mois de rayonnement naturel ou 100 longs courriers. Un scanner thoracique adulte est plutôt autour de 6 mSv, soit environ deux ans et demi d’exposition naturelle. Une tomodensitométrie de l’abdomen ou de la colonne lombaire atteint 7 à 8 mSv, soit environ trois années de rayonnement naturel.

La révolution des “basses doses”

La bonne nouvelle, c’est que les machines de 2025 n’ont plus rien à voir avec celles d’il y a vingt ans. On parle désormais de scanners dits « basse dose ». Les innovations permettent de réduire l’irradiation tout en maintenant, voire en améliorant, la qualité des images. On utilise la modulation automatique du faisceau, des filtres adaptatifs, des détecteurs plus sensibles, et des reconstructions d’image assistées par algorithmes ou intelligence artificielle. Certains hôpitaux disposent déjà de scanners à comptage photonique capables de diminuer la dose d’environ 50 % tout en offrant une excellente résolution. Les autorités sanitaires françaises constatent une baisse continue des niveaux de référence diagnostiques entre 2016 et 2021 et encouragent des valeurs encore plus basses pour les enfants.

Malgré tout, pour que les progrès technologiques se traduisent concrètement par une réduction des doses, il est essentiel de renouveler régulièrement les appareils, idéalement tous les cinq à sept ans. Si la tarification des actes techniques est trop compressée, par exemple avec la réduction envisagée de 11 % dans la loi de financement de la Sécurité sociale, cela pourrait ralentir l’investissement dans du matériel moderne et compromettre l’effort de diminution des doses reçues par les patients.

Rassurer sans banaliser

En conclusion pour les parents, le message est rassurant mais demande de rester attentif : un scanner bien paramétré sur une machine récente délivre une dose faible, souvent inférieure ou comparable à l’irradiation naturelle annuelle. Lorsqu’un médecin prescrit un scanner, c’est parce qu’il attend un bénéfice diagnostique majeur. Plutôt que de craindre l’examen, il vaut mieux questionner son utilité, vérifier s’il existe une alternative sans rayons comme avec une échographie ou une IRM et s’assurer que l’appareil est moderne et adapté à l’enfant. Le principe ALARA (« As Low As Reasonably Achievable » ou aussi bas que raisonnablement possible) doit toujours guider la pratique. L’histoire de l’imagerie médicale n’est pas celle de la peur, mais celle du progrès réfléchi. Les scanners d’hier irradiaient beaucoup plus ; ceux d’aujourd’hui, bien utilisés, protègent tout en permettant de voir encore mieux.

  1. Pour interpréter les chiffres, rappelons que le gray (mGy) mesure l’énergie déposée, tandis que le sievert (mSv) intègre la sensibilité biologique des tissus exposés. Le discours public emploie plutôt souvent les mSv pour exprimer le risque de cancer. ↩

L’article Scanners pédiatriques, pas d’affolement !  est apparu en premier sur Les Électrons Libres.

  •  

Emploi : la nouvelle jeunesse des séniors !

Des boomers de plus en plus geeks, qui dament le pion aux jeunes sur le marché du travail ? Nous n’en sommes pas encore là. Mais un réel progrès en faveur de l’emploi des seniors dans le tertiaire se confirme, notamment grâce à l’entrée dans cette catégorie des premières générations ayant frayé avec les ordinateurs.

Faire du neuf avec du vieux

Imaginez une génération qui a grandi en découvrant, incrédule, les prémices de l’informatique personnelle. Des quinquas qui, enfants, bavaient devant les publicités pour la première console de jeux offrant la possibilité de se démener, manette en main, face au préhistorique « Pong » ; puis, adolescents, ont vu les cafés commencer à se débarrasser de leurs flippers au profit de jeux d’arcade comme Space Invaders, Asteroids, puis Pac-Man et Tetris. La même qui a appris le CD-ROM, puis les délices de ces ordinateurs dépourvus d’O.S., dont il fallait programmer chaque pixel d’action en Basic, puis en Pascal, tel le Sinclair ZX 81. Et ce avant l’arrivée du fameux Atari 520 ST et du premier Mac, avec leur processeur Motorola cadencé à 7,8 MHz et leur RAM figée à… 128 Ko, pour le second.

Deux révolutions qui ont forgé l’avenir de ces ancêtres du travail face aux écrans, alimenté par la navigation sur les logiciels des années 1980 et 1990, et qui, aujourd’hui, apporte une touche d’expérience unique dans un monde boosté par l’intelligence artificielle. En France comme en Europe, les seniors (55-64 ans) redessinent le paysage du travail, particulièrement dans le secteur tertiaire. Leur maîtrise pionnière des outils numériques et leur savoir-être affûté par des décennies d’expérience en font des acteurs précieux pour les entreprises. Bien plus qu’un simple atout, ils incarnent un pont entre tradition et innovation, contribuant à une économie plus équilibrée face au vieillissement démographique.

En France : une vitalité record et un élan numérique

Même si notre pays reste à la traîne par rapport à nos voisins, l’emploi des seniors atteint des sommets historiques : 60,4 % des 55-64 ans étaient actifs en 2024. Un bond de 2 points en un an et de plus de 12,4 points en dix ans ! Le secteur tertiaire, qui regroupe 70 % de ces travailleurs, est leur terrain de prédilection.

Pourquoi un tel engouement ? Cette génération, née entre 1965 et 1975, s’adapte avec aisance aux technologies modernes, y compris l’IA. Comme le souligne France Travail, « L’expertise de ces salariés, dépositaires des savoirs de l’entreprise, se caractérise par une certaine vision stratégique et une capacité de prise de recul forgées au fil des années. »

Mais ce n’est pas tout. Les réformes des retraites et les incitations fiscales encouragent cette dynamique, tout comme le désir des seniors de transmettre leur expertise. Dans les métiers du conseil, de la formation ou des services numériques, 80 % d’entre eux se disent motivés à partager leur savoir. Et ça fonctionne dans les deux sens : les jeunes forment leurs aînés aux dernières innovations technologiques, tandis que les seconds leur offrent fiabilité et sens de la collaboration. Résultat : 63 % des actifs estiment que ce mélange générationnel booste l’innovation tout en renforçant la cohésion des équipes. Un véritable cercle vertueux.

Europe : aussi des promesses

À l’échelle européenne, les seniors ne sont pas en reste. Avec un taux d’emploi dépassant les 75 % (pour les 55-64 ans), des pays comme la Suède et l’Allemagne sont en tête de peloton. Sans doute l’une des raisons ayant conduit la ministre de l’Économie d’outre-Rhin, Katherina Reiche, à envisager de repousser l’âge de départ à la retraite de ses concitoyens à 70 ans, même si ce sont essentiellement des préoccupations budgétaires qui dictent cette volonté.

Là encore, l’exposition précoce à l’informatique joue un rôle clé. Depuis 2010, le nombre de seniors actifs en Europe est passé de 23,8 millions à près de 40 millions en 2023. Dans des pays comme les Pays-Bas, des programmes de mentorat inversé permettent même aux concernés n’ayant pas immédiatement pris le virage du numérique de partager leur expérience tout en se formant aux outils modernes, compensant ainsi les limites de l’IA par leur intuition et leur recul. Car prompter est essentiellement un art du questionnement, dont l’âge est souvent la clé de la maîtrise.

Une idée confirmée par une large étude publiée par le FMI en avril dernier, qui stipule : « Cela suggère que, pour un niveau d’éducation donné, les travailleurs plus âgés peuvent bénéficier davantage de l’adoption de l’IA que les cohortes plus jeunes, car les premiers sont relativement plus concentrés dans les occupations à forte exposition et forte complémentarité. »

C’était… moins bien avant

Contrairement aux salariés nés entre 1940 et 1950, dont le taux d’emploi jusqu’aux années 2010 stagnait entre 40 % et 45 % en raison d’une exposition limitée à l’informatique et de politiques de préretraites massives, la cohorte actuelle gagne de 15 à 20 points.

Cette génération antérieure, souvent perçue comme réfractaire au numérique, subissait une exclusion structurelle, avec peu d’accès aux outils bureautiques émergents. Une analyse confirmée par David Autor et David Dorn, en 2009, dans l’American Economic Review, montrant que les études pointaient cette révolution comme un obstacle soudain à l’adaptation technologique des plus de 55 ans : un âge se présentant, en France, comme une barrière quasi infranchissable dans la quête d’un nouvel emploi après la perte du précédent.

Aujourd’hui, l’entrée précoce sur le marché durant le boom du PC permet une adaptation plus fluide, transformant les seniors en atouts pour l’IA, où leur vision humaine complète l’automatisation. Surtout, comme le précise aussi l’étude du FMI déjà citée : « Plusieurs caractéristiques des emplois à forte exposition à l’IA correspondent aux préférences des travailleurs plus âgés. Au cours des trois dernières décennies, il y a eu une augmentation générale des emplois adaptés à ces personnes, caractérisés par une activité physique moins exigeante, des niveaux de danger au travail plus faibles et un rythme d’activité modéré […] Ces caractéristiques sont attrayantes pour les travailleurs visés et s’alignent avec les gains positifs de leurs capacités cognitives dans le cadre d’un vieillissement en meilleure santé […], d’autant plus que ces emplois exposés à l’IA offrent généralement des revenus plus élevés. »

Ce shift générationnel réduit les discriminations et valorise l’expérience, avec 90 % des seniors engagés dans le transfert de compétences.

Mais tout n’est pas encore rose. Assez logiquement, seul le secteur tertiaire est touché par cette grâce en faveur des grands aînés. Selon la DARES, dans l’agriculture et le secondaire (industrie, construction), la situation de l’emploi des seniors reste très dégradée en France, avec une stagnation ou une baisse relative des effectifs depuis les années 2010. Une tendance observée dans la plupart des pays de l’OCDE. Les travailleurs âgés y sont sous-représentés en raison de la pénibilité physique accrue et des exigences en mobilité, limitant les embauches à moins de 10 % des postes. Cette disparité persiste en 2024-2025 et s’accompagne, dans tous les secteurs, de la subsistance de freins culturels à l’emploi, malgré l’embellie décrite dans cet article. France Travail note d’ailleurs : « Encore trop peu d’entreprises déploient une culture senior friendly. »

Et demain ?

D’ici 2030, l’emploi des seniors dans le tertiaire pourrait atteindre 75 % en France et 80 % en Europe, porté par l’IA et des formations adaptées. Dans des secteurs comme la cybersécurité ou le conseil digital, leur expérience historique devient un atout pour anticiper les disruptions. Les initiatives gouvernementales, comme la valorisation des salariés expérimentés lancée en 2025, promettent de réduire le chômage senior à moins de 5 %, tout en boostant le PIB de 2 à 3 % grâce à une productivité intergénérationnelle.

À voir, tout de même…
Il n’en demeure pas moins que cette génération, pionnière du numérique, ouvre la voie à une économie où l’expérience et l’innovation se nourrissent mutuellement. En créant des espaces de collaboration, comme des comités mixtes, les entreprises peuvent tirer le meilleur de chaque époque.

Les seniors ne sont pas seulement dans le coup. Ils sont au cœur de la transformation, prêts à façonner un avenir où chacun peut trouver sa place sur le marché de l’emploi.*

(Ce qui arrange votre rédacteur en chef, né en 1968, et ayant l’éternelle nostalgie de ses parties de Pong…)

L’article Emploi : la nouvelle jeunesse des séniors ! est apparu en premier sur Les Électrons Libres.

  •  

Le vent de l’IA souffle sur l’Europe

2 milliards d’euros levés en deux mois. Une décacorne française. Des licornes qui éclosent partout. L’Europe, longtemps spectatrice du grand bal numérique américain, s’invite à la table de l’intelligence artificielle. Et si cette fois, on ne ratait pas le coche ?

Soyons honnêtes : l’Europe a en grande partie loupé le train du numérique. Pas de GAFAM européen, pas de suite bureautique, aucun moteur de recherche ni réseau social majeur. Pendant que la Silicon Valley transformait le monde, nous regardions passer les trains. Nos talents partaient s’exiler outre-Atlantique, nos investissements restaient frileux et nos champions se faisaient racheter avant même d’atteindre leur majorité. De quoi constater avec amertume l’existence d’un écart qui pourrait sembler insurmontable pour l’Europe.

Mais voilà qu’une nouvelle course est lancée : celle de l’intelligence artificielle. Et le Vieux Continent a compris qu’il pouvait y participer. Les jeux ne sont pas encore faits. Les positions ne sont pas figées. Et surtout, nos atouts — la qualité de notre recherche, la force de nos ingénieurs — s’affirment. Notre exigence réglementaire, elle, reste un handicap… à moins que l’Europe ne réussisse à l’imposer au monde entier, auquel cas nos start-ups pourraient avoir un coup d’avance.

La France joue ses cartes : Mistral et le pari de la souveraineté

Décembre 2023 : Mistral AI est valorisée 2 milliards d’euros. Septembre 2025 : 11,7 milliards. En moins de deux ans, cette start-up française qui développe ses propres LLM a multiplié sa valeur par six, devenant au passage la première décacorne tricolore. Ce n’est pas juste une histoire de levée de fonds spectaculaire, c’est le symbole que l’Europe peut créer ses propres leaders de l’IA générative.

L’approche de Mistral ? Jouer la carte de la transparence et de l’open source face aux géants américains. Proposer une alternative qui respecte le RGPD plutôt que de le contourner. Faire de la souveraineté des données un atout commercial plutôt qu’une contrainte bureaucratique. Pour les entreprises européennes qui ne veulent pas confier leurs informations sensibles à des serveurs américains ou chinois, c’est une aubaine. Pour les citoyens soucieux de leurs données personnelles, c’est rassurant. Pour l’Europe, c’est stratégique.

Et Mistral n’est pas seule. Hugging Face, cette autre pépite française devenue « le GitHub de l’IA ». Concrètement ? Une plateforme collaborative et open source qui démocratise l’intelligence artificielle en offrant une bibliothèque géante de modèles préentraînés. Au lieu de créer son IA de zéro, n’importe quel développeur peut y piocher des briques prêtes à l’emploi et les adapter à ses besoins. Résultat : 1,3 million de modèles hébergés, un milliard de requêtes par jour, et même Google ou Meta y publient leurs créations. Avec une valorisation de 4,5 milliards de dollars, Hugging Face est devenue une infrastructure incontournable de l’écosystème mondial de l’IA et l’une des rares start-ups du secteur ayant déjà atteint son seuil de rentabilité.

De Londres à Stockholm : l’écosystème prend forme

Le phénomène dépasse largement nos frontières. À Londres, Synthesia révolutionne la production vidéo : des avatars numériques ultra-réalistes qui parlent toutes les langues, sans caméra ni acteur. Résultat ? 60 % des entreprises du Fortune 100 utilisent leur technologie pour leurs communications internes. Valorisation : 2,1 milliards de dollars.

En Suède, Lovable permet à n’importe qui de créer un site web fonctionnel simplement en décrivant ce qu’il veut. Au Royaume-Uni, PhysicsX applique l’IA à la simulation physique pour accélérer l’innovation en ingénierie. En Allemagne, DeepL offre des traductions d’une qualité qui fait rougir les géants américains, tandis que Black Forest Labs a développé FLUX Kontext, l’un des modèles d’édition d’images les plus performants au monde : il suffit de lui dire « change la couleur de la voiture en rouge » pour qu’il modifie précisément cet élément sans toucher au reste de l’image. Sans oublier Wayve, qui enseigne aux voitures à conduire seules dans les rues londoniennes.

Ces start-ups ne sont pas des imitations tardives de modèles américains. Elles explorent des niches, innovent selon des approches différentes et répondent à des besoins spécifiques. Elles construisent un écosystème diversifié où chacun apporte sa pierre à l’édifice global de l’IA européenne.

L’effet boule de neige : quand les licornes engendrent des licornes

Cette dynamique ne sort pas de nulle part. La France compte désormais 30 licornes, contre zéro en 2013. Ce changement quantitatif masque une transformation plus profonde : l’émergence d’une génération d’entrepreneurs et d’investisseurs qui ont appris à gérer des hypercroissances. Les fondateurs de Criteo, Fotolia, Datadog, Zenly, BlaBlaCar ou OVHcloud créent de nouvelles entreprises ou investissent dans la génération suivante. Les ingénieurs qui ont bâti ces succès lancent leurs propres projets.

Comment la Suède finance ses startups (et pourquoi la France échoue)

J’approfondis

Ce cercle vertueux, la Silicon Valley le connaît depuis des décennies. Chez nous, il commence à peine à tourner. Mais il tourne. Les gouvernements européens l’ont compris, et l’UE elle-même change de posture, passant du rôle de régulateur méfiant à celui d’accélérateur volontariste, comme en témoigne l’AI Summit organisé à Paris, il y a peu, réunissant tous les acteurs du secteur.

Les fantômes du passé : pourquoi il ne faut pas gâcher notre chance

Pourtant, le tableau n’est pas sans ombres. Les start-ups européennes brillent en phase d’amorçage et en séries A et B. Mais quand vient le moment de passer à l’échelle, de lever des centaines de millions pour conquérir le monde, l’argent se raréfie. Les fonds américains et asiatiques prennent alors le relais, imposant souvent un déménagement du siège social vers des cieux plus cléments fiscalement. Or, la réalité est têtue : avant 2021, nos entrepreneurs ont créé 46 licornes… mais aux États-Unis. Seulement 18 en France.

La fiscalité sur les capitaux et sur les hauts salaires, pourtant indispensable pour attirer les meilleurs ingénieurs mondiaux, reste parmi les plus élevées du monde. Une situation qui ne pourrait qu’empirer en cas d’instauration de la suicidaire taxe Zucman, agitée sans discernement ces dernières semaines, et qui s’en prend directement au capital des entreprises.

Pendant ce temps, la compétition ne s’arrête pas. La Chine, en État stratège omniprésent, injecte des milliards dans ses pépites nationales, tandis que les États-Unis gardent une avance confortable en capacité de calcul et en capitaux disponibles. Même des pays comme les Émirats arabes unis ou Singapour se positionnent agressivement sur le secteur, tandis que l’Inde, pourtant très dépendante du secteur informatique, semble avoir totalement raté le virage IA.

La croissance de demain se construit aujourd’hui

Alors oui, l’Europe a en partie raté la révolution numérique des années 2000. Mais l’histoire ne se répète jamais à l’identique. Nous avons des start-ups qui maîtrisent les fondamentaux. Un écosystème se met en place, des champions émergent. Tirons les leçons du passé pour les aider à grandir.

Mais attention, il serait tragique de saboter cette dynamique par frilosité fiscale ou rigidité réglementaire. L’enjeu n’est pas seulement économique — même si les emplois qualifiés et les exportations futures se jouent maintenant. Il est aussi stratégique : dans un monde où l’IA va structurer tous les secteurs, de la santé à la défense en passant par l’éducation, ne pas avoir nos propres fleurons, c’est accepter de dépendre entièrement de puissances étrangères.

Le risque de la vertu réglementaire

J’approfondis

Les Européens qui s’inquiètent de la domination américaine sur nos vies numériques devraient être les premiers à soutenir nos start-ups d’IA et nos acteurs du cloud souverain. Ceux qui veulent protéger nos données personnelles devraient applaudir Mistral. Ceux qui rêvent de souveraineté technologique devraient faciliter, pas entraver ni dénigrer, l’essor de notre écosystème.

L’Europe a longtemps été spectatrice. Aujourd’hui, elle est sur scène. À nous de lui donner les moyens de jouer les premiers rôles plutôt que de lui couper les jambes au moment où elle s’élance enfin.

L’article Le vent de l’IA souffle sur l’Europe est apparu en premier sur Les Électrons Libres.

  •  

La tentation du chaos

Tous irresponsables ? Alors que les tensions internationales s’intensifient, que les finances publiques vacillent et que l’économie s’enlise, les politiques rivalisent d’inconséquence et de postures populistes. Au point que les Français s’habituent au chaos — le plus sûr moyen de ne pas voir venir la chute.

Même si le cirque semble reprendre de manière désespérée jusqu’à mercredi, après le retrait de Bruno Le Maire du casting, l’immédiate chute du gouvernement Lecornu s’imposait comme une évidence. Bien que cette rapidité laisse songeur et témoigne de l’aspect rédhibitoire de la simple idée que l’attelage ait pu exister. Surtout après les deux tentatives improductives de dribbler l’absence de possible, figurées par les passages de Michel Barnier et François Bayrou par la case Matignon. Le fruit d’une majorité parlementaire de plus en plus introuvable, minée par les incohérences internes du bloc central, qui peinent à masquer les divergences idéologiques et stratégiques entre macronistes purs et alliés de droite. Les oppositions, de leur côté, ont systématiquement refusé tout compromis, érigeant des lignes rouges sur des réformes clés comme les retraites, les allocations chômage, la taxe Zucman, ou le gel des prix de l’énergie. Des exigences délibérément impossibles à satisfaire, produites pour forcer un retour aux urnes, soit par une dissolution anticipée, soit par la démission d’Emmanuel Macron lui-même. Cette stratégie de blocage, calculée pour exploiter le vide institutionnel, n’a laissé aucune marge de manœuvre, transformant l’exercice de nomination en un échec prévisible et inévitable. Nous verrons mercredi ce qu’il en sera définitivement, mais, vraisemblablement, la messe est dite et de toute façon, sans Lecornu..

Gabriel Attal l’a bien résumé en qualifiant la séquence « de spectacle affligeant », un jugement partagé par une large part des Français qui assistent, impuissants, à une déliquescence politique accélérée. Un sentiment immédiatement confirmé par un sondage Elabe pour BFM TV, 86% de nos concitoyens estimant avoir assisté à « un spectacle navrant donné par la classe politique qui n’est pas à la hauteur de la situation ». Au-delà du fiasco immédiat, cette crise aggrave la dégradation de l’image de la France sur la scène internationale, où nos partenaires, de Bruxelles à Washington, observent avec inquiétude – ou ironie gourmande – un pays autrefois pilier de l’Europe, désormais enlisé dans l’instabilité. Si cela était encore possible, elle accentue encore la défiance des citoyens envers la politique, perçue comme un théâtre d’egos et de postures, éloignant un peu plus les électeurs des urnes et favorisant l’abstention ou les votes protestataires. Plus grave encore, elle accélère l’ascension des forces populistes, en progression partout sur le continent. Comme nous l’avons encore constaté en Tchéquie ces derniers jours – mais aussi en Géorgie -, après les législatives ayant vu le parti ANO d’Andrej Babiš, populiste et eurosceptique, remporter la victoire avec 35 % des voix et 80 sièges sur 200, reléguant les coalitions pro-européennes au second plan et promettant une réduction de l’aide à l’Ukraine tout en défiant les institutions de l’UE.

France : le corps nu

En France, une dissolution ou la démission du président ne feraient que perpétuer ce cycle, alors que nulle autre solution n’existe pourtant. Le pays est piégé, soit promis au Rassemblement national, par la voie des urnes, soit au chaos souhaité par l’extrême gauche, par celle de la rue. À moins que ne se réalise la fameuse « union des droites », un euphémisme validant la dernière étape de l’effacement des digues déjà branlantes entre la droite républicaine et son versant extrême. Une situation exacerbée par les jeux d’apprentis sorciers inconséquents d’un Emmanuel Macron aperçu seul sur les quais de Paris à la suite de la défection de Sébastien Lecornu.

Cette instabilité interne profite directement aux puissances étrangères qui misent sur la fragilisation de la France et de l’Europe. Les États-Unis, sous une administration de plus en plus isolationniste, nous regardent avec un mépris conquérant, voyant dans notre chaos une opportunité de rééquilibrer les alliances atlantiques à leur avantage exclusif, en imposant des termes plus favorables dans les négociations commerciales ou sécuritaires. Mais c’est surtout la Russie qui tire les marrons du feu. Notre inconséquence politique lui mâche le travail de sa guerre hybride à notre encontre. Depuis janvier 2025, Moscou orchestre une offensive informationnelle massive contre la France, avec des campagnes de désinformation sophistiquées, comme l’a révélé un rapport de Viginum couvrant les six premiers mois de l’année. Ces opérations inondent les réseaux sociaux de faux contenus pour semer la division, discréditer notre soutien à l’Ukraine, et amplifier les narratifs internes de crise pour éroder la cohésion nationale. En fragilisant nous-mêmes Paris, nous offrons à Moscou un levier inespéré en faveur de ses ambitions.

Au cœur de ce grotesque indigne, où seul Sébastien Lecornu a fait preuve de dignité en remettant sa démission sans effusions théâtrales, les conséquences sociales et économiques pèsent comme une menace existentielle. Cette crise de régime s’ancre profondément dans l’incapacité persistante à adopter un budget pour 2025, forçant l’État à opérer sous une loi spéciale prorogeant les crédits de 2024, un palliatif qui paralyse toute action ambitieuse. Les retombées sont immédiates et multiformes : gel des investissements publics dans les infrastructures vitales, comme les réseaux de transport ou les équipements numériques, qui retarde la modernisation du pays ; report des aides sociales aux ménages vulnérables ; blocage des réformes en matière de formation professionnelle, laissant des milliers de travailleurs sans outils pour s’adapter aux mutations du marché du travail ; et une précarité accrue pour les services publics essentiels qui mine la cohésion sociale et alimente un sentiment d’abandon chez les citoyens les plus fragiles.

Les marchés financiers, impitoyables sentinelles de la stabilité, réagissent avec une défiance accrue, entraînant une hausse dramatique des taux d’intérêt sur la dette souveraine. L’OAT à 30 ans culmine à 4,523 % en septembre 2025, son plus haut depuis juin 2009, tandis que les taux à 8 ans ne cessent de grimper voisinant les 4 % en septembre, reflétant une prime de risque qui alourdit la charge annuelle de plusieurs milliards d’euros. Avec une dette publique dépassant les 115,6 % du PIB en septembre – soit 3 416 milliards d’euros –, ce seuil critique expose le pays à des dynamiques spéculatives potentiellement incontrôlables, où chaque point de hausse des taux ajoute des milliards à la facture. Cette vulnérabilité est amplifiée par les dégradations de la note souveraine. Fitch l’a abaissée à A+ le 12 septembre, soulignant notre fragilité budgétaire comme politique, et Moody’s pourrait lui emboîter le pas le 24 octobre, augmentant encore les coûts d’emprunt. Et cela tombe au pire moment, avec de prochaines échéances majeures de remboursement estimées à environ 50 milliards d’euros en obligations arrivant à maturité, à refinancer dans un climat de tension accrue qui pourrait précipiter une spirale vicieuse.

Le secteur privé subit aussi de plein fouet ces turbulences. Les faillites d’entreprises s’enchaînent en cascade, avec plus de 67 000 défaillances sur un an au deuxième trimestre 2025, en hausse de 3,5 % par rapport à 2024 et un pic de 10,6 % pour les PME dans les secteurs du commerce et des services, où la contraction de la demande et les coûts accrus d’emprunt étouffent les marges. L’investissement privé se contracte violemment, alors qu’il est indispensable pour financer la transition vers l’intelligence artificielle et défendre l’innovation, domaines où la France et l’Europe, certes de plus en plus réactifs, accusent encore un retard flagrant face aux géants américains et chinois – avec seulement 109 milliards d’euros mobilisés en février pour tenter de combler le fossé. Cette contraction menace directement l’emploi, avec des centaines de milliers de postes en péril dans les secteurs high-tech, de l’industrie et des services, freinant les embauches et aggravant le chômage au moment où la formation et la reconversion deviennent cruciales.

À l’instant où le monde impose une transformation structurelle profonde – numérisation accélérée des économies, recomposition des chaînes de valeur mondiales face aux tensions géopolitiques, adaptation au changement climatique, renforcement des souverainetés stratégiques en énergie, technologies et défense –, la France choisit le blocage et l’immobilisme politique. C’est une irresponsabilité absolue, qui non seulement hypothèque son avenir immédiat en l’exposant à des chocs financiers et sociaux, mais vole aussi aux générations futures leur droit à une nation compétitive, résiliente et prospère. En persistant dans cette voie, nous risquons, non pas une simple crise passagère, mais un déclin durable. Sans un sursaut collectif pour dépasser les clivages et prioriser l’intérêt national, le désastre ne sera plus une menace, mais une réalité. Et dans ce contexte, le pire danger serait de s’habituer au chaos, de banaliser le désordre pour en faire un contexte de vie ouvrant la porte à tous les déshonneurs, à toutes les solutions inhumaines considérées comme seules issues et regardées avec une froide indifférence… L’histoire a déjà été témoin de ces moments. Avant de pousser l’humanité à s’en excuser tardivement. Toujours trop tardivement…

L’article La tentation du chaos est apparu en premier sur Les Électrons Libres.

  •  

L’effet Laffer : taxer plus pour gagner moins

En Norvège, la taxe façon Zucman vire au fiasco. Au Royaume-Uni, la chasse aux riches déclenche un exode massif. Pourtant, la classe politique française s’obstine à croire qu’augmenter l’impôt sauvera les finances publiques. Dans un pays déjà asphyxié par les prélèvements, taxer plus, c’est récolter moins — et hypothéquer l’avenir.

1974, dans un restaurant de Washington. L’économiste Arthur Laffer griffonne une courbe sur une serviette en papier pour convaincre deux conseillers du président Gerald Ford d’une idée simple : taxer à 0 % rapporte 0, taxer à 100 % rapporte 0. Entre les deux existe une nuance efficace pour l’État. Franchissez-la, et chaque micron d’impôt supplémentaire détruit plus de richesse qu’il n’en collecte.

Cinquante et un ans après ce repas, cette idée n’a jamais été aussi centrale, tandis qu’en France, de la taxe Zucman à celle sur le patrimoine financier, l’offensive politico-médiatique pousse à instaurer des prélèvements toujours plus lourds sur les plus fortunés qui n’ont pas encore quitté le pays.

Des expériences récentes doivent pourtant nous alerter. Elles se sont toutes avérées désastreuses.

La faillite du “Zucman norvégien”

En 2022, la Norvège a décidé de taxer davantage les patrimoines les plus élevés en durcissant son impôt sur la fortune (formuesskatt) et en alourdissant la taxation des dividendes. Le taux marginal de l’impôt sur la fortune est ainsi passé à 1,1 % pour les patrimoines dépassant 20 millions de couronnes (environ 1,7 million d’euros), avec une particularité redoutable : cet impôt s’applique sur la valeur de marché des actifs, imposant ainsi les plus-values latentes — c’est-à-dire avant même leur réalisation.

Pire encore, voilà un piège fiscal redoutable : l’État norvégien taxe désormais 75 % de la valeur des entreprises (contre 55 % avant), même si cette valeur n’existe que sur le papier. Et pour payer cet impôt sur des gains non réalisés, les propriétaires doivent verser des dividendes… eux-mêmes taxés à 37,84 %. Un cercle vicieux où l’impôt s’auto-alimente. Le gouvernement de centre gauche tablait sur un gain annuel de 1,5 milliard de couronnes norvégiennes (environ 128 millions d’euros).

En réaction, plus de 30 milliardaires et multimillionnaires ont quitté le pays en 2022 — plus que durant les treize années précédentes réunies. La Suisse, avec son impôt sur la fortune plafonné à 0,3 % dans certains cantons et l’absence d’imposition des plus-values mobilières privées, est devenue la terre promise de cet exode fiscal. Un cas illustre l’ampleur des dégâts : le départ de l’industriel Kjell Inge Røkke représenterait à lui seul une perte annuelle de 175 millions de couronnes pour le fisc norvégien (environ 15 millions d’euros).

Au total, entre septembre 2022 et avril 2023, 315 foyers norvégiens fortunés, dont 80 classés comme « très riches », se sont installés en Suisse, emportant avec eux leur contribution globale aux finances publiques : impôt sur le revenu, cotisations sociales, TVA sur leur consommation, etc.

Une analyse du média Citizen X a estimé la perte nette de revenus fiscaux à environ 381 millions d’euros, soit trois fois le gain initialement projeté pour les hausses d’impôt. La prévision gouvernementale reposait sur une analyse statique, supposant que la base imposable resterait inchangée.

Au-delà des recettes fiscales perdues, c’est toute l’économie productive qui souffre. En imposant chaque année la valeur latente des actions d’entreprise, le système contraint les entrepreneurs à puiser dans les réserves ou la trésorerie de leur société pour régler l’impôt, au détriment de l’investissement ou de l’emploi. Cette décapitalisation récurrente ampute leur capacité à investir, innover ou embaucher — en plus d’être vexante.

Une étude du National Bureau of Economic Research (NBER), menée sur des données scandinaves, en quantifie l’impact : dans les années suivant le départ d’un propriétaire pour raisons fiscales, l’emploi dans son entreprise chute de 33 %, la valeur ajoutée de 34 % et les investissements de 22 %.

Bien loin de nuire aux seuls riches qu’ils visent, les nouveaux impôts norvégiens touchent l’ensemble de la population par un affaiblissement des ressources de l’État et une dégradation de l’économie.

« Wexit » britannique : quand la chasse aux riches tourne au fiasco

En avril 2025, le Royaume-Uni a mis fin à l’un des plus anciens privilèges fiscaux au monde : le statut « non-dom ». Vieux de 225 ans, ce régime permettait aux résidents britanniques dont le domicile permanent était à l’étranger de ne payer l’impôt que sur leurs revenus au Royaume-Uni, laissant leur fortune offshore intouchée. Environ 69 000 personnes en bénéficiaient, versant 12,4 milliards de livres au fisc de Sa Gracieuse Majesté en 2022.

Le nouveau système, baptisé Foreign Income and Gains (FIG), n’offre plus qu’une exemption de quatre ans aux nouveaux arrivants, contre un régime quasi permanent auparavant. Surtout, il introduit une « queue fiscale » redoutable : quiconque a vécu dix ans au Royaume-Uni voit ses actifs mondiaux soumis aux droits de succession britanniques (40 %) pendant trois à dix ans après son départ. Le gouvernement travailliste projetait 33,8 milliards de livres de recettes sur cinq ans.

L’hémorragie a commencé avant même l’entrée en vigueur de la loi. Dès l’annonce de la réforme en mars 2024, la fuite massive a démarré : 10 800 millionnaires ont quitté le pays dans l’année, soit une hausse de 157 % par rapport à 2023. Pour 2025, où le texte sera effectivement appliqué, les projections anticipent 16 500 départs supplémentaires, ce qui ferait du Royaume-Uni le champion mondial de l’exode des fortunes.

Le pari budgétaire pourrait même virer au cauchemar. Des analyses indépendantes du Centre for Economics and Business Research (CEBR) ont identifié un seuil critique : si plus de 25 % des non-doms partent, le gain fiscal se transformera en perte nette. À 33 %, le trou atteindrait 700 millions de livres la première année et 3,5 milliards sur la législature. Or, 60 % des conseillers fiscaux prévoient que plus de 40 % de leurs clients non-doms partiront dans les deux ans — bien au-delà du seuil fatal.

L’impact économique observé dès 2024 dépasse largement les seules recettes fiscales. Le marché immobilier de luxe londonien s’est effondré : aucune transaction supérieure à 100 millions de livres en 2024 ; 70 % des vendeurs de propriétés haut de gamme sont des non-doms en partance vers Miami, Dubaï ou Monaco. Le secteur du commerce de détail a perdu 169 000 emplois en 2024, le pire résultat depuis la pandémie. Les services financiers ont vu leurs offres d’emploi chuter de 28 %.

Ce fiasco britannique rappelle le cas norvégien : la taxation des plus riches finit souvent par appauvrir bien au-delà de sa cible initiale et aggrave les déficits de l’État.

La taxe yachts française : entre 200 et 500 euros perdus pour chaque euro taxé

En 2018, la France a instauré une surtaxe sur les grands yachts de plus de 30 mètres, censée rapporter 10 millions d’euros par an. L’objectif affiché ? Compenser symboliquement la suppression de l’ISF et faire contribuer les « signes extérieurs de richesse » jugés « improductifs ».

En sept ans, le total des recettes atteint péniblement 682 000 euros, soit moins de 1 % des 70 millions espérés. En 2025, seuls cinq navires sont taxés, contre une cinquantaine attendue. Les coûts de gestion de la taxe excèdent vraisemblablement déjà les maigres recettes perçues.

Mais le véritable gouffre se situe ailleurs. On peut estimer les pertes fiscales indirectes dues à la fuite des yachts (TVA sur l’avitaillement, charges sociales des équipages, taxes sur le carburant, impôts sur les sociétés de services) à un montant annuel compris entre 20 et 50 millions d’euros, sur la base des baisses d’activité constatées dans les principaux ports azuréens. Ainsi, pour chaque euro collecté par la taxe, l’État en perd entre 200 et 500 en recettes indirectes chaque année. Bien joué.

Outre les recettes fiscales, le désastre est également économique. Face à cette taxation de 30 000 à 200 000 euros annuels, les propriétaires ont massivement changé de pavillon vers la Belgique, les Pays-Bas ou le Panama.

Le résultat est terrible pour la Côte d’Azur. Le Port Vauban d’Antibes, le plus grand d’Europe dédié au yachting, a vu son activité chuter de 33 % et ses ventes de carburant de 50 %. Le « Quai des Milliardaires » s’est vidé par anticipation dès l’été 2017. À Saint-Tropez et Toulon, les pertes de chiffre d’affaires en escale ont atteint 30 à 40 %.

L’onde de choc a fini par toucher tout l’écosystème productif : commerces de luxe, avitailleurs, équipages, etc. Le secteur du yachting génère 1 à 2,1 milliards d’euros de retombées annuelles en région PACA et soutient 10 000 emplois directs.

La France possède le deuxième espace maritime mondial, est leader sur les voiliers, et 36 % de la flotte mondiale de yachts fréquente la Méditerranée. Pourtant, en 2025, le Port Vauban n’accueille aucun yacht sous pavillon français, et la surtaxe sur les yachts n’a ni disparu, ni même fait l’objet d’une évaluation rigoureuse par le législateur.

Quand l’État français cloue les avions au sol

J’approfondis

Des taxes qui coûtent cher à l’État et à toute la société

L’histoire fiscale moderne regorge d’exemples frappants de taxes conçues pour punir les riches, mais qui finissent par nuire aux finances publiques et à l’ensemble de l’économie.

En France, la « mise au barème » des revenus du capital par François Hollande en 2013 était censée rapporter 400 millions d’euros. D’après une note de l’Institut des politiques publiques, elle a entraîné une perte fiscale de 500 millions d’euros, en provoquant un effondrement des dividendes de 14 milliards d’euros.

Aux États-Unis, la proposition de taxe Warren de 2019 — 2 % au-dessus de 50 millions de dollars, 6 % au-dessus d’un milliard — a été évaluée par l’Université de Pennsylvanie. Verdict : même en utilisant les recettes pour exclusivement réduire le déficit, l’effet sur 30 ans était estimé à –0,9 % de PIB et –0,8 % de salaires.

L’économiste Gabriel Zucman lui-même a publié une étude sur l’impôt sur la fortune danois des années 1980. Elle montre que pour chaque couronne prélevée, les contribuables réduisaient leur patrimoine de cinq couronnes supplémentaires en modifiant leurs comportements d’épargne et d’investissement. Il s’agissait donc d’un outil redoutablement efficace pour détruire la richesse, pas pour combler les déficits de l’État. Le Danemark l’a d’ailleurs abrogé en 1997.

Quid de la « taxe Zucman » elle-même ? L’économiste Antoine Levy a décortiqué la note du Conseil d’analyse économique (CAE) — que Zucman cite lui-même comme référence — et révèle que cette taxe, loin de rapporter 20 milliards comme annoncé, impliquerait une perte nette pour l’État. La note du CAE montre que l’exil fiscal ne représente que 27 % des recettes perdues ; la réponse comportementale totale (réduction des dividendes, ventes d’actifs, restructurations patrimoniales, etc.) ferait grimper les pertes fiscales à près de 30 milliards d’euros.

Les prévisions optimistes des législateurs reposent sur une erreur fatale : croire que les contribuables resteront immobiles face aux prédations fiscales. Dans les faits, ils fuient, réduisent leur production ou leurs investissements, ou encore déploient des stratégies d’évitement. Les politiques fiscales ont un pouvoir immense sur ce que chacun fait de sa vie. Avec des taxes excessives, l’État perd plus d’argent qu’il n’en gagne, tout en appauvrissant tout le monde au passage.

Quand baisser les impôts remplit les caisses de l’État

J’approfondis

Le 23 septembre dernier, l’économiste Thomas Piketty a livré une réponse glaçante aux critiques de la « taxe Zucman ». Face aux objections sur le risque d’exil fiscal, il rétorque sans trembler : « Vos actifs sont gelés, vous pouvez être arrêtés à l’aéroport. »

Au-delà de son inefficacité évidente — les contribuables trouveront mille autres façons d’adapter leurs comportements —, cette proposition est extrêmement dangereuse. Quel type de régime interdit à ses ressortissants de quitter le territoire national ? On ne le sait que trop bien. Que reste-t-il de la liberté inscrite dans notre devise quand des agents de l’État contrôlent les départs sur des critères patrimoniaux ? Rien. Les velléités autoritaires d’économistes tels que M. Piketty doivent être dénoncées sans ambiguïté, car l’histoire a déjà montré jusqu’à quelles atrocités mènent de telles illusions.

À moins que la destruction de l’assiette fiscale soit voulue ? Gabriel Zucman lui-même l’assume avec une franchise déconcertante dans son ouvrage Le Triomphe de l’injustice : « Dans ce chapitre, nous allons expliquer pourquoi des gouvernements démocratiques peuvent raisonnablement choisir d’appliquer aux riches des taux supérieurs à ceux qui maximisent les recettes fiscales — c’est-à-dire pourquoi détruire une partie de l’assiette fiscale peut être dans l’intérêt de la collectivité. » (nous soulignons)

Est-il vraiment dans l’intérêt de la collectivité d’aggraver les déficits qui nourrissent la dette léguée aux jeunes, de réduire les financements de l’école, de la santé et de la transition énergétique ? A-t-on bien réfléchi à l’intérêt de la société quand on promeut des mesures qui violent le droit de propriété inscrit dans la Déclaration des droits de l’homme et du citoyen, tout en appauvrissant le pays ?

Les expériences récentes convergent toutes vers une même conclusion : La satisfaction tirée de la volonté de « faire mal aux riches » ne saurait justifier de nuire gravement à l’avenir du pays.

L’article L’effet Laffer : taxer plus pour gagner moins est apparu en premier sur Les Électrons Libres.

  •  

Moustique : sus au tueur né

Paludisme, dengue, chikungunya, Zika… quatre terribles maladies transmises par un même tueur. Grâce aux vaccins, aux biotechnologies ou aux moustiques modifiés, l’humanité peut enfin espérer les éradiquer. Juste à temps, car ce minuscule meurtrier envahit progressivement la France.

Si l’on vous demandait quel est l’animal le plus dangereux pour l’homme, vous penseriez peut-être au requin, au serpent ou au chien. En réalité, l’ennemi public numéro un est minuscule, léger comme une plume et se glisse discrètement dans nos nuits : le moustique.

Derrière son bourdonnement agaçant se cache un tueur de masse. Au cours du dernier siècle, les maladies qu’il transmet — paludisme, dengue, chikungunya, Zika, fièvre jaune — ont causé des dizaines de millions de morts. Aujourd’hui encore, près de 800 000 personnes meurent chaque année après une simple piqûre. C’est deux fois plus que les morts causées… par l’homme lui-même. À chaque lever de soleil, plus de mille familles dans le monde perdent un proche à cause d’un moustique.

Le paludisme : le plus vieux fléau de l’humanité

De toutes ces maladies, le paludisme reste le plus meurtrier. Selon l’OMS, en 2023 on comptait plus de 249 millions de cas dans 85 pays et plus de 600 000 décès, dont près de 80 % d’enfants de moins de cinq ans. Rien qu’en Afrique subsaharienne, toutes les deux minutes, un enfant meurt de cette infection. En Asie du Sud-Est, dans certaines régions d’Amérique latine et en Guyane, le parasite reste endémique, c’est-à-dire qu’il circule en permanence dans la population locale, avec des cas toute l’année ou qui reviennent à chaque saison des pluies, sans jamais disparaître complètement.

Dossier réservé à nos abonnés.

S'abonner dès 5€/mois

ou

Acheter ce dossier pour 1,50€

L’article Moustique : sus au tueur né est apparu en premier sur Les Électrons Libres.

💾

  •  

Numériser les usages ! Notre contrepoint au Shift

Freiner l’installation des data centers en France, pays de l’électricité bas carbone ? C’est le projet du Shift qui, après des prédictions ratées sur la 5G et le streaming, récidive avec de nouveaux scénarios alarmistes. Pourtant, le numérique tricolore est une opportunité pour la décarbonation de notre économie.

Le Shift Project persiste et signe. Dans son dernier rapport, le think tank fondé par Jean-Marc Jancovici estime que l’explosion mondiale de l’intelligence artificielle et de ses infrastructures va lourdement contribuer au réchauffement climatique. Et ses hypothèses ne lésinent pas sur les chiffres pharaoniques et anxiogènes. « Sans évolution majeure des dynamiques actuelles », il prédit un triplement de la consommation électrique des data centers à 1 250, voire 1 500 TWh à l’horizon 2030 (contre 400 TWh en 2020).

Des projections maximalistes, bâties sur les annonces des géants de l’intelligence artificielle et intégrant même le minage de cryptomonnaies, pourtant sans lien avec l’IA. Ainsi, le scénario le plus optimiste du Shift équivaut au plus pessimiste de l’Agence internationale de l’énergie, qui estime la fourchette entre 700 et 1 250 TWh.

Principal moteur : l’explosion de l’IA générative (700 millions d’utilisateurs hebdomadaires pour le seul ChatGPT, modèle d’OpenAI). Une situation qui conduirait, selon le think tank, à une augmentation des émissions de gaz à effet de serre (GES) de 9 % par an de la filière centres de données (au lieu d’une baisse annuelle de 5 % pour respecter les objectifs climatiques), dont l’essor repose encore massivement sur le gaz fossile, aux États-Unis et en Chine.

Le Shift estime donc « insoutenable » le développement mondial de ces infrastructures, à moins d’énormes efforts de décarbonation. Même prédiction pour l’Europe. Hugues Ferreboeuf, chef de projet Numérique, s’appuie sur le cas de l’Irlande où, suite à des incitations fiscales, la consommation des data centers est passée de 5 % à 20 % de l’électricité disponible. Un cas spectaculaire mais exceptionnel. À l’échelle de l’Union, cette part reste dix fois plus faible. Au point que le recours à cet exemple, peu représentatif des trajectoires européennes, interroge. D’autant que le Shift oublie de mentionner le Celtic Interconnector, qui permettra à la France d’exporter vers l’Irlande 700 MW de mix décarboné dès 2028, soit jusqu’à 6 TWh par an : l’équivalent de la consommation actuelle totale des data centers irlandais.

Le Shift y voit néanmoins un signal annonciateur et anticipe un doublement de la consommation électrique de la filière data centers européenne d’ici 2030, à 200 TWh. Ce qui, selon lui, risquerait de prolonger la dépendance de l’UE au GNL américain, que l’Europe importe pour compenser l’intermittence des énergies renouvelables. Que faire pour s’en prémunir ? Son constat est sans appel : il faut limiter le déploiement de l’IA « pour des usages ciblés et prioritaires ». Voire même l’interdire : « si ça ne suffit pas, on abandonne les fonctionnalités IA », assène sans trembler Maxime Efoui-Hess, coordinateur du programme « Numérique ».

Pourquoi cibler le champion français ?

À première vue, le raisonnement peut sembler logique. Mais le Shift ignore l’éléphant dans la pièce. Nous n’avons aucun moyen d’enrayer l’essor mondial des data centers, pas davantage que nous avons de prise sur l’empreinte carbone chinoise. Au mieux, ce lobbying peut freiner leur implantation en France. Or, avec une électricité parmi les plus décarbonées du monde et une obligation normative sur l’adoption de modèles économes en eau, notre pays figure parmi les meilleurs endroits pour les accueillir. Chaque data center installé ici, c’est un de moins qui tournera au charbon ou au gaz. Car leur nombre ne sera pas infini et qu’il s’agit d’un jeu à somme nulle.

Pauline Denis, ingénieure de recherche « Numérique » du Shift, pointe le risque de conflits d’usage. Selon elle, l’électricité captée par les data centers ne pourra pas servir à décarboner l’industrie. Pourtant, de l’électricité bas carbone, nous en avons plus qu’il n’en faut. La France a ainsi exporté 89 TWh en 2024, alors que ses centrales nucléaires étaient loin d’utiliser leur pleine capacité : 361 TWh, contre 430 en 2005 (418 en excluant Fessenheim).

Même si tous les projets annoncés lors du Sommet de l’IA voyaient le jour (109 milliards d’euros d’investissements), la consommation des data centers n’augmentera que de 25 TWh d’ici 2035, selon le Shift. Soit à peine 28 % de nos exportations actuelles. De quoi préserver, entre autres, la décarbonation des transports. Ainsi, les 40 à 50 TWh prévus pour les véhicules électriques resteraient couverts par notre excédent.

Malgré tout, ce surplus va-t-il vraiment « compromettre notre capacité à décarboner l’industrie » ? Ce pourrait bien être l’inverse. Faute de demande suffisante, nos centrales nucléaires fonctionnent en sous-régime, alors que leurs coûts fixes restent identiques. Résultat : des prix plus élevés qui freinent l’activité industrielle. Car, en réalité, notre consommation d’électricité recule année après année (–14 % en 20 ans), à rebours des scénarios de RTE et du Shift, qui n’en sont pas à une erreur prédictive catastrophiste près. Une hausse de la demande pourrait au contraire faire baisser les prix et enclencher un cercle vertueux d’électrification et de relocalisation.

Alors, vive les data centers made in France ? Toujours pas, selon Pauline Denis. Pour elle, « il faudrait prouver qu’installer 1 GW de data centers en France empêche l’installation d’1 GW ailleurs ». Sérieusement ?

Une longue tradition pessimiste et des scénarios fantaisistes

La méfiance du Shift Project envers le numérique ne date pas d’hier. Mais certaines de ses prédictions arrivent à échéance, et le constat est sévère. Début 2020, il annonçait que la 5G provoquerait 10 TWh de consommation supplémentaire en cinq ans, soit un doublement de toute l’activité des opérateurs français — fixe, mobile et data centers — et 2 % de la consommation nationale en plus. La réalité est toute autre. La hausse a été dix fois moindre et essentiellement liée à l’extension de la couverture en zones blanches, sans lien direct avec la 5G.

Même excès de sensationnalisme avec le streaming. Le Shift a relayé l’idée qu’une heure de visionnage équivalait à 12 km en voiture ou 30 minutes de four électrique. Une estimation huit à cinquante fois trop élevée selon l’IEA. Une erreur massive minimisée par le think tank. Faute d’erratum visible sur la page principale du rapport, le chiffre continue d’être repris dans les médias français.

Le shift : influenceur avant tout

J’approfondis

L’efficacité exponentielle de l’IA

Après ces errements, faire des prévisions sur une technologie aux progrès aussi foudroyants que l’IA semble bien téméraire. Charles Gorintin, cofondateur des start-up Alan et Mistral AI, soulignait déjà en janvier dernier la double révolution du secteur : « l’efficacité des modèles d’IA a été multipliée par 1 000 en trois ans et celle des puces par 100 depuis 2008 ».

En deux mois, une simple mise à jour des drivers a permis à Nvidia de doubler les performances de ses GB200, avec un nouveau gain attendu en décembre, où ils ne seront alors exploités qu’à 42 % de leur capacité (contre 22 % aujourd’hui) ! Le modèle chinois Deepseek V 3.2 a multiplié par 50 en un an la vitesse de l’attention, phase clé de l’inférence (utilisation) qui pèse 40 à 60 % du coût d’une requête. Google mise sur des modèles « QAT » (Quantization-Aware Training), entraînés et utilisés en 4 bits plutôt qu’en 16. De son côté, Alibaba a conçu Qwen3 Next, aussi performant que les géants du secteur, mais capable de tourner sur une seule carte de calcul.

Même en ignorant les évolutions matérielles, les performances des modèles permettent de baisser à vitesse grand V leur consommation de ressources, donc d’énergie et d’émissions de CO₂, à l’entraînement comme à l’utilisation. Des optimisations qui ne sont pas prises en compte par les règles de trois de nos amoureux de la décroissance.

Numérisons les usages !

Le rapport du Shift surprend aussi par le peu d’analyse des externalités positives du numérique. La visioconférence, par exemple, a réduit les déplacements et les émissions associées. Interrogé sur ce point, Maxime Efoui-Hess affirme que « ce n’est pas mesurable » et que « rien ne montre que le numérique a permis de décarboner le monde », puisque « les émissions des pays numérisés augmentent ». Une première erreur, surprenante de la part d’un spécialiste. Les émissions des pays riches, les plus numérisés, baissent depuis 18 ans. Il invoque également l’effet rebond, estimant que « l’on imprime moins de presse, mais [qu’]il y a beaucoup plus de carton pour la livraison ». C’est encore une fois faux, puisque la consommation de papier et de carton a baissé de 26 % en France depuis l’an 2000.

Avoir recours à l’IA permet déjà d’optimiser la consommation énergétique des bâtiments et des processus industriels et de développer de nouvelles solutions pour la transition écologique. Par essence, tous les processus effectués virtuellement, avec une électricité décarbonée, sont moins émetteurs que leurs équivalents physiques. Il faudrait au contraire le scander. La numérisation des usages est la suite logique de leur électrification !

Maxime Efoui-Hess reconnaît à mi-mot que mettre le numérique et l’IA au service de la décarbonation est possible, « à condition de regarder usage par usage si c’est bien pertinent ». On ne sait pas si l’on doit rire d’une telle prétention, ou trembler d’une volonté de contrôle aussi décontractée.

L’article Numériser les usages ! Notre contrepoint au Shift est apparu en premier sur Les Électrons Libres.

  •  

Mars, la quête de la vie

Trouver de la vie ailleurs… Une incroyable découverte, passée presque inaperçue dans le tumulte de la rentrée politique, a relancé ce vieux rêve, à quelques millions de kilomètres de nous, sur cette planète rouge qui fascine l’humanité depuis l’invention de la lunette astronomique.

Été 1877. Les conditions d’observation sont idéales. L’astronome italien Giovanni Schiaparelli scrute la planète rouge lorsqu’il croit distinguer un réseau de lignes géométriques. Intrigué, il tente de les schématiser et les baptise « canali », c’est-à-dire « canaux » en italien.

Lorsqu’il prend connaissance de ces travaux, son collègue américain Percival Lowell brûle d’enthousiasme. Car pour lui, ces lignes sont la signature indiscutable d’une civilisation extraterrestre. Porté par sa conviction, il fonde en 1894 son propre observatoire, dédié à l’étude de Mars et de ses mystérieux « canaux ». Et il ne se contente pas d’observer. Il médiatise ses certitudes, fascine le public et impose l’idée que Mars est habitée.

Peu importent les mises en garde des astronomes sceptiques, qui soupçonnent une simple illusion d’optique. Le récit s’installe, gagne l’opinion, et inspire bientôt des œuvres majeures de science-fiction, comme La Guerre des Mondes de H.G. Wells. Le mythe des « Martiens » venait de naître.

Le mystère de la vie

Il faudra attendre 1909 pour que la fable des « canaux martiens » s’effondre. Cette année-là, l’astronome franco-grec Eugène Antoniadi profite de conditions exceptionnelles et de la puissante lunette de l’Observatoire de Meudon. Son verdict est sans appel : aucune ligne droite sur Mars, seulement des formations diffuses, irrégulières, naturelles. Qu’importe, la machine est lancée. Mars est entrée dans l’imaginaire scientifique et populaire, et elle n’en sortira plus.

Peu à peu, au fil de la première moitié du XXe siècle, l’idée d’une civilisation martienne s’effrite. Les images de plus en plus nettes de la planète révèlent un monde désertique, bien loin de l’oasis de vie que l’on avait imaginée. Pourtant, une conviction demeure : Mars pourrait malgré tout abriter des organismes plus discrets.

Car la vie ne se limite pas aux êtres intelligents. Elle peut exister sous des formes bien plus simples, presque invisibles. Définir la vie est un défi, à la fois scientifique et philosophique, mais on peut toutefois la résumer comme un système organisé, capable de s’entretenir grâce à un métabolisme, et de se reproduire. Une cellule rudimentaire, avec une membrane, un liquide interne et un brin d’ARN, c’est déjà de la vie. Alors, pourquoi n’en trouverait-on pas sur Mars, même si sa surface paraît aride, bombardée de météorites et hostile à première vue ?

D’autant que Mars coche toutes les cases au départ. Les biologistes en conviennent, pas de vie sans eau liquide, ce milieu réactif idéal où s’enchaînent les réactions métaboliques. Or Mars est la seule planète, avec la Terre, à se situer dans la « zone habitable » de notre système : ni trop près du Soleil, ni trop loin, juste à la bonne distance pour que l’eau puisse rester liquide.

Et même si découvrir une forme de vie primitive sur Mars ne serait pas aussi spectaculaire que de croiser de « petits hommes verts » ambassadeurs d’une civilisation extraterrestre, ce serait déjà une révolution scientifique. Car cela signifierait que l’apparition de la vie n’est pas une anomalie rarissime. Si elle a émergé deux fois, sur deux planètes voisines d’un même système solaire, alors elle doit pulluler ailleurs dans l’Univers. Et qui dit vie fréquente dit, par extension, civilisations évoluées probablement nombreuses. De surcroît, étudier d’éventuelles bactéries martiennes offrirait un éclairage unique sur nos propres origines, encore très mystérieuses.

Vénus, une atmosphère d’enfer

J’approfondis

Un problème de taille

Pourtant, dès la fin des années 1950, un doute s’installe. L’atmosphère martienne pourrait être trop ténue pour permettre la présence d’eau sous la forme liquide. Les premières estimations laissent penser que la pression serait très faible. Or, en dessous de 6,11 mbar — la fameuse pression du « point triple » de l’eau, là où les trois états peuvent coexister — l’eau passe directement de la glace à la vapeur, et inversement.

La confirmation tombe en 1965 avec le lancement de la sonde Mariner 4. L’humanité découvre pour la première fois les paysages martiens, aussi arides et désertiques que les scientifiques le redoutaient. Mais surtout, ses capteurs livrent un verdict implacable : la pression atmosphérique n’est que de 6 mbar. Juste en dessous du seuil fatidique. Le couperet tombe, à la surface de Mars, l’eau liquide est physiquement impossible.

Pourquoi une atmosphère aussi fine ? À cause de la petite taille de la planète. Avec un diamètre deux fois plus petit que celui de la Terre, Mars s’est refroidie trop vite, jusqu’à se figer entièrement. Contrairement à la Terre, plus massive, qui conserve un noyau partiellement liquide. Et c’est ce bouillonnement métallique interne qui, chez nous, génère un champ magnétique protecteur. Mars, elle, en est dépourvue. Ainsi, sans magnétosphère pour dévier les particules ioniques, son atmosphère a été lentement érodée par le vent solaire.

Et si l’espoir gravitait autour des géantes gazeuses ?

J’approfondis

Autrement dit, si Mars avait eu la taille de la Terre ou de Vénus, l’histoire aurait sans doute été différente. Mais dans l’état actuel des choses, l’idée de trouver une forme de vie à sa surface s’éloigne… 

Les nodules de l’espoir

Il reste pourtant une dernière carte à jouer. Car si aujourd’hui la vie en surface semble compromise, il n’en a probablement pas toujours été ainsi. Les sondes ont détecté dans les roches martiennes les traces d’un ancien champ magnétique, preuve que la planète possédait bel et bien une magnétosphère jusqu’il y a 3,7 milliards d’années.

En conséquence, à l’époque, l’atmosphère devait être plus épaisse qu’aujourd’hui, assez pour maintenir de l’eau liquide en surface. Par ailleurs, les indices topographiques abondent : anciens canyons, deltas, lits de lacs, roches sédimentaires stratifiées… Il semble avéré que Mars ait connu une longue période — près de 800 millions d’années — où les conditions semblaient favorables à l’émergence de la vie. Était-ce suffisant ? C’est précisément ce que tentent d’élucider les rovers actuels.

Traces d’écoulement sur la surface martienne – © ESA / DLR / FU Berlin (G. Neukum)

Car la vie laisse des traces. Parfois directes, comme la fossilisation dans les roches. Parfois indirectes, à travers ce qu’on appelle des biosignatures : molécules organiques, minéraux particuliers ou textures caractéristiques des métabolismes biologiques. Et c’est peut-être bien ce que Perseverance vient de révéler.

Son terrain de chasse : le cratère Jezero, ancien lac martien riche en sédiments argileux, parfaits pour piéger des restes biologiques. C’est là, dans la vallée de la Neretva, au sein d’une formation baptisée Bright Angel, que le rover a foré d’anciennes couches de boue fossilisée jusqu’à découvrir… de minuscules nodules riches en fer et en phosphore, entourés de carbone organique.

Nodules riches en vivianite et en greigite – © NASA / JPL-Caltech / MSSS

Du carbone organique d’origine abiotique, on sait que c’est possible. Mais la composition de ces nodules intrigue : ils semblent faits de deux minéraux, la vivianite (phosphates de fer) et la greigite (sulfures de fer). Or, ces minéraux résultent de réactions d’oxydo-réduction très spécifiques. Théoriquement, elles peuvent se produire sans intervention biologique… mais seulement dans des conditions environnementales très contraignantes, et difficiles à reconstituer ici. L’autre hypothèse, bien plus séduisante, est que ces réactions auraient été catalysées… par des micro-organismes. Un scénario crédible, puisqu’on observe sur Terre des nodules similaires produits par l’action de bactéries.

Les chercheurs restent toutefois prudents. Pour trancher, il faudra rapatrier et analyser directement les échantillons sur Terre. C’est tout l’enjeu du programme Mars Sample Return (MSR). Mais ce projet titanesque se heurte à la réalité. Le plan initial, trop lent et trop coûteux (11 milliards de dollars pour un retour vers 2040), a été abandonné. La NASA planche sur d’autres solutions, avec possiblement l’appui du secteur privé — SpaceX et Blue Origin en tête — pour accélérer la cadence. Mais l’avenir du programme reste suspendu aux arbitrages politiques : l’administration Trump évoque même la possibilité de couper son financement pour privilégier les missions habitées, notamment vers la Lune.

En somme, les indices d’une vie passée sur Mars n’ont jamais été aussi solides, mais il faudra encore patienter — et peut-être affronter quelques batailles politiques — avant de lever le voile sur l’un des mystères les plus fascinants de notre système solaire.

L’article Mars, la quête de la vie est apparu en premier sur Les Électrons Libres.

  •  

Kessel : un siècle avant la flottille

Un siècle avant la Flottille pour Gaza, Joseph Kessel prenait la mer pour rejoindre la Palestine. Une expédition bien différente, qui nous éclaire sur le conflit actuel… et sur notre société du spectacle.

Avril 1926, Marseille. Joseph Kessel embarque pour Jaffa. Comme souvent, ses voyages sont nés de rencontres avec des êtres charismatiques, Monfreid, Mermoz, Kersten… Ce jour-là, l’homme qui l’accompagne se nomme Chaïm Weizmann. Difficile de trouver deux personnalités plus antagonistes. Kessel, nomade agnostique, étranger à toute ferveur religieuse, indifférent aux appels du patriotisme comme aux élans des causes collectives, est à mille lieues de l’ardeur qui étreint le futur premier chef de l’État d’Israël. Mais celui qui fait sienne la devise de Péguy, « Dire bêtement la vérité bête, ennuyeusement la vérité ennuyeuse, tristement la vérité triste », veut voir, et raconter.

Une terre d’espoir et de feu

Contrairement à la flottille d’aujourd’hui, il ne s’attarde pas sur sa traversée de la Méditerranée. L’important n’est pas le voyage, mais la destination. La « mer de la civilisation » s’échoue sur une terre âpre, où le feu du soleil brûle les visages et les terres, où la malaria décime les familles. Même l’eau enflamme les chairs.

Depuis 1920, la Palestine est sous mandat britannique. Une conséquence de l’effondrement de l’Empire ottoman et de sa défaite lors de la Première Guerre mondiale. Son territoire correspondant grosso modo aux actuelles terres d’Israël, de la Cisjordanie et de Gaza. Elle compte alors environ 600 000 Arabes et un peu plus de 150 000 Juifs. La majorité de ces derniers sont des immigrants arrivés depuis la fin du XIXᵉ siècle de Russie, de Pologne ou d’Ukraine, venus se mêler aux communautés juives autochtones présentes sur place de longue date. Les premiers sionistes, les Amants de Sion, s’étaient embarqués à la suite d’émeutes antijuives en Russie. D’autres les ont rejoints après guerre, soupçonnés d’avoir pris part à la révolution d’Octobre et pourchassés par les armées blanches, nationalistes et cosaques. Peu de temps avant que les bolcheviques, à leur tour, ne s’en prennent à eux, voyant dans le sionisme une entreprise capitaliste, bourgeoise et nationaliste. Car ce nouveau sionisme, théorisé à la fin du XIXᵉ siècle par Theodor Herzl, propose pour la première fois la création d’un foyer national pour le peuple juif, en réponse aux persécutions.

Kessel arrive dans un pays qui semble s’ébrouer après plusieurs siècles d’une vie immuable. Les fellahs, petits paysans arabes accablés de labeur et d’impôts dans un système féodal, voient les plaines se couvrir de cultures, les villes s’élever et une nouvelle liberté poindre… qui va bientôt inquiéter leurs maîtres.

Une langue, mille rêves

Comme toujours, Kessel s’intéresse davantage aux êtres qu’à la politique. Des kvoutza, ces ancêtres du kibboutz, aux communautés orthodoxes, il découvre autant de projets sionistes qu’il y a de rêves individuels. L’individu, pourtant, s’efface derrière cette espérance collectiviste qu’il a conçue en songe.

Au cœur de la vallée de Jezreel, les jeunes idéalistes socialistes qu’il rencontre ne se mettent pas en scène, ne fantasment pas leur bravoure ni l’importance de leur rôle. Non, ils sacrifient leur héritage bourgeois et leurs mains délicates pour le rude travail de la terre, creusant, récurant, construisant de l’aube au coucher du soleil. Leur sueur a transformé un inculte marécage en promesse d’abondance.

À Bnei Brak, la colonie hassidim défie la chaleur écrasante dans ses habits de ténèbres, construit des temples avant même d’avoir garanti son souper ou sécurisé ses bicoques branlantes. Aujourd’hui encore, Bnei Brak abrite le quartier le plus pauvre d’Israël, et vote à 90 % pour les ultra-orthodoxes.

À Kfar-Yeladim, Kessel découvre stupéfait une communauté d’enfants qui vit en quasi autonomie. Guidés par le pédagogue Pougatchev, ils inventent leur constitution, leur tribunal, leur système électoral et leur presse. Ils tentent de construire une société nouvelle, pour refermer la plaie ouverte par le massacre de leurs géniteurs.

Comme nulle part ailleurs, cette promesse se construit dans un chantier permanent, qui s’oppose en tout point au charme pittoresque des cités arabes patinées par les siècles. Elle porte un nom : Tel-Aviv. Un antagonisme qui illustre si bien le dilemme du progrès. Aucune nouveauté, aucune invention ne peut procurer la douceur réconfortante d’un marché, d’une échoppe ou d’un geste ancestral. Mais que vaut ce réconfort immémorial face à la malaria, à la misère du non-développement, au joug des traditions ? C’est ce carcan qui, précisément, a poussé à fonder la cité. À Jaffa, les autochtones prenaient les visages découverts des nouvelles arrivantes pour une invitation. Tel-Aviv est « née du baiser des arabes ».

De l’entrepreneur fortuné au religieux démuni ou au jeune socialiste, les aspirations sont si diverses que seule la langue peut les réunir. « Un peuple peut exister sans gouvernement choisi, sans institutions, et même sans terre qui lui appartienne. Mais s’il ne possède pas de langue qui lui soit propre, c’est un peuple mort » écrit Kessel. En Palestine, c’est la résurrection d’une langue morte qui fait naître un peuple.

Nouvelles richesses, vieilles servitudes

Depuis l’époque ottomane, les effendis sont les véritables maîtres de la société palestinienne. Propriétaires fonciers, ils accablent d’impôts les misérables fellahs qui travaillent leurs terres pour des salaires de famine. À l’arrivée des migrants, ces potentats locaux saisissent l’aubaine et leur cèdent des parcelles à prix d’or, au mépris des fellahs qui perdent leur unique moyen de subsistance.

S’ils ne sont pas acceptés dans les communautés orthodoxes ni dans les kvoutza socialistes, nombreux trouvent des emplois chez des fermiers ou des entrepreneurs juifs. À leur grande surprise, ils découvrent des ouvriers payés aux prix européens, des hommes travaillant aux champs et réclamant aisément leur dû. « Des formules étranges de liberté, d’égalité étaient dans l’air », remarque Kessel. Les effendis sentirent la colère monter chez leurs anciens vassaux.

Mais il leur restait l’influence que confère une longue domination. Ils les persuadèrent que les nouveaux venus allaient tout leur enlever et qu’il fallait les exterminer avant qu’ils ne fussent en force. La propagande réussit. 

Terreur et développement 

Le 4 avril 1920, 70 000 personnes se rassemblent à Jérusalem. Depuis l’hôtel de ville, le maire Moussa Qazem al-Husseini presse la foule de donner son sang pour la cause. Aref al-Aref, l’éditeur du Journal Suriya al-Janubia, harangue depuis son cheval : « Si nous n’utilisons pas la force contre les sionistes et contre les Juifs, nous n’en viendrons jamais à bout ! ». On lui répond en scandant « Indépendance ! Indépendance ! » Durant quatre jours, des combats éclatent. Malgré leur infériorité numérique, les colons résistent avec l’appui des soldats britanniques. 

Ces émeutes sont la première manifestation majeure de violence entre les communautés arabe et juive de Palestine dans le contexte du conflit qui les oppose encore aujourd’hui. Elles poussent les Juifs à développer leur propre organisation de défense, la Haganah, ancêtre du noyau de l’armée israélienne : Tsahal.

Quand Kessel débarque en terre palestinienne quelques années plus tard, il sent un revirement. La dynamique de croissance qu’engendre l’immigration juive semble faire des émules. Il voit des terres sans avenir se couvrir de cultures, les grandes agglomérations devenir des centres de commerce de plus en plus florissants. Alors que le pays « nourrissait difficilement quelques centaines de milliers d’hommes » rappelle-t-il, s’ouvre la perspective d’en faire vivre des millions. Ce que, opprimés par le joug féodal de leurs maîtres, les fellahs n’ont pu faire en quatre siècles.

Le développement plutôt que l’affrontement ? En 2020 une étude indiquait que 86 % des Gazaouis se disaient plus intéressés par la croissance économique et les réformes politiques que par la politique étrangère. 7 sur 10 souhaitaient être gouvernés par l’Autorité palestinienne plutôt que par le Hamas. Organisation que les habitants des pays arabes rejetent massivement, comme le Hezbollah. Et tandis que le gouvernement Netanyahou menace d’annexer la Cisjordanie et d’occuper Gaza, près des trois quarts des Israéliens soutiennent, ou ne s’opposent pas à un accord incluant la reconnaissance d’un État de Palestine.

Kessel allait pour voir, pour sentir et pour raconter. Aujourd’hui, on va pour se montrer. Quitte à être les idiots utiles de déplorables maîtres.

L’article Kessel : un siècle avant la flottille est apparu en premier sur Les Électrons Libres.

  •  

Soigner en une seule injection ? La révolution CRISPR

Bientôt, plus de cholestérol et même… de VIH ? Après une seule perfusion ? Avec CRISPR, la médecine ne sera plus jamais comme avant.

À l’origine, CRISPR est un mécanisme que les bactéries utilisent pour se défendre contre les virus, en coupant leur ADN. Des chercheurs, dont Emmanuelle Charpentier et Jennifer Doudna, récompensées par le prix Nobel de chimie en 2020, ont adapté ce système pour modifier notre propre ADN avec une précision incroyable. En seulement dix ans, cette technologie est passée des laboratoires aux hôpitaux, en offrant une formidable perspective : celle qui permet de traiter des maladies graves de manière définitive avec… parfois une seule injection. Et ce, en corrigeant directement leur cause dans nos gènes. C’est un espoir immense pour des maladies jusqu’ici jugées incurables. Ce mécanisme fonctionne comme des ciseaux moléculaires guidés par une carte ultra-précise. Ils peuvent couper, remplacer ou ajuster une partie de l’ADN pour réparer un gène défectueux ou en désactiver un qui pose problème.

Cette technologie suit deux grandes approches. La première, dite édition « ex vivo », où l’on prélève des cellules du patient avant de les modifier en laboratoire et de les réinjecter. La seconde est « in vivo » : tout le processus se déroule directement dans le corps, souvent grâce à de minuscules transporteurs appelés nanoparticules lipidiques. Ils livrent l’outil CRISPR là où il faut, comme dans le foie ou d’autres organes. Des versions plus avancées, comme le « base editing » ou le « prime editing », permettent même de faire des modifications ultra-fines sans abîmer l’ADN, réduisant ainsi les risques d’erreurs.

CRISPR, un kaléidoscope de technologies

J’approfondis

Pour mesurer véritablement la portée de cette révolution, rien de plus éloquent que de jeter un œil sur différents essais cliniques ayant éprouvé le principe.

La foire aux essais cliniques !

Il y a encore quelques années, les premiers essais avec CRISPR faisaient la une des journaux comme des exploits rares. Aujourd’hui, le paysage a changé. Environ 250 essais cliniques sur l’édition génétique ont vu le jour, dont 150 sont en cours. Et près de la moitié utilisent CRISPR ! Depuis le tout premier, en 2016, seulement quatre ans après la découverte majeure de Charpentier et Doudna, la technologie a fait un bond incroyable. Ces essais ciblent des maladies variées : cancers, troubles du sang, pathologies cardiovasculaires, infections comme le VIH et maladies rares. L’objectif commun ? Un traitement en une seule fois qui corrige la cause profonde d’un problème, plutôt que de soigner ses symptômes à répétition.

Mais des questions subsistent. Le mécanisme est-il réellement efficace ? Quelle est la durée de ses effets ? Est-ce sans danger ? Et surtout, pourra-t-on rendre ces traitements accessibles à tous ? Des interrogations qui se dissipent au fur et à mesure que les essais cliniques livrent leurs vérités.

En Verve pour réduire le cholestérol

L’essai VERVE-102, mené par Verve Therapeutics, veut révolutionner la lutte contre le « mauvais » cholestérol (LDL), qui bouche les artères et cause des crises cardiaques. En une seule injection, CRISPR désactive un gène appelé PCSK9 dans le foie, ce qui réduit fortement le problème. Les premiers résultats de 2025 montrent une baisse moyenne de 53 % du LDL, et jusqu’à 69 % pour certains patients, sans effets secondaires graves. Si la durabilité des résultats est au rendez-vous, comme l’espèrent les chercheurs, cela pourrait remplacer les médicaments quotidiens pour les personnes à risque, telles celles ayant un cholestérol élevé héréditaire. Prochaines étapes : confirmer que cela reste sûr et efficace sur le long terme, pour en faire un traitement courant.

VIH caché… dévoilé

Le VIH est un virus malin. Même avec des traitements, il se dissimule dans l’ADN de certaines cellules et peut revenir si l’on arrête les médicaments. L’essai EBT-101 d’Excision BioTherapeutics utilise CRISPR pour couper et éliminer ces morceaux de virus cachés. Les premières données montrent une bonne tolérance au traitement, sans rebond important du virus. Mais le vrai défi est de prouver que les patients peuvent arrêter leurs médicaments sans que le VIH revienne. Si cet essai réussit, ce serait une avancée majeure contre une maladie qui touche des millions de personnes. Les chercheurs planchent déjà sur des moyens de rendre le traitement plus puissant et plus facile à produire à grande échelle.

Sus à la drépanocytose

La drépanocytose est une maladie génétique qui déforme les globules rouges, provoquant des douleurs intenses et des complications graves. Avec BEAM-101, Beam Therapeutics propose une solution : prélever les cellules souches du patient, puis utiliser CRISPR pour réactiver un gène qui produit une hémoglobine saine (comme celle des bébés), avant de réinjecter ces cellules. Les résultats de 2025 sur 17 patients montrent une forte hausse de cette hémoglobine (plus de 60 %), moins de complications et une meilleure qualité de vie, sans crises douloureuses. Mais le traitement est complexe et coûteux, nécessitant des hôpitaux spécialisés. L’objectif à long terme est de simplifier le processus pour le rendre accessible à plus de patients, notamment dans les régions où la maladie est courante.

Dire stop à l’amylose

L’amylose à transthyrétine (ATTR) est une maladie où une protéine toxique s’accumule dans le cœur, les yeux, le système nerveux ou les reins, causant de graves problèmes, notamment cardiaques. L’essai NTLA-2001 d’Intellia Therapeutics utilise CRISPR pour désactiver le gène responsable de cette protéine, avec une seule perfusion. Les résultats montrent une chute durable de l’intrus toxique, et l’essai de phase 3, en cours en 2025, vérifie si cela améliore la vie des patients. Moins d’hospitalisations, une meilleure santé cardiaque, une vie plus longue ? Si les réponses sont positives, ce traitement pourrait devenir une référence pour cette maladie grave.

Une statue pour Emmanuelle Charpentier et Jennifer Doudna ?

CRISPR ouvre une nouvelle ère pour la médecine, avec des traitements qui semblaient autrefois de la science-fiction. Des maladies du cœur au VIH, en passant par des troubles génétiques rares, cette technologie promet des solutions durables, souvent en une seule intervention. Si les défis de sécurité, d’efficacité et d’accessibilité sont relevés, elle pourrait changer des millions de vies. L’avenir s’écrit aujourd’hui, et CRISPR en est l’une des plumes les plus prometteuses. De quoi bientôt ériger une statue à la gloire d’Emmanuelle Charpentier et Jennifer Doudna ?

L’article Soigner en une seule injection ? La révolution CRISPR est apparu en premier sur Les Électrons Libres.

  •  

Nucléariser le monde !

En finir avec la grande pauvreté ? Réduire d’un tiers nos émissions de CO2 ? Le tout pour seulement 0,5 % de notre PIB ? C’est possible, en nucléarisant la planète. Plongée dans le « Projet Messmer 2.0 ».

Voici une vérité qui dérange : la pauvreté n’est pas un problème parmi d’autres. C’est le problème fondamental de l’humanité, celui qui condamne des milliards d’êtres humains à une existence précaire, marquée par la maladie, l’ignorance et la mort prématurée. Et au cœur de cette pauvreté se trouve un dénominateur commun, simple et implacable : l’absence d’accès à une énergie abordable et fiable.

Près de 3,7 milliards de personnes — environ 47% de la population mondiale — vivent dans ce qu’on peut appeler le « monde débranché », où la consommation électrique annuelle par habitant est inférieure à 1 200 kWh. Un précédent papier mettait déjà en valeur cette comparaison frappante : c’est à peine plus que la consommation annuelle d’un réfrigérateur américain standard. Pendant qu’un Français moyen consomme 7 000 kWh par an et un Américain plus de 12 000, des pays comme le Pakistan, l’Indonésie et l’Inde — qui abritent ensemble 1,9 milliard de personnes — restent dramatiquement sous-électrifiés.

Cette pauvreté énergétique n’est pas qu’une statistique abstraite. Elle se traduit par des drames humains quotidiens d’une effrayante ampleur. Selon l’Institute for Health Metrics and Evaluation, plus de 3 millions de personnes meurent prématurément chaque année à cause de la pollution de l’air intérieur liée à l’utilisation de combustibles solides pour cuisiner. Plus de 50% des décès d’enfants de moins de 5 ans sont dus à des pneumonies causées par l’inhalation de particules fines provenant de la pollution domestique.

Environ 40% de la population mondiale dépend encore principalement de la combustion de biomasse — bois, bouses séchées, résidus agricoles — pour leurs besoins énergétiques. Cette réalité condamne des milliards de personnes, principalement des femmes et des enfants, à passer des heures chaque jour à chercher du combustible, à le transporter sur des kilomètres, puis à respirer sa fumée toxique. Ces heures perdues sont autant d’heures volées à l’éducation, au travail productif, au développement personnel. C’est un révoltant gâchis humain.

Le double impératif : climat ET prospérité

La corrélation entre consommation énergétique et développement humain n’est pas une simple coïncidence statistique — c’est une loi de fer du progrès humain. Une règle empirique approximative pour les économies en développement est que chaque kWh par habitant consommé vaut environ 5 dollars de PIB par personne. Ce lien s’observe dans tous les indicateurs de bien-être : espérance de vie, mortalité infantile, éducation, accès à l’eau potable.

Voici la réalité brutale que certains refusent d’admettre. Nous ne résoudrons pas le réchauffement climatique en condamnant des milliards d’êtres humains à rester dans la pauvreté. Ce serait moralement intolérable et, de toute façon, politiquement impossible. La transition énergétique à l’échelle mondiale doit s’accompagner d’une élévation généralisée du niveau de vie, donc d’une augmentation massive de la production d’énergie mondiale. Le nécessaire et urgent combat pour limiter le réchauffement climatique ne doit pas nous faire oublier que le pire ennemi de l’humanité est la pauvreté elle-même.

En 2023, la production mondiale d’électricité a atteint un niveau record de 29 471 TWh. Malgré les progrès significatifs, le mix électrique reste dominé par les combustibles fossiles carbonés qui représentent encore 61% du total Le charbon constitue la plus grande source unique avec 35% (10 434 TWh), suivi du gaz naturel à 23% (6 634 TWh). Les sources d’énergie propre ne représentent que 39% du total : l’hydroélectricité fournit 14% (4 210 TWh), le nucléaire 9,1% (2 686 TWh), et l’éolien et le solaire combinés 13,4% (3 935 TWh). 

Face au défi climatique, tous les investissements ne se valent pas. Il est indispensable d’agir de manière rationnelle et d’investir dans des programmes ayant le coût par tonne de CO₂ évitée le plus faible possible. C’est précisément l’ambition de cette analyse.

Répondre à la demande et éradiquer la pauvreté énergétique d’ici 2050

Pour 2050, l’Agence Internationale de l’Énergie (AIE) projette dans son scénario des Engagements Annoncés (APS) que la demande électrique mondiale augmentera de 120% par rapport à 2023, atteignant environ 65 000 TWh. Cette croissance est portée par l’électrification des transports, du chauffage, et par de nouvelles industries comme les centres de données et l’IA.

Pour éradiquer la pauvreté énergétique dans le monde, il est nécessaire de s’assurer qu’aucun pays ne reste sous le seuil de 1 500 kWh par personne et par an. Y conduire en 2050 les 666 millions de personnes encore sous ce seuil nécessiterait environ 2 000 TWh supplémentaires de production électrique annuelle.

La demande totale projetée pour un monde prospère et équitable en 2050 est donc de 67 000 TWh (65 000 + 2 000). Appliquons maintenant le modèle français de mix électrique bas-carbone avec une cible de 70% de nucléaire. Il faudrait alors produire 46 900 TWh d’électricité nucléaire par an — plus de 17 fois la production nucléaire mondiale actuelle (2 686 TWh).

Avec un facteur de capacité de 90%, tel qu’on l’observe aujourd’hui dans les meilleurs parcs nucléaires comme celui des États-Unis, cela se traduit par un besoin d’environ 5 950 GW de capacité nucléaire installée. En termes concrets ? Ce serait l’équivalent d’environ 5 000 nouveaux grands réacteurs nucléaires d’ici 2050.

Quel serait le coût de cet immense programme nucléaire à l’échelle mondiale ? En tirant les leçons des meilleurs exemples du passé que sont la Corée du Sud et le plan Messmer français (1974-1986), le nucléaire peut atteindre un coût de 2 000 $/kW. Pour construire les 5 950 GW de capacité nucléaire nécessaires d’ici 2050 la facture s’élèverait alors à 11 900 milliards de dollars.Ce chiffre peut sembler vertigineux, mettons-le donc en perspective. Répartis sur 2 décennies (2030–2050), les 11 900 milliards de dollars représentent en moyenne environ 600 milliards par an, soit moins de 0,5 % du PIB annuel mondial attendu sur cette période, alors même que celui-ci devrait plus que doubler pour dépasser 200 000 milliards de dollars en 2050. C’est un effort du même ordre de grandeur que les flux d’investissements déjà engagés dans les énergies renouvelables chaque année. Loin d’être un fardeau insoutenable, un tel programme constituerait un investissement clé pour garantir une électricité à la fois abondante et propre, ainsi que la fin de la pauvreté énergétique dans le monde.

Le nucléaire est-il trop long à construire ou trop cher ?

J’approfondis

Chute des émissions de CO₂  mondiales à coût record

L’impact climatique d’un tel projet Messmer 2.0 serait titanesque. Nos calculs révèlent que ce programme électronucléaire massif éviterait :

  • 20,4 gigatonnes (Gt) de CO₂ par an comparé à un scénario 2050 maintenant le mix électrique actuel avec 60% de sources fossiles — soit l’équivalent de 35,7% des émissions mondiales totales actuelles de gaz à effet de serre
  • 12,8 Gt de CO₂ par an comparé à un investissement équivalent de 11 900 milliards de dollars dans les énergies renouvelables — et ce malgré les baisses spectaculaires des coûts de ces technologies sur les 3 dernières décennies

Il est possible que ces chiffres soient sous-estimés. La projection de 67 000 TWh pour 2050 intègre en effet l’électrification massive des transports et le déploiement généralisé de pompes à chaleur réversibles pour la régulation thermique des bâtiments. L’impact réel sur les émissions de CO₂ totales serait donc encore supérieur de ce point de vue là.

Sur la base d’une durée de vie opérationnelle conservatrice de 60 ans (certaines centrales nucléaires américaines ayant déjà obtenu l’autorisation d’opérer 80 ans), le coût d’abattement atteint :

  • 9,7 $/tonne de CO₂ évitée comparé au scénario fossile (60%)
  • 15,5 $/tonne de CO₂ évitée comparé au scénario renouvelable équivalent

Même en doublant ou triplant ces estimations pour tenir compte d’éventuels biais optimistes, le programme nucléaire demeurerait exceptionnellement efficace.

Des milliers de centrales nucléaires flottantes pour un avenir radieux

J’approfondis

Mettons ces chiffres en perspective : les sources universitaires et industrielles estiment que le coût effectif de l’Energiewende allemande a atteint 90-100 €/tCO₂ pour l’éolien et plus de 500 €/tCO₂ pour le PV solaire. Les programmes allemands de rénovation de bâtiments aux normes d’efficacité les plus élevées peuvent atteindre un coût d’abattement de plus de 900 €/tCO₂.

Cette révolution nucléaire n’exclut pas des investissements dans d’autres énergies prometteuses. Pour compléter les 70% de nucléaire dans notre vision 2050, misons sur les énergies propres avec les meilleurs coûts d’abattement. Privilégions en particulier le solaire photovoltaïque dont les prix sont en chute libre, ou encore la géothermie dont les progrès pourraient nous permettre de tirer de l’énergie en grande quantité toujours plus loin sous terre. L’objectif ? Fermer autant que possible le robinet des énergies fossiles.

En fin de compte, face à nous se dresse un triple défi d’une urgence absolue pour les décennies à venir : limiter le réchauffement climatique à 1,5°C, alimenter la croissance des économies modernes qui consomment toujours plus d’électricité, et arracher enfin des milliards d’êtres humains au piège mortel de la pauvreté énergétique. Ces 3 impératifs ne sont pas négociables — ils doivent être réalisés simultanément. Un monde qui combat le climat en condamnant les pauvres à leur misère échouera sur les 2 fronts. Un monde qui priorise la croissance économique sans décarboner massivement condamne ses propres fondations.

L’expansion nucléaire massive que nous proposons est la stratégie qui semble la plus efficace pour relever ce triple défi. Elle seule peut décarboner à la vitesse et l’échelle requises tout en fournissant l’énergie abondante et fiable qu’exigent à la fois les économies avancées et les milliards d’humains qui aspirent légitimement à un niveau de vie décent. Ce qui fait défaut, c’est la volonté de traiter cette crise avec l’urgence et l’ambition qu’elle mérite, et en s’inspirant des succès du passé. Chaque jour d’inaction est un jour de plus où des millions meurent dans la fumée intérieure ou la pollution extérieure, où le climat se réchauffe, où des économies entières stagnent faute d’énergie abondante.

L’article Nucléariser le monde ! est apparu en premier sur Les Électrons Libres.

  •  

La rumeur qui a fait déborder la Somme !

Au printemps 2001, la Somme est en crue. Tandis que l’eau monte inexorablement, inondant terres et villages, une idée folle émerge… Et si c’était de la faute… des Parisiens ?

Quand, le 9 avril, Lionel Jospin débarque à Abbeville, il est déjà trop tard. Le Premier ministre, attendu de pied ferme, est violemment pris à partie par des riverains furieux. Sur la défensive, il tente maladroitement de balayer la rumeur : « Vous pouvez imaginer que quelqu’un décide, à Paris, d’aller noyer la Somme ? Ça n’a pas de sens ! » Dans la foule, une femme réplique aussitôt : « Il y a sûrement quelque chose qui participe… », exprimant la conviction des sinistrés : Abbeville a payé le prix fort pour que Paris reste au sec.

Car des crues, la Somme en a connues, mais jamais d’identiques. Les anciens l’assurent : « Une telle intensité, on n’avait jamais vu. » Et ce détail qui rend tout suspect : l’eau continue de monter… alors qu’il ne pleut plus. Mystère ? Ou plutôt évidence. Pour les habitants, le scénario est clair. Les politiciens parisiens, paniqués à l’idée de voir la capitale sous l’eau, auraient détourné les flots vers la vallée picarde. Après tout, ce ne serait pas la première fois que la province servirait de variable d’ajustement, non ?

Abracadabrantesque !

Article réservé à nos abonnés.

S'abonner dès 5€/mois

ou

Acheter cet article pour 1,50€

L’article La rumeur qui a fait déborder la Somme ! est apparu en premier sur Les Électrons Libres.

  •  

Le robot : notre prochain compagnon ?

Chef cuisinier, majordome, concierge personnel et confident, il fera nos courses, notre ménage et révolutionnera votre quotidien. Pendant que l’Occident imagine le robot humanoïde comme un super-ouvrier sans affect, à même de remplacer l’homme dans nos usines ou nos hôpitaux, la Chine joue une tout autre partition. Sans tabou et avec une ambition dévorante, elle prépare déjà le robot-compagnon qui s’intégrera dans tous nos foyers.

2030 : une journée ordinaire de Lyon à New York

Lyon, 7 h 00. Léo le robot commence sa journée. Il connaît par cœur les us et coutumes, comme les désirs et exigences de sa nouvelle famille. Il accepte sans broncher le prénom dont on l’a affublé. Sans doute est-ce le patronyme qui lui convient. Qu’importe : l’heure n’est pas à l’introspection, mais à l’action. Il entre doucement dans les chambres et ouvre les volets pour laisser entrer la lumière naturelle. La meilleure manière de réveiller les humains doucement, sans brutalité. Pour la petite Julia, il lance la préparation d’un chocolat chaud. Puis s’active devant la machine à café et le grille-pain pour satisfaire le reste de la maisonnée. L’arôme se répand dans la cuisine… Pendant que la famille se lève, il dresse la table du petit-déjeuner, s’assurant qu’il reste également une bouteille de lait en réserve pour le retour de l’école de Julia et de son frère, Max. Parfois, les matinées sont agitées, des conflits éclatent. Alors, il reste en retrait, silencieux. Les êtres humains sont moins dociles que lui.

8 h 30. Les enfants et les parents sont partis. Léo entame alors ses tâches domestiques. Il débarrasse la table, remplit le lave-vaisselle, puis passe l’aspirateur. Mais son rôle va bien au-delà du simple nettoyage et du ménage. Il accède aux données du réfrigérateur connecté qui fait office de garde-manger intelligent, en conservant un inventaire du contenu des placards. Il croise ces informations avec le calendrier partagé de la famille. Sébastien a un dîner d’affaires mardi, les enfants mangent à la cantine et des amis sont invités samedi soir…

10 h 00. Il élabore ensuite une proposition de menus pour chaque jour de la semaine, en tenant compte des préférences alimentaires et des éventuelles allergies des uns et des autres. Une notification est envoyée sur le smartphone des parents, accompagnée d’une demande de validation de la commande. Un simple clic suffit et les instructions sont transmises au supermarché en ligne pour une livraison prévue à 16 h 00. Le luxe n’est plus seulement question d’espace et de confort intérieur. Il se manifeste désormais aussi par le gain de temps et la libération de la charge mentale des parents.

16 h 15. Le livreur sonne à la porte. Un robot, lui aussi. Léo réceptionne les courses, vérifie la commande, puis range chaque article à sa place avec une précision millimétrique. Il profite de ce moment pour aller retirer le courrier et gérer les éventuels colis.

New York, 11 h 00. Depuis quelques semaines, la vie de Nonna Nunzia, grand-mère italienne de 85 ans, immigrée en 1948, n’est plus la même. Ses enfants, dont la réussite l’emplit de fierté, lui ont offert un robot humanoïde. Une folie ! Les premiers jours, elle a eu un peu peur de « la bête ». Il faut dire qu’Antonio – son nouveau compagnon de puces et de circuits – est imposant, avec son mètre quatre-vingts et ses reflets métalliques. Mais la greffe a vite pris. Et surtout, il l’aide à économiser sa jambe droite et son dos souffrants. Et aussi à prendre soin de sa santé grâce à l’option health monitoring dont il est équipé. Elle permet à Antonio d’être en liaison permanente avec les appareils connectés de la maison (matelas, toilettes, montre captant les données vitales de sa porteuse), de surveiller l’hydratation de Nunzia et son niveau d’activité physique minimal requis au quotidien. Mais ce matin, nulle question sanitaire. Le moment est aux réjouissances culinaires dont Nonna Nunzia est friande. Il propose d’activer son mode NAIL (Not Another Imitation Learning), pour apprendre et reproduire la recette du jour, la partager avec la famille de Nunzia et avec les internautes détenteurs de l’option. Aujourd’hui, elle a envie de confectionner ses « Pasta alla Turiddu di Nonna Nunzia ». Son secret ? Faire revenir les tomates dans le vinaigre balsamique avec une cuillère de miel… Elle déroule les éléments de sa recette, permettant à Antonio de les enregistrer et de les analyser. Le plat à peine terminé, son mode de préparation est déjà partagé avec les autres robots du groupe « famille ». Quant aux utilisateurs possédant des robots disposant du mode NAIL, ils pourront l’acheter sur la marketplace dédiée. « OK Nunzia, WE NAILED IT ! » s’exclame Antonio. [« On l’a eue, cette recette ! »]

Lyon, 18 h 30. Tout le monde est rentré à la maison… Changement de programme pour ce soir, Julia et Max veulent manger italien. Sébastien, le quadragénaire heureux propriétaire de Léo, demande à celui-ci quelques suggestions de recettes avec les ingrédients déjà en stock. Léo parcourt la marketplace de recettes et en propose plusieurs à Sébastien. Une retient son attention : Pasta alla Turiddu di Nonna Nunzia. Pâtes, aubergines, oignons, ail, tomates… C’est acté, Sébastien valide le téléchargement du scénario sur le robot pour 1,50 €. Si elle plaît, il pourra désormais refaire cette recette à volonté. Le robot demande s’il doit exécuter la recette en mode hybride (le robot fait le commis et Sébastien s’occupe des cuissons) ou en mode délégation totale. Toute la famille veut profiter d’un peu de repos après cette longue journée : Léo sera seul en cuisine ce soir.

New York, 20 h 40. L’Europe dort, mais alors que Nunzia commence à piquer du nez devant son poste de télé, Antonio lui propose de lui faire un rapport sur le succès de sa recette enregistrée quelques heures plus tôt : « Elle a été téléchargée 20 fois aujourd’hui. Tu as gagné 10 dollars et obtenu une note moyenne de 4,2 étoiles sur 5. » Nunzia sourit… Elle ne pensait pas devenir influenceuse cuisine à 85 ans. Voilà une bonne journée, merci Antonio. 20 h 47, il lui lit un message vocal de son petit-fils reçu à l’instant au travers de la messagerie inter-robot : « Merci Nonna pour ta recette ! J’ai hâte de l’essayer, on t’embrasse. Bonne soirée. »

Revenons à la réalité

Cette vision, certes ici encore légèrement fictive, qui relevait de la science-fiction il y a peu, est devenue une feuille de route de San Francisco à Shanghaï, avec un centre de gravité penchant vers la dernière cité mentionnée. Alors que le robot Optimus d’Elon Musk est annoncé à plus de 20 000 dollars, les modèles chinois sont déjà présentés dans une fourchette de 6 000 à 16 000 dollars. La stratégie est claire et rappelle celle de DJI, leader incontesté des drones : inonder le marché avec un matériel de qualité à prix raisonnable pour imposer un standard mondial.

Ce schisme n’est pas seulement philosophique, il est profondément économique. Si le robot à usage professionnel et sa maintenance se vendent plus cher à l’unité, garantissant des marges confortables sur chaque contrat, le modèle avec un hardware low-cost, abonnement et marketplace, calqué sur celui des smartphones, vise une tout autre échelle. Le robot n’est que le cheval de Troie. La véritable mine d’or réside dans la marketplace, un écosystème où s’échangeront scénarios ou compétences et abonnements à des services ou capacités premium. Ce sont les importants volumes de ventes additionnelles générés par ces micro-transactions qui créeront les futurs Apple et Google, des géants contrôlant à la fois le matériel et le système d’exploitation de notre quotidien. La voie est toute tracée, et elle ne mène pas à l’usine, mais directement à notre salon.

Reste la question du logiciel, historiquement considéré comme le talon d’Achille de l’ingénierie chinoise. Cet obstacle est en passe d’être largement dépassé. Grâce à ses avancées fulgurantes, l’IA aide désormais les développeurs chinois à générer du code plus performant et des interfaces plus intuitives, comblant leur retard à une vitesse phénoménale. La boucle est bouclée : l’IA développe le logiciel du robot, lui-même propulsé par l’IA.

La course aux « modèles de fondation pour la robotique » est lancée. En se focalisant sur le foyer en parallèle de l’usine, la Chine ne se contente pas de viser un marché plus grand ; elle cherche à redéfinir notre rapport à la technologie, à la famille et même à la transmission des savoirs. Loin d’un simple gadget, ce robot-compagnon est un projet de société. Une proposition constructive à laquelle l’Europe ferait bien de réfléchir pour ne pas devenir simple consommatrice d’un futur imaginé par d’autres.

L’article Le robot : notre prochain compagnon ? est apparu en premier sur Les Électrons Libres.

  •  

Christian ou les apaisements de la terre

Ancien carrossier devenu agriculteur par amour et par envie de changer d’air, Christian gère aujourd’hui seul 120 hectares de céréales dans le Tarn. Entre météo capricieuse, concurrence étrangère et contraintes grandissantes, ses journées s’étirent de l’aube à la nuit tombée. Portrait d’un homme attachant qui creuse son sillon loin des projecteurs.

Du garage aux champs : un parcours inattendu

À première vue, rien ne destinait Christian à devenir agriculteur. Né à Castres, il avait choisi très tôt la mécanique, en apprentissage. Carrossier de formation, il a passé dix ans à travailler dans des garages Renault et Peugeot, le bleu de travail taché de cambouis plutôt que de terre. Jusqu’à ce que la vie décide autrement. À 26 ans, il reprend l’exploitation de ses beaux-parents. Un choix d’amour autant que de nécessité : sa femme est fille d’agriculteurs, mais ni elle — qui avait vu ses parents ployer sous les contraintes sans jamais prendre de vacances — ni son frère, handicapé, ne pouvaient reprendre. Et sans repreneur, la ferme familiale risquait de disparaître… Christian s’inscrit alors à une formation pour adultes d’un an, avant d’apprendre patiemment le métier auprès de son beau-père. Pendant dix ans, jusqu’à la retraite de ce dernier, il s’initie aux cycles des saisons, aux subtilités des sols argileux, à la compréhension des besoins des cultures. « Dix ans, ça peut paraître long mais c’est bien le temps qu’il faut pour apprendre le métier quand on ne vient pas d’une famille d’agriculteurs », sourit-il aujourd’hui.

La ferme qu’il reprend n’a plus grand-chose à voir avec celle d’autrefois. Ses beaux-parents faisaient vivre trois générations sur cinquante hectares, en quasi-autosuffisance, avec une trentaine de vaches laitières qui assuraient à la fois le revenu et le fumier pour fertiliser les cultures fourragères. Les investissements nécessaires pour maintenir l’élevage étant devenus trop lourds, l’exploitation a basculé vers les céréales. Pour survivre, Christian a dû agrandir, mécaniser et travailler seul. Lui qui n’était pas tombé dedans quand il était petit s’est accroché, parfaisant son apprentissage avec humilité. Aujourd’hui encore, il conserve le regard neuf d’un homme qui n’a pas reçu la terre en héritage, mais qui l’a choisie par engagement. « Dans ce milieu parfois conservateur, avoir cet œil neuf me permet de me remettre en cause et de faire évoluer en permanence mes pratiques », confie-t-il.

Seul avec 120 hectares

Christian cultive, à lui tout seul, l’équivalent de 170 terrains de foot. Une surface déjà conséquente, dans ces paysages vallonnés du Tarn, mais loin des grandes exploitations de la Beauce ou des plaines d’Europe de l’Est. En pleine saison, ses journées commencent à sept heures du matin et se terminent à vingt-trois heures, parfois plus tard. Son dernier tracteur, qu’il renouvelle environ tous les dix ans, lui permet de bloquer direction et pédales, ce qui limite un peu la fatigue, mais on reste loin du niveau d’automatisation accessible sur des parcelles plus grandes et moins morcelées. L’hiver, il ne chôme pas davantage : la terre se repose, pas l’agriculteur. En homme à tout faire, Christian passe alors ses journées à entretenir, réparer, maçonner. Et il lui faut encore trouver du temps pour la « paperasse », omniprésente, ou pour se former.

Derrière cette cadence se cache un équilibre financier fragile. Le chiffre d’affaires de son exploitation, tributaire de la météo et des cours mondiaux, oscille entre 120 000 et 150 000 euros, dont environ 26 000 proviennent de la PAC. Mais les charges engloutissent presque tout : près de 30 000 euros d’engrais et de phytos, 12 000 pour le remboursement du tracteur, 8 000 de cotisations sociales, sans compter les semences et l’entretien courant. Au final, Christian dégage entre 2 500 et 2 800 euros nets par mois. Un revenu correct en apparence, mais bien moins flatteur quand on le ramène au temps passé : « à peu près six euros de l’heure », calcule-t-il. Et il revient de loin, car son revenu est longtemps resté en dessous de 1 800 euros, quand il avait encore le foncier à rembourser.

Christian n’a pas eu vraiment le choix. Pour faire vivre leur famille de quatre, sa femme travaille à l’extérieur, à la mairie, tandis que lui serre les coûts au plus juste et cherche des revenus complémentaires aux seules céréales. L’ail rose en fait partie. Une culture exigeante, presque entièrement manuelle, mais qui apporte une vraie valeur ajoutée. Elle représente à elle seule près de 27 000 euros dans son revenu annuel.

À cette équation déjà serrée s’ajoute la pression du marché mondial. L’Espagne est son principal débouché, mais il subit la concurrence des blés ukrainiens et russes, produits à grande échelle à des coûts bien moindres et écoulés massivement en Méditerranée. Pour s’adapter, Christian a investi très tôt dans des silos qu’il a construits lui-même. Cela lui permet de stocker, d’attendre le bon moment et de jouer sur les cours. Une stratégie de survie, bien différente de celle de son beau-père, qui vendait directement le surplus à la coopérative. « Je ne suis pas un trader, car je vends ce que je produis. Mais suivre les cours et répondre aux appels d’offres, c’est une charge supplémentaire », sourit-il.

Le blé de la mer noire, toujours conquérant

J’approfondis

La terre sous contraintes

Les difficultés du métier ne sont pas seulement matérielles ou économiques. Elles sont aussi réglementaires. Christian en est bien conscient : on ne peut pas faire n’importe quoi, et la traçabilité des produits reste essentielle. L’administratif, au fond, ne lui prend pas tant de temps relativement aux journées interminables des périodes de pointe. Mais la charge mentale, elle, est bien réelle, d’autant que les normes changent presque chaque année. « On ne fait pas ce travail pour ça », lâche-t-il. Lui s’en sort, mais il sait que ce n’est pas forcément le cas de tous ses collègues.

Mais les réglementations ne se limitent pas aux formulaires. Nitrates, haies, couverts végétaux… Elles évoluent en permanence et obligent à revoir les pratiques. Dans l’exploitation de Christian, les sols sont argileux et classés vulnérables. Sensibles à l’érosion, ils forment des croûtes qui empêchent l’eau de s’infiltrer et laissent filer plus facilement les nitrates vers les cours d’eau. Christian doit donc implanter des couverts végétaux entre deux cultures. Il en reconnaît l’intérêt. Ils piègent les nitrates et enrichissent le sol. Mais la médaille a son revers. C’est du travail supplémentaire, des semences à acheter, du gasoil à brûler… et tout cela sans aucune rémunération ni contrepartie.

C’est ce qu’il regrette le plus. Beaucoup d’obligations, peu d’incitations. L’impression de travailler davantage… gratuitement. Comment encourager réellement à se convertir aux bonnes pratiques ? Christian n’a pas de solution miracle. Il sait seulement que les aides existantes devraient être mieux fléchées vers les solutions réellement vertueuses.

Et les difficultés ne sont pas seulement dues aux réglementations venues d’en haut. À ses yeux, le manque de reconnaissance sociale pèse tout autant. Produire de la nourriture, respecter les règles, faire des efforts… et en retour ? Trop souvent, du mépris. L’agribashing, pour lui, n’est pas un slogan mais une réalité. Des automobilistes qui klaxonnent derrière lui, une bouteille jetée sur son tracteur, des regards hostiles quand il traite ses cultures. « C’est dur à supporter », admet-il. Alors il a trouvé une solution : pulvériser de nuit. Comme ça, il ne dérange personne. Et tant pis s’il doit rentrer plus tard. Sauf que, ajoute-t-il dans un soupir, « quand les gens me voient épandre la nuit, ils en concluent que mes produits doivent être particulièrement dangereux ». Un cercle vicieux.

Malgré tout, Christian abat le travail sans broncher. Les manifs, il les comprend, mais ne s’y reconnaît pas vraiment. Sauf peut-être sur un point : le Mercosur. Là, il avoue ses inquiétudes. La concurrence étrangère fait déjà partie de son quotidien ; alors importer encore plus de produits qui ne respectent pas les mêmes normes que lui lui paraît tout simplement injuste. Sans surprise, il n’est pas syndiqué. Il observe d’un œil indifférent les batailles d’influence entre organisations agricoles. Son credo : travailler dur et assurer sa subsistance par lui-même plutôt que d’attendre quoi que ce soit de la politique.

Faire mieux avec moins

Foin des postures, Christian préfère avancer. Il a réduit ses intrants bien avant que la réglementation ne l’y oblige, diminuant les quantités de 30 à 50 %. « Pour l’environnement, ça compte, et aussi parce que ça coûte une fortune », dit-il. Pour progresser, il s’appuie sur un ingénieur agronome indépendant, mais se méfie des coopératives : « Ils veulent surtout vendre leurs produits, alors les doses sont souvent un peu gonflées. » Malgré ses efforts, il a le sentiment d’avoir atteint un plancher. Descendre encore lui paraît impossible.

Il s’efforce aussi de réduire le travail du sol, ce qui l’oblige à recourir davantage aux herbicides. Les résistances, notamment du ray-grass, l’empêchent de baisser les doses. Il implante des couverts intermédiaires et pratique les rotations comme tout le monde. Pour les allonger vraiment, il faudrait introduire des légumineuses, mais les filières sont quasi inexistantes. « En protéines végétales, les industriels préfèrent importer du tourteau de soja brésilien », regrette-t-il.

Les carences en protéines de l’agriculture française

J’approfondis

Côté fertilisation, Christian reste aux engrais de synthèse. Les effluents d’élevage seraient un atout, mais les éleveurs les gardent pour eux. Quant à l’irrigation — sujet sensible dans une région marquée par les violentes contestations du barrage de Sivens durant lesquelles le jeune Rémi Fraisse est mort en 2014 — il n’en a besoin que pour son maïs semence, grâce à une petite retenue collinaire permise par les sols argileux et vallonnés. Ici, pas de mégabassines, mais il sait que la situation est différente ailleurs. Supprimer l’irrigation ? Chez lui, ce serait jouable, sauf pour le maïs, justement. Dans le Sud-Ouest, en revanche, sur des sols sablonneux incapables de retenir l’eau, il n’imagine pas comment ses collègues pourraient s’en passer.

Et après ?

Christian ne manifeste pas, ne brandit pas de pancarte. Mais il a un message clair : qu’on cesse d’empiler les contraintes et qu’on reconnaisse enfin les efforts de tous ceux qui, comme lui, s’efforcent de produire mieux avec moins. Valoriser plutôt que punir, encourager plutôt qu’imposer. « On nous aime huit jours par an, pendant le Salon de l’Agriculture », sourit-il, avant d’ajouter qu’il attend surtout moins d’effets de manche, moins de promesses vite envolées à chaque crise, et plus d’écoute du terrain.

Reste une question plus large, qui dépasse son seul cas : ce modèle agricole, celui de l’exploitant seul face à 120 hectares, est-il viable à terme ? N’est-il pas condamné par sa vulnérabilité, quand tout repose sur les épaules d’une seule personne, et par l’impossibilité d’investir suffisamment pour suivre les évolutions technologiques ? Comment tenir face à la concurrence mondiale sans agriculture de précision, sans drones, sans outils satellitaires, pour augmenter les rendements et diminuer les intrants ?

Les deux enfants de Christian s’orientent vers d’autres voies. Comme ses beaux-parents avant lui, il pourrait se retrouver face au vide de la succession. « Je n’y pense pas trop, jusqu’à ma retraite ça ira. Mais il faudra bien un jour que les céréaliers du Tarn remettent en cause leurs convictions et apprennent à s’associer », conclut-il. Car il faudra bien grandir pour être à même d’investir et d’innover. Loin du mythe de la paysannerie et de la petite exploitation.

L’article Christian ou les apaisements de la terre est apparu en premier sur Les Électrons Libres.

  •  

Le Mercosur, ce bouc émissaire de nos politiques agricoles

Déforestation, bœuf aux hormones, trahison de nos agriculteurs. Le Mercosur, accusé de tous les maux, fait l’unanimité contre lui. Pourtant, cet accord pourrait être une opportunité pour notre industrie, sans pour autant sacrifier notre souveraineté alimentaire.

Le Mercosur, c’est en quelque sorte la version sud-américaine de notre marché commun, un espace de libre circulation des biens et des services. Il regroupe l’Argentine, le Brésil, le Paraguay, l’Uruguay et, depuis l’an dernier, la Bolivie. Le Venezuela en a été exclu en 2016. Après deux décennies de négociations, l’Union européenne et le Mercosur ont conclu, en juin 2019, un traité instaurant une zone de libre-échange. Ou plutôt un accord commercial, car le terme, qui suggère une libéralisation sans contraintes, est trompeur : les règles restent nombreuses et certaines importations limitées. Aujourd’hui, il demeure suspendu à la ratification des 27 États européens. La France est l’un des rares pays à avoir des réserves. À tort ou à raison ?

Concrètement, la suppression de 4 milliards de droits de douane rendrait nos exportations beaucoup plus compétitives. Le prix des voitures et des vêtements pourrait baisser de 35 %, celui des machines-outils, produits chimiques et pharmaceutiques de 14 à 20 %. Les fournisseurs de services — télécommunications, transports, numérique — accéderaient aux marchés publics locaux. L’industrie automobile européenne, en grande difficulté, appelle évidemment l’accord de ses vœux : il relancerait ses ventes de véhicules thermiques, au moins pour un temps. Au total, Bruxelles projette près de 50 milliards d’euros d’exportations supplémentaires vers le Mercosur, pour seulement 9 milliards d’importations en plus. Des importations qui pourraient bien profiter aux industries européennes. Le Brésil, en particulier, est un important fournisseur de matières premières critiques comme le nickel, le cuivre, l’aluminium, l’acier ou le titane.

L’erreur est en effet de réduire exportations et importations à une lecture comptable. On croit trop souvent que seule la production locale enrichit, quand les importations appauvrissent. L’exemple du CETA, l’accord entre l’Europe et le Canada, montre l’inverse : les entreprises françaises ont pu importer hydrocarbures et minerais à des prix plus avantageux. Si ces flux semblent peser négativement sur la balance commerciale, ils sont économiquement bénéfiques. Des matières premières moins chères permettent à nos entreprises de réduire leurs coûts et de gagner en compétitivité. Aujourd’hui, qu’importe-t-on majoritairement depuis l’Amérique latine ? Des hydrocarbures, des produits miniers… et des produits agricoles.

Les agriculteurs européens sont-ils vraiment sacrifiés sur l’autel du commerce ?

L’agriculture des pays du Mercosur fait peur. Avec 238 millions de bovins, le Brésil possède le plus grand cheptel au monde et assure à lui seul près d’un quart des exportations mondiales. L’Argentine n’est pas en reste, avec 54 millions de bêtes et des troupeaux en moyenne quatre fois plus grands qu’en France. En Amazonie ou dans le Cerrado brésilien, certaines exploitations dépassent même les 100 000 têtes de bétail. À titre de comparaison, la « ferme des mille vaches » picarde, fugace symbole tricolore de l’élevage intensif, n’a jamais compté plus de 900 bovins. Mais le gigantisme ne s’arrête pas à l’élevage. Au Brésil, SLC Agrícola exploite plus de 460 000 hectares de céréales. Deux cents fois plus que la plus grande exploitation française. Les vergers sont quatre fois plus étendus de l’autre côté de l’Atlantique. Sucre, maïs, soja… les agriculteurs européens font face à un géant. Sans jouer avec les mêmes cartes : si les produits importés devront répondre aux normes de consommation européennes, les règles de production ne sont pas identiques. Notamment concernant l’utilisation des pesticides, qui fait tant débat en Europe. Pour les agriculteurs français, difficile de se départir de l’impression de concourir face à des V12 avec un 3 cylindres.

Heureusement, l’Union européenne a prévu des garde-fous. Les importations de bœuf, notamment, sont limitées à 99 000 tonnes par an, soit l’équivalent d’un gros steak par habitant. Cela ne représente, comme pour la volaille ou le sucre, que moins de 1,5 % de la production du continent. Aucune chance, dans ces conditions, d’être submergé par l’afflux de produits agricoles sud-américains. Et si jamais c’était le cas, une procédure de sauvegarde, qui stopperait net les importations, pourrait être enclenchée.

« En France comme en Europe, les cheptels bovins ont reculé d’environ 10 % en dix ans, et cette concurrence n’y est pour rien », souligne Vincent Chatellier, ingénieur de recherche à l’Inrae. Selon lui, les pays du Mercosur disposent déjà d’un client de poids avec la Chine, beaucoup plus simple à approvisionner. L’Europe, au contraire, impose des normes strictes et chaque exploitation doit être agréée individuellement. « On l’a vu avec le CETA : dans ces conditions, rien ne garantit même que les quotas soient atteints », ajoute-t-il.

Café, oranges, soja… À l’heure actuelle, le Mercosur vend surtout à l’Europe des produits qu’elle ne cultive pas. La seule filière réellement exposée semble être celle du maïs. Massivement OGM, la production brésilienne échappe à tout quota. Elle représente bien la schizophrénie des normes : un maïs impossible à cultiver en Europe peut nourrir nos animaux d’élevage.

L’accord pourrait même ouvrir de nouvelles perspectives à certains agriculteurs européens. Bruxelles table sur 1,2 milliard d’euros d’exportations supplémentaires. Les viticulteurs seraient les premiers bénéficiaires : leurs vins gagneraient en compétitivité et leurs appellations, comme celles de plusieurs fromages, seraient enfin reconnues outre-Atlantique. Exit le « Champagne » argentin ou le camembert brésilien. Dans une moindre mesure, les fruits et légumes, les huiles végétales et les produits laitiers devraient eux aussi profiter de nouveaux débouchés commerciaux.

Quand l’écologie gagne à commercer avec le bout du monde

Pour beaucoup, faciliter le commerce transatlantique est vu comme une aberration environnementale. Pourtant, les accords commerciaux sont des outils puissants pour convertir le reste du monde à la vision européenne du mieux-disant écologique et social. Ils permettent de façonner les règles du commerce mondial conformément aux normes européennes les plus élevées, de projeter nos valeurs à travers des obligations détaillées en matière de commerce, d’emploi et de développement durable. Les signer, c’est ratifier les conventions de l’Organisation internationale du travail et les accords multilatéraux sur l’environnement, de l’Accord de Paris aux conventions biodiversité. Toute violation pouvant justifier une suspension, totale ou partielle. Ainsi, en 2020, le Cambodge a perdu ses privilèges unilatéraux, du fait des dérives autoritaires du Premier ministre Hun Sen.

La culture du soja, importante cause de déforestation, est souvent évoquée. Pourtant, l’accord avec le Mercosur ne change rien à l’affaire, les importations de tourteaux étant déjà exemptes de toute taxation douanière. Le rôle de l’Union européenne, qui n’importe que 14 millions de tonnes par an, contre 112 millions pour la Chine, est de toute façon minime. L’accord entraîne par ailleurs la ratification du Protocole de Glasgow, qui prohibe toute déforestation à partir de 2030. Pour la transition énergétique, c’est aussi un enjeu majeur : le Brésil détient 20 % des réserves mondiales de graphite, de nickel et de manganèse. L’Argentine regorge de lithium. De quoi nourrir notre industrie verte…

Reste la question du contrôle. Croire que les contrôleurs de l’Union puissent éviter toute entorse aux règles est évidemment illusoire. Mais croire qu’ils sont aveugles n’est pas moins excessif. L’an dernier, une enquête a dévoilé la présence d’hormones dans le régime alimentaire des bœufs au Brésil. Pas à des fins d’engraissement, comme on l’a souvent suggéré, mais à des fins thérapeutiques… ce qui est aussi possible en Europe. Les mêmes craintes étaient brandies lors de la signature du CETA. Huit ans plus tard, aucun bœuf aux hormones n’est importé du Canada.

En creux, l’amertume du deux poids, deux mesures

Alors que toutes les pratiques agricoles sont remises en question, que des militants n’hésitent pas à les accuser d’empoisonnement, ni à fantasmer sur une chimérique agriculture sans intrants, l’opposition au Mercosur semble bien dérisoire. Nos agriculteurs ont-ils baissé les bras face aux ennemis de l’intérieur, au point de ne plus s’autoriser d’autre combat que celui contre leurs concurrents étrangers ? Pensent-ils trouver dans la mondialisation un ennemi commun leur assurant la miséricorde des gardiens du dogme ?

Signer l’accord avec le Mercosur serait un signal puissant, un acte de confiance et de détermination, à contre-courant du repli américain. Mais après des années d’agri-bashing, de surtransposition des normes, on comprend que les agriculteurs se sentent fragilisés face à la concurrence — même si, dans les faits, elle vient bien plus de l’Ukraine ou des autres pays européens que du Mercosur. Après le raz-de-marée médiatique contre la loi Duplomb cet été, difficile de ne pas comprendre non plus leur sentiment d’impuissance. C’est pourtant là que sont les vrais enjeux : redonner aux agriculteurs le goût du possible. Qu’ils puissent à nouveau se projeter dans un avenir à la fois serein et conquérant. Nous en sommes loin. Mais ne baissons pas les bras : la souveraineté se construit plus solidement dans la compétitivité que dans le repli sur soi.

L’article Le Mercosur, ce bouc émissaire de nos politiques agricoles est apparu en premier sur Les Électrons Libres.

  •  

Autisme : le Doliprane plonge Trump dans l’effervescence

« N’en prenez pas, n’en prenez pas ! » Pour Donald Trump et son inénarrable Secrétaire d’État à la Santé, Robert F. Kennedy Jr., la prise de paracétamol pendant la grossesse est responsable de l’autisme. Une annonce spectaculaire… et une fake news de plus ?

La crainte ne date pas d’hier. Elle remonte à 2008, quand une première étude suggère un lien possible entre exposition prénatale au paracétamol1 et troubles du spectre autistique. Si l’échantillon — 83 cas et 80 témoins — est trop limité pour en tirer des conclusions solides, la question revient régulièrement depuis. En août 2025, une méta-analyse regroupant 46 études évoque un sur-risque très modeste d’autisme. Mais entre données autodéclarées, mémoire maternelle incertaine aboutissant à des oublis ou des erreurs de déclaration et faibles effectifs, les limites méthodologiques sont nombreuses. Surtout, l’analyse ne permet pas de distinguer l’effet du médicament de celui des fièvres ou des infections qui ont motivé son usage. Or ces infections sont elles-mêmes associées à un risque accru de troubles neurodéveloppementaux.

Vaccins et autisme : la persistance d’un mythe

J’approfondis

L’Association américaine des obstétriciens-gynécologues a immédiatement rappelé que ce type d’étude, entaché de biais majeurs, ne permet en aucun cas d’affirmer une causalité. La littérature scientifique reste limitée et contradictoire, avec moins d’une centaine de travaux. Certaines publications concluent à un sur-risque très faible, d’autres ne trouvent aucun lien. Quelques-unes vont même jusqu’à suggérer un effet protecteur.

Pourtant, une étude de grande ampleur existe. Menée en Suède sur près de 2,5 millions d’enfants, elle montre que les femmes ayant pris du paracétamol n’ont pas plus d’enfants autistes que les autres. Sa force tient à sa taille exceptionnelle, à la qualité des registres nationaux de santé et à l’ajustement possible par de nombreux facteurs familiaux et médicaux. Bien plus solide que les plus petits travaux, elle tend à écarter l’hypothèse d’un lien direct entre paracétamol et autisme.

Toutes ces interrogations sont aussi motivées par l’apparente explosion des cas, puisqu’il y aurait aujourd’hui dix fois plus d’enfants concernés que dans les années soixante-dix. Une hausse qui s’explique par l’élargissement progressif des critères de diagnostic. Des profils autrefois exclus sont désormais intégrés dans le spectre de l’autisme. Grâce à une meilleure sensibilisation des familles et des professionnels, les signes sont plus facilement repérés, le dépistage est plus précoce et plus systématique. Enfin, des formes légères, longtemps passées inaperçues, sont aujourd’hui reconnues. S’y ajoutent des évolutions démographiques, comme l’âge plus avancé des parents et l’amélioration de la survie des enfants à risque. Autrement dit, il y a davantage d’autistes diagnostiqués, mais pas nécessairement plus de chances de l’être.

La fake news du paracétamol contaminé par un virus mortel

J’approfondis

Il importe de garder une rigueur scientifique irréprochable, sans se laisser guider par des biais cognitifs. Que Donald Trump ait instrumentalisé le sujet ne doit pas conduire à écarter toute hypothèse d’emblée. La recherche doit se poursuivre méthodiquement, loin des emballements médiatiques. Mais aujourd’hui, ses déclarations n’ont aucune base scientifique solide.

Le paracétamol reste l’antalgique de référence pendant la grossesse, à condition de l’utiliser à la dose minimale efficace et sur une durée limitée. Certaines femmes enceintes pourraient être tentées, par sécurité, de se passer de médication. Mais l’inaction n’est pas sans risques : une fièvre maternelle non traitée représente un danger bien réel pour la mère et son enfant. C’est toute la tragédie de ce chimérique combat trumpien, qui pourrait engendrer des drames bien réels.

Aucun lien d’intérêt à déclarer en lien avec cet article.

1    Le médicament est appelé acétaminophène en Amérique du Nord et vendu sous le nom de Tylenol®, équivalent du Doliprane® ou de l’Efferalgan®.

L’article Autisme : le Doliprane plonge Trump dans l’effervescence est apparu en premier sur Les Électrons Libres.

  •  

Les PFAS, des polluants moins « éternels »

Êtes-vous en danger à cause des boîtes à pizza ou des pailles en papier ?
Dans le collimateur de l’Europe et de la France, les PFAS, dits « polluants éternels », sont partout, ou presque. Quels sont vraiment les risques ? Et quelles solutions pour demain ?

Les PFAS constituent une vaste famille de composés synthétiques – entre 4 000 et 10 000 molécules distinctes – caractérisée par une extrême stabilité chimique. Cette persistance, qui peut atteindre plusieurs centaines d’années pour certains composés, s’explique par la solidité de la liaison carbone-fluor qui les caractérise, l’une des plus fortes en chimie organique, capable de résister aux rayonnements UV et aux conditions naturelles. Cette architecture crée une liaison très stable, qui confère aux PFAS de nombreux atouts. Ils présentent une grande stabilité dans le temps, un fort pouvoir antiadhérent, une excellente résistance à la chaleur et aux produits chimiques, et une rare capacité à repousser l’eau comme les graisses. Ce rôle transversal explique leur succès… et la difficulté de s’en passer trop brutalement.

Hélas, ils se dispersent facilement dans l’air, les sols et les eaux, ce qui accroît leur potentiel de contamination. Logique, puisque leur caractère bioaccumulable favorise leur concentration dans les écosystèmes et leur transfert dans la chaîne alimentaire.

À titre d’exemple, les PFAS utilisés comme agents d’imperméabilisation ou antitaches pour les textiles sont progressivement libérés lors des lavages et rejoignent les eaux usées. Ils peuvent également exposer l’utilisateur par contact cutané. Les emballages alimentaires constituent une autre source d’exposition. De nombreux produits en papier/carton, tels que les boîtes à pizza, les pailles en papier ou certains contenants jetables, peuvent être traités aux PFAS afin de résister à l’eau, aux graisses et à la chaleur. Cette utilisation favorise leur migration vers les aliments, en particulier lorsque ceux-ci sont chauds ou gras, ce qui entraîne une exposition du consommateur.

Dans le cas des PFAS utilisés pour fabriquer des matériaux polymères, comme le Téflon, la dispersion dans l’environnement se produit principalement au moment de la production des molécules qui les constituent, plutôt qu’au cours de leur utilisation. Votre poêle Tefal n’est donc pas dangereuse à l’usage, mais lors de sa fabrication, contrairement à l’idée reçue qui entoure cet outil de cuisine. Les modes de rejet et de pollution de l’environnement dépendent donc fortement de l’utilisation des PFAS.

Leur formidable stabilité chimique a toutefois un revers de taille. Les éliminer est un vrai casse-tête lorsqu’ils se retrouvent disséminés dans l’environnement. La raison en est simple : ces molécules n’existent pas dans la nature, d’où l’absence d’enzymes en capacité de les dégrader…

Pendant longtemps, les seules solutions pour en limiter la dissémination ont consisté à les filtrer ou à les confiner, sans pouvoir les faire disparaître. Aujourd’hui, si nul remède miracle et facile à mettre en œuvre n’existe encore, industriels, entrepreneurs et chercheurs explorent ensemble des issues technologiques capables de détruire, voire de recycler, ces molécules.

PFAS : une pollution persistante et préoccupante pour l’environnement et la santé

J’approfondis

Oxyle : rompre l’indestructible liaison !

Parmi les start-up européennes qui s’attaquent de front aux résidus de PFAS, Oxyle fait figure de pionnière. Née à Zurich (Suisse), elle développe une technologie de destruction basée sur un catalyseur nanoporeux piézoélectrique. Le principe est aussi élégant que redoutable : lorsque de l’eau contaminée passe sur ce matériau, simultanément soumis à une stimulation mécanique, le catalyseur génère des charges électriques transitoires, des micro-impulsions qui suffisent à rompre la fameuse liaison carbone-fluor, pourtant réputée indestructible.

Résultat : les PFAS sont progressivement décomposés en molécules minérales, comme du dioxyde de carbone et du fluorure. Selon la jeune entreprise, sa technologie en élimine « plus de 99 % ». Mieux encore : cette solution aurait une consommation énergétique « jusqu’à 15 fois inférieure » aux procédés traditionnels, affirme Oxyle.
La société indique pouvoir équiper aussi bien des unités industrielles que des installations de traitement d’eaux souterraines ou rejetées par les municipalités. Elle a déjà mené plusieurs expériences pilotes en Suisse et en Europe, avec l’ambition de traiter au moins 100 millions de mètres cubes dans les cinq prochaines années.

Prometteuse, la solution d’Oxyle est en voie d’industrialisation, même si des écueils demeurent. Son efficacité varie sensiblement selon la qualité de l’eau, comme le reconnaît volontiers l’entreprise. Car la présence de matières organiques et de co-polluants peut altérer la performance. Et sur des rejets très dilués, une étape de préconcentration en amont s’avère souvent nécessaire. À suivre.

Haemers Technologies : détruire les PFAS dans les sols

Quand on parle de PFAS, on pense souvent à leur présence dans l’eau. Mais une part importante du problème se cache dans les sols, les boues et les sédiments. C’est sur ce terrain que veut s’imposer Haemers Technologies, une start-up belge spécialiste du procédé thermique de dépollution. Son approche repose sur un principe simple : chauffer le sol par conduction thermique pour faire migrer les polluants, puis les détruire aussitôt dans une unité de traitement couplée, sans générer de « résidus secondaires ».

Concrètement, l’entreprise déploie sur site des électrodes ou des puits chauffants qui élèvent la température du sol, entraînant la désorption des PFAS. Les composés volatilisés sont ensuite aspirés et dirigés vers un dispositif de post-traitement à haute température, où ils sont oxydés. Haemers revendique une destruction totale de ces molécules, aussi bien in situ (sans devoir faire d’excavation) qu’ex situ (après extraction du sol pollué).

Cette technologie se distingue par sa capacité à traiter efficacement les PFAS directement sur les sites contaminés, ce qui en fait une solution plug-and-play pour la dépollution des sols. Des essais pilotes ont déjà été réalisés, au Danemark notamment.

La voie thermique de Haemers n’est toutefois pas sans contraintes. Chauffer des volumes de sol importants reste un processus énergivore et coûteux. Par exemple, pour l’in situ, la société indique que la consommation d’énergie « descendrait aux alentours de 200 kWh par tonne de sol ». Quant à l’ex situ, il est nettement plus onéreux. Se pose aussi la question du bilan carbone de ces opérations de dépollution, qui dépend beaucoup de la qualité du mix énergétique des pays dans lesquels elles seront envisagées.

Oxford : et si on recyclait le fluor ?

Du côté de l’Université d’Oxford, une autre approche est proposée : le recyclage en amont des PFAS, au lieu de les détruire. Une solution qui permettrait de les traiter « à la source », en intervenant avant leur dispersion dans l’environnement, pour en récupérer le fluor sous la forme de sels réutilisables. Un dispositif pouvant s’avérer complémentaire des deux technologies précédentes dites « de dépollution ».

Les équipes de chimistes du campus ont mis au point, au printemps 2025, une méthode inédite reposant sur la mécanochimie. Au lieu d’utiliser de la chaleur ou des solvants, elles détruisent les PFAS solides, en présence de sels de phosphate de potassium, dans un simple broyeur à billes. Ce processus mécanique génère l’énergie nécessaire pour rompre les liaisons carbone-fluor, décidément de moins en moins « indestructibles ».

Le fluor libéré est capté sous forme de sels inorganiques (fluorure de potassium et fluorophosphate), directement réutilisables dans l’industrie chimique. Le phosphate servant d’agent réactif est lui aussi recyclé, ce qui rend le procédé circulaire. Il ne se contente pas d’éliminer la pollution, il revalorise une ressource stratégique, en transformant des déchets solides contenant des PFAS en une nouvelle source de fluor pour l’économie.

Selon les chercheurs d’Oxford, la méthode est applicable à une large gamme de PFAS : les acides (comme le PFOA), les sulfonates (PFOS), mais aussi les polymères fluorés un peu plus complexes tels que le PTFE ou le PVDF. L’expérience se déroule à température et pression ambiantes, avec un équipement simple et non énergivore.

Cette solution reste néanmoins au stade de l’expérimentation, avec des essais réalisés sur de petits lots de PFAS. Quant au potentiel passage au niveau industriel, il doit encore être démontré. En outre, le procédé vise surtout des flux solides et concentrés. Pour des PFAS de type résines, mousses ou polymères, il sera préalablement nécessaire de les capter et de les sécher avant de les passer au broyage.

PFAS : un encadrement qui se durcit en France et en Europe

J’approfondis

Si pour certains les PFAS auront marqué notre époque comme la chimie du progrès, et pour d’autres comme celle de l’empreinte « indélébile » des activités humaines, la science, l’ingénierie et l’imagination refusent de se laisser enfermer dans une quelconque fatalité. Même si elles ne couvrent pas tous les cas de figure et ne sont pas des « baguettes magiques », les pistes présentées ouvrent des portes et autorisent à penser que l’éternité des PFAS n’a pas forcément vocation à durer…

La sortie par le haut passera donc par un mix entre une réduction à la source et une substitution lorsque c’est possible. Mais aussi par le traitement des flux de production, la destruction ou le recyclage lorsque c’est pertinent, et bien sûr par la transparence et le suivi des résultats.

L’article Les PFAS, des polluants moins « éternels » est apparu en premier sur Les Électrons Libres.

  •  

La technologie peut-elle sauver le climat ?

Non, ce n’était pas « mieux avant ». En réalité, le monde n’a jamais été durable. Mais, pour la première fois dans l’histoire de l’humanité, des technologies changent la donne. Et si la neutralité carbone n’était plus une question de « si », mais de « quand » ?

Dossier réservé à nos abonnés.

S'abonner dès 5€/mois

ou

Acheter ce dossier pour 1,50€

L’article La technologie peut-elle sauver le climat ? est apparu en premier sur Les Électrons Libres.

💾

  •  

Le GIEC est-il techno-optimiste ?

À en croire l’historien Jean-Baptiste Fressoz, le groupe III du GIEC, qui évalue les moyens d’atténuer le réchauffement climatique, serait trop « technophile » et sous-estimerait les mesures de sobriété. Un procès à côté de la plaque.

Dans un article récemment paru dans la revue Energy Research & Social Science et dûment relayé par Le Monde du 30 août, l’historien des sciences et chercheur au CNRS Jean-Baptiste Fressoz entend mettre en évidence le biais « technocentrique » qui, selon lui, imprègne tous les rapports du groupe III du GIEC depuis ses débuts en 1990. Ce groupe de travail est chargé de recenser et d’évaluer les solutions d’atténuation du changement climatique qui doivent permettre de réduire les émissions de gaz à effet de serre (GES) et donc limiter autour de 2 degrés la hausse de la température planétaire par rapport aux périodes préindustrielles.

L’auteur estime que ce biais « nourrit un faux optimisme, légitime le soutien aux technologies spéculatives, réduit l’éventail des options politiques viables et retarde les transformations structurelles ». Il juge l’objectif de neutralité carbone visé d’ici 2050-2070 par l’Accord de Paris « technologiquement impossible » et appelle à renoncer à ces « illusions » au profit de mesures de sobriété, de décroissance et de redistribution (qu’il ne détaille pas). Hélas, sa thèse souffre elle-même de nombreux biais.

Méthodologie sémantique indigente

Pour mettre en évidence cette supposée technophilie historique, l’historien a compté les occurrences de différents termes dans les six rapports du groupe III, certains identifiés comme technologiques, d’autres évoquant des actions de réduction de la demande. Dans le dernier rapport paru en 2022, il a ainsi compté 1 096 fois le mot « hydrogène », 1 667 fois « innovation » ou 2 111 fois « technologie », mais seulement 232 fois le terme « sufficiency » (sobriété) et 29 fois « décroissance » ! Pour l’auteur, le déséquilibre est probant, même s’il admet qu’il est moins prononcé que dans les précédents opus. Et de fait, le groupe III a, pour la première fois en 2022, consacré un chapitre aux changements de modes de vie et d’usages et à la sobriété, estimant que ces stratégies pourraient réduire les émissions de 40 à 70 % selon les secteurs. Un virage applaudi par toute la sphère de l’écologie politique. « Le GIEC enterre la stratégie de la croissance verte », s’est notamment réjoui l’économiste décroissant Timothée Parrique.

Le politologue François Gemenne, co-auteur du sixième rapport du GIEC, et confronté à l’historien sur France Inter, a moqué « l’extraordinaire faiblesse d’une méthodologie basée sur le nombre d’occurrences de mots », rappelant que le rapport du GIEC n’était pas, comme le prétendait JB Fressoz, « un guide pour nous aider à sortir du carbone », mais l’état des connaissances scientifiques à un moment précis. « On évalue à la fois l’abondance et la convergence de la littérature sur le sujet. Il est donc logique que les rapports parlent davantage d’énergie solaire ».

De plus, remarque le journaliste scientifique Sylvestre Huet sur son blog Sciences au carré hébergé par Le Monde, « Jean-Baptiste Fressoz confond “beaucoup” et “bien”. Il nous dit que le GIEC est obnubilé par les CSC (capture et stockage du carbone), alors que le GIEC nous alerte surtout sur l’extrême difficulté d’une éventuelle mise en œuvre de cette technologie. Mais pour le savoir, il ne faut pas se contenter de faire compter des mots par un logiciel, il faut lire le texte (qui est long) ». Bim.

In fine, ce comptage de mots ne prouve rien. JB Fressoz démonte même sa propre démonstration en admettant, au détour d’un paragraphe, que « la fréquence d’un terme n’implique pas son approbation », citant le cas de l’hydrogène, très critiqué dans le dernier rapport.

Opposition stérile entre technologies et mesures socio-économiques

Résumer le débat à un affrontement entre techno-solutionnistes et décroissants relève du pur sophisme (voir encart « Le coût, principal frein des technologies de décarbonation »). « Ce n’est pas une technologie générique qui permet de réaliser le potentiel de réduction, c’est une synergie entre des changements techniques précis et des modes de vie et de consommation nécessaires », affirme Sylvestre Huet. D’autant que les leviers socio-économiques d’atténuation du changement climatique sont tout aussi complexes à mettre en œuvre que les techniques de décarbonation — sans même parler de la décroissance, qui fait l’objet d’un profond rejet des populations en plus de reposer sur une littérature imprécise et peu aboutie (voir encart ci-dessous).

La décroissance, une théorie scientifique ?

J’approfondis

Confusion entre faisabilité technique et coût économique

JB Fressoz juge les technologies de décarbonation « spéculatives » et « irréalistes ». « Est-ce que l’on sait faire de l’acier, du ciment, des engrais sans émettre de CO₂ ? Non ! Est-ce que l’on sait faire voler des avions ou faire naviguer des porte-conteneurs sans émettre de CO₂ ? Non. Tous les modélisateurs le savent ! », s’est-il emporté sur France Inter.

Sauf qu’en fait, bien souvent, on sait le faire et on le fait déjà, comme peuvent en témoigner de nombreuses entreprises, tels le fabricant d’engrais bas-carbone FertigHy, le cimentier Lafarge Holcim ou, dans le domaine des CSC, le méga-projet norvégien Northern Lights (TotalEnergies, Equinor et Shell). Les technologies bas carbone existent. Le problème, c’est leur coût, encore nettement plus élevé que pour leurs équivalentes plus émettrices. Ainsi, remplacer toutes les chaudières au gaz d’une collectivité par des pompes à chaleur est techniquement facile mais l’investissement nécessaire est encore dissuasif.

« Le GIEC met parfois en avant des solutions peu ou pas matures, admet le physicien-climatologue et co-auteur du cinquième rapport du GIEC François-Marie Bréon. Mais le solaire ou les batteries ne l’étaient pas il y a vingt ans. Or, on voit aujourd’hui les ruptures technologiques réalisées ». Avec, à la clé, des baisses de coûts spectaculaires et la massification des procédés.

Le coût, principal frein des technologies de décarbonation 

J’approfondis

JB Fressoz se montre particulièrement critique envers la mise en avant par le GIEC des techniques d’émissions négatives comme les CSC (consistant à capturer le carbone rejeté dans l’atmosphère par les centrales thermiques et les usines, puis à l’injecter dans le sous-sol). Le scénario misant sur l’injection, à terme, de 10 milliards de tonnes de CO₂ par an, est-il absurde, comme il le soutient ? Non, répond François-Marie Bréon. Pour lui, la limite à l’essor de ces procédés n’est pas technique, mais politique et économique : « Les CSC coûtent environ 100 euros la tonne. Aucun État n’a un intérêt politique à y consacrer des ressources significatives, car sa population n’en bénéficiera pas directement à court terme, même si la planète en a besoin. Seul un accord international pourra résoudre cette difficulté ».

Un biais « socio-solutionniste » ?

Derrière l’importance que le GIEC accorde à ces techniques, JB Fressoz voit la main des multinationales et de leurs lobbies. Il souligne que le groupe III a, dès sa création, impliqué « de nombreux experts affiliés à l’industrie des combustibles fossiles », citant Total, Exxon, ENI, Mobil Oil, Saudi Aramco, DuPont, Volvo, le World Coal Institute, etc. Et on comprend clairement qu’il le condamne. Selon lui, la participation de ces experts du privé comme co-auteurs « a contribué à façonner le contenu des rapports, notamment en valorisant le rôle des CSC dans les scénarios de neutralité carbone du GIEC ». Une assertion qu’il illustre par une série de retours historiques, insistant sur l’influence exercée par les États-Unis dès 1988. On retrouve ici l’accusation classique de « néolibéralisme » portée par des écologistes radicaux à l’encontre du GIEC, initiée lors d’une réunion du G7 en 1988, sous l’impulsion notable de Margaret Thatcher et de Ronald Reagan.

L’intérêt du GIEC se traduit par un rapport spécial sur les CSC publié en 2005. « Plusieurs auteurs principaux ou réviseurs de ce rapport étaient également employés par des compagnies de charbon, de pétrole, de gaz ou d’électricité », dénonce Fressoz. « De nombreuses références provenaient soit des conférences GHGT (Global Energy Technology Strategy), soit du programme GES de l’AIE, tous deux étroitement liés aux majors pétrolières ». Et alors ? pourrait-on lui répondre, puisqu’il reconnaît lui-même que le groupe III est « majoritairement composé d’experts de la recherche publique ni naïfs ni influençables ».

Le sous-entendu de mise sous influence du groupe III est patent. Il ne cache d’ailleurs pas son rejet viscéral de l’entreprise : « Parfois, écrit-il, le rapport du GIEC ressemble davantage à des brochures de marketing industriel qu’à une évaluation scientifique ». Pour Alexandre Baumann, auteur et créateur d’un blog sur la pseudo-écologie, « le présupposé de Fressoz est que les chercheurs qui travaillent pour une entreprise privée sont forcément inféodés à leurs employeurs, forcément corrompus, et que la recherche privée ne peut traduire que les intérêts capitalistes en présence. Ce double standard sur la science s’inscrit selon moi dans une logique partisane ».

Même si, rappelons-le, le GIEC n’a aucun rôle prescripteur, il doit présenter des solutions jugées crédibles et réalisables. Et comme il fait autorité auprès des gouvernements (et de la communauté internationale en général), on ne peut certes exclure que des groupes d’intérêt cherchent à influencer ses conclusions. Mais face aux risques de pression, sa force réside dans le recours à des centaines d’experts aux opinions et sensibilités différentes, qui évaluent et synthétisent des milliers de travaux (278 auteurs pour 18 000 articles scientifiques en 2022). C’est ainsi que se construit et s’ajuste au fil des années le consensus scientifique le plus complet et le plus rigoureux actuellement disponible sur le climat. Personne ne peut envisager sérieusement d’en exclure les ingénieurs et les chercheurs du secteur privé, qui élaborent et développent ces technologies. Ni de bannir ces dernières au profit d’une hypothétique sobriété. À moins de souffrir d’un regrettable biais « socio-solutionniste » sans fondement scientifique.

L’article Le GIEC est-il techno-optimiste ? est apparu en premier sur Les Électrons Libres.

  •