Vue normale

Reçu avant avant-hierLes Électrons Libres

Kessel : un siècle avant la flottille

30 septembre 2025 à 19:08

Un siècle avant la Flottille pour Gaza, Joseph Kessel prenait la mer pour rejoindre la Palestine. Une expédition bien différente, qui nous éclaire sur le conflit actuel… et sur notre société du spectacle.

Avril 1926, Marseille. Joseph Kessel embarque pour Jaffa. Comme souvent, ses voyages sont nés de rencontres avec des êtres charismatiques, Monfreid, Mermoz, Kersten… Ce jour-là, l’homme qui l’accompagne se nomme Chaïm Weizmann. Difficile de trouver deux personnalités plus antagonistes. Kessel, nomade agnostique, étranger à toute ferveur religieuse, indifférent aux appels du patriotisme comme aux élans des causes collectives, est à mille lieues de l’ardeur qui étreint le futur premier chef de l’État d’Israël. Mais celui qui fait sienne la devise de Péguy, « Dire bêtement la vérité bête, ennuyeusement la vérité ennuyeuse, tristement la vérité triste », veut voir, et raconter.

Une terre d’espoir et de feu

Contrairement à la flottille d’aujourd’hui, il ne s’attarde pas sur sa traversée de la Méditerranée. L’important n’est pas le voyage, mais la destination. La « mer de la civilisation » s’échoue sur une terre âpre, où le feu du soleil brûle les visages et les terres, où la malaria décime les familles. Même l’eau enflamme les chairs.

Depuis 1920, la Palestine est sous mandat britannique. Une conséquence de l’effondrement de l’Empire ottoman et de sa défaite lors de la Première Guerre mondiale. Son territoire correspondant grosso modo aux actuelles terres d’Israël, de la Cisjordanie et de Gaza. Elle compte alors environ 600 000 Arabes et un peu plus de 150 000 Juifs. La majorité de ces derniers sont des immigrants arrivés depuis la fin du XIXᵉ siècle de Russie, de Pologne ou d’Ukraine, venus se mêler aux communautés juives autochtones présentes sur place de longue date. Les premiers sionistes, les Amants de Sion, s’étaient embarqués à la suite d’émeutes antijuives en Russie. D’autres les ont rejoints après guerre, soupçonnés d’avoir pris part à la révolution d’Octobre et pourchassés par les armées blanches, nationalistes et cosaques. Peu de temps avant que les bolcheviques, à leur tour, ne s’en prennent à eux, voyant dans le sionisme une entreprise capitaliste, bourgeoise et nationaliste. Car ce nouveau sionisme, théorisé à la fin du XIXᵉ siècle par Theodor Herzl, propose pour la première fois la création d’un foyer national pour le peuple juif, en réponse aux persécutions.

Kessel arrive dans un pays qui semble s’ébrouer après plusieurs siècles d’une vie immuable. Les fellahs, petits paysans arabes accablés de labeur et d’impôts dans un système féodal, voient les plaines se couvrir de cultures, les villes s’élever et une nouvelle liberté poindre… qui va bientôt inquiéter leurs maîtres.

Une langue, mille rêves

Comme toujours, Kessel s’intéresse davantage aux êtres qu’à la politique. Des kvoutza, ces ancêtres du kibboutz, aux communautés orthodoxes, il découvre autant de projets sionistes qu’il y a de rêves individuels. L’individu, pourtant, s’efface derrière cette espérance collectiviste qu’il a conçue en songe.

Au cœur de la vallée de Jezreel, les jeunes idéalistes socialistes qu’il rencontre ne se mettent pas en scène, ne fantasment pas leur bravoure ni l’importance de leur rôle. Non, ils sacrifient leur héritage bourgeois et leurs mains délicates pour le rude travail de la terre, creusant, récurant, construisant de l’aube au coucher du soleil. Leur sueur a transformé un inculte marécage en promesse d’abondance.

À Bnei Brak, la colonie hassidim défie la chaleur écrasante dans ses habits de ténèbres, construit des temples avant même d’avoir garanti son souper ou sécurisé ses bicoques branlantes. Aujourd’hui encore, Bnei Brak abrite le quartier le plus pauvre d’Israël, et vote à 90 % pour les ultra-orthodoxes.

À Kfar-Yeladim, Kessel découvre stupéfait une communauté d’enfants qui vit en quasi autonomie. Guidés par le pédagogue Pougatchev, ils inventent leur constitution, leur tribunal, leur système électoral et leur presse. Ils tentent de construire une société nouvelle, pour refermer la plaie ouverte par le massacre de leurs géniteurs.

Comme nulle part ailleurs, cette promesse se construit dans un chantier permanent, qui s’oppose en tout point au charme pittoresque des cités arabes patinées par les siècles. Elle porte un nom : Tel-Aviv. Un antagonisme qui illustre si bien le dilemme du progrès. Aucune nouveauté, aucune invention ne peut procurer la douceur réconfortante d’un marché, d’une échoppe ou d’un geste ancestral. Mais que vaut ce réconfort immémorial face à la malaria, à la misère du non-développement, au joug des traditions ? C’est ce carcan qui, précisément, a poussé à fonder la cité. À Jaffa, les autochtones prenaient les visages découverts des nouvelles arrivantes pour une invitation. Tel-Aviv est « née du baiser des arabes ».

De l’entrepreneur fortuné au religieux démuni ou au jeune socialiste, les aspirations sont si diverses que seule la langue peut les réunir. « Un peuple peut exister sans gouvernement choisi, sans institutions, et même sans terre qui lui appartienne. Mais s’il ne possède pas de langue qui lui soit propre, c’est un peuple mort » écrit Kessel. En Palestine, c’est la résurrection d’une langue morte qui fait naître un peuple.

Nouvelles richesses, vieilles servitudes

Depuis l’époque ottomane, les effendis sont les véritables maîtres de la société palestinienne. Propriétaires fonciers, ils accablent d’impôts les misérables fellahs qui travaillent leurs terres pour des salaires de famine. À l’arrivée des migrants, ces potentats locaux saisissent l’aubaine et leur cèdent des parcelles à prix d’or, au mépris des fellahs qui perdent leur unique moyen de subsistance.

S’ils ne sont pas acceptés dans les communautés orthodoxes ni dans les kvoutza socialistes, nombreux trouvent des emplois chez des fermiers ou des entrepreneurs juifs. À leur grande surprise, ils découvrent des ouvriers payés aux prix européens, des hommes travaillant aux champs et réclamant aisément leur dû. « Des formules étranges de liberté, d’égalité étaient dans l’air », remarque Kessel. Les effendis sentirent la colère monter chez leurs anciens vassaux.

Mais il leur restait l’influence que confère une longue domination. Ils les persuadèrent que les nouveaux venus allaient tout leur enlever et qu’il fallait les exterminer avant qu’ils ne fussent en force. La propagande réussit. 

Terreur et développement 

Le 4 avril 1920, 70 000 personnes se rassemblent à Jérusalem. Depuis l’hôtel de ville, le maire Moussa Qazem al-Husseini presse la foule de donner son sang pour la cause. Aref al-Aref, l’éditeur du Journal Suriya al-Janubia, harangue depuis son cheval : « Si nous n’utilisons pas la force contre les sionistes et contre les Juifs, nous n’en viendrons jamais à bout ! ». On lui répond en scandant « Indépendance ! Indépendance ! » Durant quatre jours, des combats éclatent. Malgré leur infériorité numérique, les colons résistent avec l’appui des soldats britanniques. 

Ces émeutes sont la première manifestation majeure de violence entre les communautés arabe et juive de Palestine dans le contexte du conflit qui les oppose encore aujourd’hui. Elles poussent les Juifs à développer leur propre organisation de défense, la Haganah, ancêtre du noyau de l’armée israélienne : Tsahal.

Quand Kessel débarque en terre palestinienne quelques années plus tard, il sent un revirement. La dynamique de croissance qu’engendre l’immigration juive semble faire des émules. Il voit des terres sans avenir se couvrir de cultures, les grandes agglomérations devenir des centres de commerce de plus en plus florissants. Alors que le pays « nourrissait difficilement quelques centaines de milliers d’hommes » rappelle-t-il, s’ouvre la perspective d’en faire vivre des millions. Ce que, opprimés par le joug féodal de leurs maîtres, les fellahs n’ont pu faire en quatre siècles.

Le développement plutôt que l’affrontement ? En 2020 une étude indiquait que 86 % des Gazaouis se disaient plus intéressés par la croissance économique et les réformes politiques que par la politique étrangère. 7 sur 10 souhaitaient être gouvernés par l’Autorité palestinienne plutôt que par le Hamas. Organisation que les habitants des pays arabes rejetent massivement, comme le Hezbollah. Et tandis que le gouvernement Netanyahou menace d’annexer la Cisjordanie et d’occuper Gaza, près des trois quarts des Israéliens soutiennent, ou ne s’opposent pas à un accord incluant la reconnaissance d’un État de Palestine.

Kessel allait pour voir, pour sentir et pour raconter. Aujourd’hui, on va pour se montrer. Quitte à être les idiots utiles de déplorables maîtres.

L’article Kessel : un siècle avant la flottille est apparu en premier sur Les Électrons Libres.

Soigner en une seule injection ? La révolution CRISPR

30 septembre 2025 à 03:30

Bientôt, plus de cholestérol et même… de VIH ? Après une seule perfusion ? Avec CRISPR, la médecine ne sera plus jamais comme avant.

À l’origine, CRISPR est un mécanisme que les bactéries utilisent pour se défendre contre les virus, en coupant leur ADN. Des chercheurs, dont Emmanuelle Charpentier et Jennifer Doudna, récompensées par le prix Nobel de chimie en 2020, ont adapté ce système pour modifier notre propre ADN avec une précision incroyable. En seulement dix ans, cette technologie est passée des laboratoires aux hôpitaux, en offrant une formidable perspective : celle qui permet de traiter des maladies graves de manière définitive avec… parfois une seule injection. Et ce, en corrigeant directement leur cause dans nos gènes. C’est un espoir immense pour des maladies jusqu’ici jugées incurables. Ce mécanisme fonctionne comme des ciseaux moléculaires guidés par une carte ultra-précise. Ils peuvent couper, remplacer ou ajuster une partie de l’ADN pour réparer un gène défectueux ou en désactiver un qui pose problème.

Cette technologie suit deux grandes approches. La première, dite édition « ex vivo », où l’on prélève des cellules du patient avant de les modifier en laboratoire et de les réinjecter. La seconde est « in vivo » : tout le processus se déroule directement dans le corps, souvent grâce à de minuscules transporteurs appelés nanoparticules lipidiques. Ils livrent l’outil CRISPR là où il faut, comme dans le foie ou d’autres organes. Des versions plus avancées, comme le « base editing » ou le « prime editing », permettent même de faire des modifications ultra-fines sans abîmer l’ADN, réduisant ainsi les risques d’erreurs.

CRISPR, un kaléidoscope de technologies

J’approfondis

Pour mesurer véritablement la portée de cette révolution, rien de plus éloquent que de jeter un œil sur différents essais cliniques ayant éprouvé le principe.

La foire aux essais cliniques !

Il y a encore quelques années, les premiers essais avec CRISPR faisaient la une des journaux comme des exploits rares. Aujourd’hui, le paysage a changé. Environ 250 essais cliniques sur l’édition génétique ont vu le jour, dont 150 sont en cours. Et près de la moitié utilisent CRISPR ! Depuis le tout premier, en 2016, seulement quatre ans après la découverte majeure de Charpentier et Doudna, la technologie a fait un bond incroyable. Ces essais ciblent des maladies variées : cancers, troubles du sang, pathologies cardiovasculaires, infections comme le VIH et maladies rares. L’objectif commun ? Un traitement en une seule fois qui corrige la cause profonde d’un problème, plutôt que de soigner ses symptômes à répétition.

Mais des questions subsistent. Le mécanisme est-il réellement efficace ? Quelle est la durée de ses effets ? Est-ce sans danger ? Et surtout, pourra-t-on rendre ces traitements accessibles à tous ? Des interrogations qui se dissipent au fur et à mesure que les essais cliniques livrent leurs vérités.

En Verve pour réduire le cholestérol

L’essai VERVE-102, mené par Verve Therapeutics, veut révolutionner la lutte contre le « mauvais » cholestérol (LDL), qui bouche les artères et cause des crises cardiaques. En une seule injection, CRISPR désactive un gène appelé PCSK9 dans le foie, ce qui réduit fortement le problème. Les premiers résultats de 2025 montrent une baisse moyenne de 53 % du LDL, et jusqu’à 69 % pour certains patients, sans effets secondaires graves. Si la durabilité des résultats est au rendez-vous, comme l’espèrent les chercheurs, cela pourrait remplacer les médicaments quotidiens pour les personnes à risque, telles celles ayant un cholestérol élevé héréditaire. Prochaines étapes : confirmer que cela reste sûr et efficace sur le long terme, pour en faire un traitement courant.

VIH caché… dévoilé

Le VIH est un virus malin. Même avec des traitements, il se dissimule dans l’ADN de certaines cellules et peut revenir si l’on arrête les médicaments. L’essai EBT-101 d’Excision BioTherapeutics utilise CRISPR pour couper et éliminer ces morceaux de virus cachés. Les premières données montrent une bonne tolérance au traitement, sans rebond important du virus. Mais le vrai défi est de prouver que les patients peuvent arrêter leurs médicaments sans que le VIH revienne. Si cet essai réussit, ce serait une avancée majeure contre une maladie qui touche des millions de personnes. Les chercheurs planchent déjà sur des moyens de rendre le traitement plus puissant et plus facile à produire à grande échelle.

Sus à la drépanocytose

La drépanocytose est une maladie génétique qui déforme les globules rouges, provoquant des douleurs intenses et des complications graves. Avec BEAM-101, Beam Therapeutics propose une solution : prélever les cellules souches du patient, puis utiliser CRISPR pour réactiver un gène qui produit une hémoglobine saine (comme celle des bébés), avant de réinjecter ces cellules. Les résultats de 2025 sur 17 patients montrent une forte hausse de cette hémoglobine (plus de 60 %), moins de complications et une meilleure qualité de vie, sans crises douloureuses. Mais le traitement est complexe et coûteux, nécessitant des hôpitaux spécialisés. L’objectif à long terme est de simplifier le processus pour le rendre accessible à plus de patients, notamment dans les régions où la maladie est courante.

Dire stop à l’amylose

L’amylose à transthyrétine (ATTR) est une maladie où une protéine toxique s’accumule dans le cœur, les yeux, le système nerveux ou les reins, causant de graves problèmes, notamment cardiaques. L’essai NTLA-2001 d’Intellia Therapeutics utilise CRISPR pour désactiver le gène responsable de cette protéine, avec une seule perfusion. Les résultats montrent une chute durable de l’intrus toxique, et l’essai de phase 3, en cours en 2025, vérifie si cela améliore la vie des patients. Moins d’hospitalisations, une meilleure santé cardiaque, une vie plus longue ? Si les réponses sont positives, ce traitement pourrait devenir une référence pour cette maladie grave.

Une statue pour Emmanuelle Charpentier et Jennifer Doudna ?

CRISPR ouvre une nouvelle ère pour la médecine, avec des traitements qui semblaient autrefois de la science-fiction. Des maladies du cœur au VIH, en passant par des troubles génétiques rares, cette technologie promet des solutions durables, souvent en une seule intervention. Si les défis de sécurité, d’efficacité et d’accessibilité sont relevés, elle pourrait changer des millions de vies. L’avenir s’écrit aujourd’hui, et CRISPR en est l’une des plumes les plus prometteuses. De quoi bientôt ériger une statue à la gloire d’Emmanuelle Charpentier et Jennifer Doudna ?

L’article Soigner en une seule injection ? La révolution CRISPR est apparu en premier sur Les Électrons Libres.

Nucléariser le monde !

29 septembre 2025 à 04:36

En finir avec la grande pauvreté ? Réduire d’un tiers nos émissions de CO2 ? Le tout pour seulement 0,5 % de notre PIB ? C’est possible, en nucléarisant la planète. Plongée dans le « Projet Messmer 2.0 ».

Voici une vérité qui dérange : la pauvreté n’est pas un problème parmi d’autres. C’est le problème fondamental de l’humanité, celui qui condamne des milliards d’êtres humains à une existence précaire, marquée par la maladie, l’ignorance et la mort prématurée. Et au cœur de cette pauvreté se trouve un dénominateur commun, simple et implacable : l’absence d’accès à une énergie abordable et fiable.

Près de 3,7 milliards de personnes — environ 47% de la population mondiale — vivent dans ce qu’on peut appeler le « monde débranché », où la consommation électrique annuelle par habitant est inférieure à 1 200 kWh. Un précédent papier mettait déjà en valeur cette comparaison frappante : c’est à peine plus que la consommation annuelle d’un réfrigérateur américain standard. Pendant qu’un Français moyen consomme 7 000 kWh par an et un Américain plus de 12 000, des pays comme le Pakistan, l’Indonésie et l’Inde — qui abritent ensemble 1,9 milliard de personnes — restent dramatiquement sous-électrifiés.

Cette pauvreté énergétique n’est pas qu’une statistique abstraite. Elle se traduit par des drames humains quotidiens d’une effrayante ampleur. Selon l’Institute for Health Metrics and Evaluation, plus de 3 millions de personnes meurent prématurément chaque année à cause de la pollution de l’air intérieur liée à l’utilisation de combustibles solides pour cuisiner. Plus de 50% des décès d’enfants de moins de 5 ans sont dus à des pneumonies causées par l’inhalation de particules fines provenant de la pollution domestique.

Environ 40% de la population mondiale dépend encore principalement de la combustion de biomasse — bois, bouses séchées, résidus agricoles — pour leurs besoins énergétiques. Cette réalité condamne des milliards de personnes, principalement des femmes et des enfants, à passer des heures chaque jour à chercher du combustible, à le transporter sur des kilomètres, puis à respirer sa fumée toxique. Ces heures perdues sont autant d’heures volées à l’éducation, au travail productif, au développement personnel. C’est un révoltant gâchis humain.

Le double impératif : climat ET prospérité

La corrélation entre consommation énergétique et développement humain n’est pas une simple coïncidence statistique — c’est une loi de fer du progrès humain. Une règle empirique approximative pour les économies en développement est que chaque kWh par habitant consommé vaut environ 5 dollars de PIB par personne. Ce lien s’observe dans tous les indicateurs de bien-être : espérance de vie, mortalité infantile, éducation, accès à l’eau potable.

Voici la réalité brutale que certains refusent d’admettre. Nous ne résoudrons pas le réchauffement climatique en condamnant des milliards d’êtres humains à rester dans la pauvreté. Ce serait moralement intolérable et, de toute façon, politiquement impossible. La transition énergétique à l’échelle mondiale doit s’accompagner d’une élévation généralisée du niveau de vie, donc d’une augmentation massive de la production d’énergie mondiale. Le nécessaire et urgent combat pour limiter le réchauffement climatique ne doit pas nous faire oublier que le pire ennemi de l’humanité est la pauvreté elle-même.

En 2023, la production mondiale d’électricité a atteint un niveau record de 29 471 TWh. Malgré les progrès significatifs, le mix électrique reste dominé par les combustibles fossiles carbonés qui représentent encore 61% du total Le charbon constitue la plus grande source unique avec 35% (10 434 TWh), suivi du gaz naturel à 23% (6 634 TWh). Les sources d’énergie propre ne représentent que 39% du total : l’hydroélectricité fournit 14% (4 210 TWh), le nucléaire 9,1% (2 686 TWh), et l’éolien et le solaire combinés 13,4% (3 935 TWh). 

Face au défi climatique, tous les investissements ne se valent pas. Il est indispensable d’agir de manière rationnelle et d’investir dans des programmes ayant le coût par tonne de CO₂ évitée le plus faible possible. C’est précisément l’ambition de cette analyse.

Répondre à la demande et éradiquer la pauvreté énergétique d’ici 2050

Pour 2050, l’Agence Internationale de l’Énergie (AIE) projette dans son scénario des Engagements Annoncés (APS) que la demande électrique mondiale augmentera de 120% par rapport à 2023, atteignant environ 65 000 TWh. Cette croissance est portée par l’électrification des transports, du chauffage, et par de nouvelles industries comme les centres de données et l’IA.

Pour éradiquer la pauvreté énergétique dans le monde, il est nécessaire de s’assurer qu’aucun pays ne reste sous le seuil de 1 500 kWh par personne et par an. Y conduire en 2050 les 666 millions de personnes encore sous ce seuil nécessiterait environ 2 000 TWh supplémentaires de production électrique annuelle.

La demande totale projetée pour un monde prospère et équitable en 2050 est donc de 67 000 TWh (65 000 + 2 000). Appliquons maintenant le modèle français de mix électrique bas-carbone avec une cible de 70% de nucléaire. Il faudrait alors produire 46 900 TWh d’électricité nucléaire par an — plus de 17 fois la production nucléaire mondiale actuelle (2 686 TWh).

Avec un facteur de capacité de 90%, tel qu’on l’observe aujourd’hui dans les meilleurs parcs nucléaires comme celui des États-Unis, cela se traduit par un besoin d’environ 5 950 GW de capacité nucléaire installée. En termes concrets ? Ce serait l’équivalent d’environ 5 000 nouveaux grands réacteurs nucléaires d’ici 2050.

Quel serait le coût de cet immense programme nucléaire à l’échelle mondiale ? En tirant les leçons des meilleurs exemples du passé que sont la Corée du Sud et le plan Messmer français (1974-1986), le nucléaire peut atteindre un coût de 2 000 $/kW. Pour construire les 5 950 GW de capacité nucléaire nécessaires d’ici 2050 la facture s’élèverait alors à 11 900 milliards de dollars.Ce chiffre peut sembler vertigineux, mettons-le donc en perspective. Répartis sur 2 décennies (2030–2050), les 11 900 milliards de dollars représentent en moyenne environ 600 milliards par an, soit moins de 0,5 % du PIB annuel mondial attendu sur cette période, alors même que celui-ci devrait plus que doubler pour dépasser 200 000 milliards de dollars en 2050. C’est un effort du même ordre de grandeur que les flux d’investissements déjà engagés dans les énergies renouvelables chaque année. Loin d’être un fardeau insoutenable, un tel programme constituerait un investissement clé pour garantir une électricité à la fois abondante et propre, ainsi que la fin de la pauvreté énergétique dans le monde.

Le nucléaire est-il trop long à construire ou trop cher ?

J’approfondis

Chute des émissions de CO₂  mondiales à coût record

L’impact climatique d’un tel projet Messmer 2.0 serait titanesque. Nos calculs révèlent que ce programme électronucléaire massif éviterait :

  • 20,4 gigatonnes (Gt) de CO₂ par an comparé à un scénario 2050 maintenant le mix électrique actuel avec 60% de sources fossiles — soit l’équivalent de 35,7% des émissions mondiales totales actuelles de gaz à effet de serre
  • 12,8 Gt de CO₂ par an comparé à un investissement équivalent de 11 900 milliards de dollars dans les énergies renouvelables — et ce malgré les baisses spectaculaires des coûts de ces technologies sur les 3 dernières décennies

Il est possible que ces chiffres soient sous-estimés. La projection de 67 000 TWh pour 2050 intègre en effet l’électrification massive des transports et le déploiement généralisé de pompes à chaleur réversibles pour la régulation thermique des bâtiments. L’impact réel sur les émissions de CO₂ totales serait donc encore supérieur de ce point de vue là.

Sur la base d’une durée de vie opérationnelle conservatrice de 60 ans (certaines centrales nucléaires américaines ayant déjà obtenu l’autorisation d’opérer 80 ans), le coût d’abattement atteint :

  • 9,7 $/tonne de CO₂ évitée comparé au scénario fossile (60%)
  • 15,5 $/tonne de CO₂ évitée comparé au scénario renouvelable équivalent

Même en doublant ou triplant ces estimations pour tenir compte d’éventuels biais optimistes, le programme nucléaire demeurerait exceptionnellement efficace.

Des milliers de centrales nucléaires flottantes pour un avenir radieux

J’approfondis

Mettons ces chiffres en perspective : les sources universitaires et industrielles estiment que le coût effectif de l’Energiewende allemande a atteint 90-100 €/tCO₂ pour l’éolien et plus de 500 €/tCO₂ pour le PV solaire. Les programmes allemands de rénovation de bâtiments aux normes d’efficacité les plus élevées peuvent atteindre un coût d’abattement de plus de 900 €/tCO₂.

Cette révolution nucléaire n’exclut pas des investissements dans d’autres énergies prometteuses. Pour compléter les 70% de nucléaire dans notre vision 2050, misons sur les énergies propres avec les meilleurs coûts d’abattement. Privilégions en particulier le solaire photovoltaïque dont les prix sont en chute libre, ou encore la géothermie dont les progrès pourraient nous permettre de tirer de l’énergie en grande quantité toujours plus loin sous terre. L’objectif ? Fermer autant que possible le robinet des énergies fossiles.

En fin de compte, face à nous se dresse un triple défi d’une urgence absolue pour les décennies à venir : limiter le réchauffement climatique à 1,5°C, alimenter la croissance des économies modernes qui consomment toujours plus d’électricité, et arracher enfin des milliards d’êtres humains au piège mortel de la pauvreté énergétique. Ces 3 impératifs ne sont pas négociables — ils doivent être réalisés simultanément. Un monde qui combat le climat en condamnant les pauvres à leur misère échouera sur les 2 fronts. Un monde qui priorise la croissance économique sans décarboner massivement condamne ses propres fondations.

L’expansion nucléaire massive que nous proposons est la stratégie qui semble la plus efficace pour relever ce triple défi. Elle seule peut décarboner à la vitesse et l’échelle requises tout en fournissant l’énergie abondante et fiable qu’exigent à la fois les économies avancées et les milliards d’humains qui aspirent légitimement à un niveau de vie décent. Ce qui fait défaut, c’est la volonté de traiter cette crise avec l’urgence et l’ambition qu’elle mérite, et en s’inspirant des succès du passé. Chaque jour d’inaction est un jour de plus où des millions meurent dans la fumée intérieure ou la pollution extérieure, où le climat se réchauffe, où des économies entières stagnent faute d’énergie abondante.

L’article Nucléariser le monde ! est apparu en premier sur Les Électrons Libres.

La rumeur qui a fait déborder la Somme !

28 septembre 2025 à 05:35

Au printemps 2001, la Somme est en crue. Tandis que l’eau monte inexorablement, inondant terres et villages, une idée folle émerge… Et si c’était de la faute… des Parisiens ?

Quand, le 9 avril, Lionel Jospin débarque à Abbeville, il est déjà trop tard. Le Premier ministre, attendu de pied ferme, est violemment pris à partie par des riverains furieux. Sur la défensive, il tente maladroitement de balayer la rumeur : « Vous pouvez imaginer que quelqu’un décide, à Paris, d’aller noyer la Somme ? Ça n’a pas de sens ! » Dans la foule, une femme réplique aussitôt : « Il y a sûrement quelque chose qui participe… », exprimant la conviction des sinistrés : Abbeville a payé le prix fort pour que Paris reste au sec.

Car des crues, la Somme en a connues, mais jamais d’identiques. Les anciens l’assurent : « Une telle intensité, on n’avait jamais vu. » Et ce détail qui rend tout suspect : l’eau continue de monter… alors qu’il ne pleut plus. Mystère ? Ou plutôt évidence. Pour les habitants, le scénario est clair. Les politiciens parisiens, paniqués à l’idée de voir la capitale sous l’eau, auraient détourné les flots vers la vallée picarde. Après tout, ce ne serait pas la première fois que la province servirait de variable d’ajustement, non ?

Abracadabrantesque !

Article réservé à nos abonnés.

S'abonner dès 5€/mois

ou

Acheter cet article pour 1,50€

 
 

L’article La rumeur qui a fait déborder la Somme ! est apparu en premier sur Les Électrons Libres.

Le robot : notre prochain compagnon ?

27 septembre 2025 à 04:08

Chef cuisinier, majordome, concierge personnel et confident, il fera nos courses, notre ménage et révolutionnera votre quotidien. Pendant que l’Occident imagine le robot humanoïde comme un super-ouvrier sans affect, à même de remplacer l’homme dans nos usines ou nos hôpitaux, la Chine joue une tout autre partition. Sans tabou et avec une ambition dévorante, elle prépare déjà le robot-compagnon qui s’intégrera dans tous nos foyers.

2030 : une journée ordinaire de Lyon à New York

Lyon, 7 h 00. Léo le robot commence sa journée. Il connaît par cœur les us et coutumes, comme les désirs et exigences de sa nouvelle famille. Il accepte sans broncher le prénom dont on l’a affublé. Sans doute est-ce le patronyme qui lui convient. Qu’importe : l’heure n’est pas à l’introspection, mais à l’action. Il entre doucement dans les chambres et ouvre les volets pour laisser entrer la lumière naturelle. La meilleure manière de réveiller les humains doucement, sans brutalité. Pour la petite Julia, il lance la préparation d’un chocolat chaud. Puis s’active devant la machine à café et le grille-pain pour satisfaire le reste de la maisonnée. L’arôme se répand dans la cuisine… Pendant que la famille se lève, il dresse la table du petit-déjeuner, s’assurant qu’il reste également une bouteille de lait en réserve pour le retour de l’école de Julia et de son frère, Max. Parfois, les matinées sont agitées, des conflits éclatent. Alors, il reste en retrait, silencieux. Les êtres humains sont moins dociles que lui.

8 h 30. Les enfants et les parents sont partis. Léo entame alors ses tâches domestiques. Il débarrasse la table, remplit le lave-vaisselle, puis passe l’aspirateur. Mais son rôle va bien au-delà du simple nettoyage et du ménage. Il accède aux données du réfrigérateur connecté qui fait office de garde-manger intelligent, en conservant un inventaire du contenu des placards. Il croise ces informations avec le calendrier partagé de la famille. Sébastien a un dîner d’affaires mardi, les enfants mangent à la cantine et des amis sont invités samedi soir…

10 h 00. Il élabore ensuite une proposition de menus pour chaque jour de la semaine, en tenant compte des préférences alimentaires et des éventuelles allergies des uns et des autres. Une notification est envoyée sur le smartphone des parents, accompagnée d’une demande de validation de la commande. Un simple clic suffit et les instructions sont transmises au supermarché en ligne pour une livraison prévue à 16 h 00. Le luxe n’est plus seulement question d’espace et de confort intérieur. Il se manifeste désormais aussi par le gain de temps et la libération de la charge mentale des parents.

16 h 15. Le livreur sonne à la porte. Un robot, lui aussi. Léo réceptionne les courses, vérifie la commande, puis range chaque article à sa place avec une précision millimétrique. Il profite de ce moment pour aller retirer le courrier et gérer les éventuels colis.

New York, 11 h 00. Depuis quelques semaines, la vie de Nonna Nunzia, grand-mère italienne de 85 ans, immigrée en 1948, n’est plus la même. Ses enfants, dont la réussite l’emplit de fierté, lui ont offert un robot humanoïde. Une folie ! Les premiers jours, elle a eu un peu peur de « la bête ». Il faut dire qu’Antonio – son nouveau compagnon de puces et de circuits – est imposant, avec son mètre quatre-vingts et ses reflets métalliques. Mais la greffe a vite pris. Et surtout, il l’aide à économiser sa jambe droite et son dos souffrants. Et aussi à prendre soin de sa santé grâce à l’option health monitoring dont il est équipé. Elle permet à Antonio d’être en liaison permanente avec les appareils connectés de la maison (matelas, toilettes, montre captant les données vitales de sa porteuse), de surveiller l’hydratation de Nunzia et son niveau d’activité physique minimal requis au quotidien. Mais ce matin, nulle question sanitaire. Le moment est aux réjouissances culinaires dont Nonna Nunzia est friande. Il propose d’activer son mode NAIL (Not Another Imitation Learning), pour apprendre et reproduire la recette du jour, la partager avec la famille de Nunzia et avec les internautes détenteurs de l’option. Aujourd’hui, elle a envie de confectionner ses « Pasta alla Turiddu di Nonna Nunzia ». Son secret ? Faire revenir les tomates dans le vinaigre balsamique avec une cuillère de miel… Elle déroule les éléments de sa recette, permettant à Antonio de les enregistrer et de les analyser. Le plat à peine terminé, son mode de préparation est déjà partagé avec les autres robots du groupe « famille ». Quant aux utilisateurs possédant des robots disposant du mode NAIL, ils pourront l’acheter sur la marketplace dédiée. « OK Nunzia, WE NAILED IT ! » s’exclame Antonio. [« On l’a eue, cette recette ! »]

Lyon, 18 h 30. Tout le monde est rentré à la maison… Changement de programme pour ce soir, Julia et Max veulent manger italien. Sébastien, le quadragénaire heureux propriétaire de Léo, demande à celui-ci quelques suggestions de recettes avec les ingrédients déjà en stock. Léo parcourt la marketplace de recettes et en propose plusieurs à Sébastien. Une retient son attention : Pasta alla Turiddu di Nonna Nunzia. Pâtes, aubergines, oignons, ail, tomates… C’est acté, Sébastien valide le téléchargement du scénario sur le robot pour 1,50 €. Si elle plaît, il pourra désormais refaire cette recette à volonté. Le robot demande s’il doit exécuter la recette en mode hybride (le robot fait le commis et Sébastien s’occupe des cuissons) ou en mode délégation totale. Toute la famille veut profiter d’un peu de repos après cette longue journée : Léo sera seul en cuisine ce soir.

New York, 20 h 40. L’Europe dort, mais alors que Nunzia commence à piquer du nez devant son poste de télé, Antonio lui propose de lui faire un rapport sur le succès de sa recette enregistrée quelques heures plus tôt : « Elle a été téléchargée 20 fois aujourd’hui. Tu as gagné 10 dollars et obtenu une note moyenne de 4,2 étoiles sur 5. » Nunzia sourit… Elle ne pensait pas devenir influenceuse cuisine à 85 ans. Voilà une bonne journée, merci Antonio. 20 h 47, il lui lit un message vocal de son petit-fils reçu à l’instant au travers de la messagerie inter-robot : « Merci Nonna pour ta recette ! J’ai hâte de l’essayer, on t’embrasse. Bonne soirée. »

Revenons à la réalité

Cette vision, certes ici encore légèrement fictive, qui relevait de la science-fiction il y a peu, est devenue une feuille de route de San Francisco à Shanghaï, avec un centre de gravité penchant vers la dernière cité mentionnée. Alors que le robot Optimus d’Elon Musk est annoncé à plus de 20 000 dollars, les modèles chinois sont déjà présentés dans une fourchette de 6 000 à 16 000 dollars. La stratégie est claire et rappelle celle de DJI, leader incontesté des drones : inonder le marché avec un matériel de qualité à prix raisonnable pour imposer un standard mondial.

Ce schisme n’est pas seulement philosophique, il est profondément économique. Si le robot à usage professionnel et sa maintenance se vendent plus cher à l’unité, garantissant des marges confortables sur chaque contrat, le modèle avec un hardware low-cost, abonnement et marketplace, calqué sur celui des smartphones, vise une tout autre échelle. Le robot n’est que le cheval de Troie. La véritable mine d’or réside dans la marketplace, un écosystème où s’échangeront scénarios ou compétences et abonnements à des services ou capacités premium. Ce sont les importants volumes de ventes additionnelles générés par ces micro-transactions qui créeront les futurs Apple et Google, des géants contrôlant à la fois le matériel et le système d’exploitation de notre quotidien. La voie est toute tracée, et elle ne mène pas à l’usine, mais directement à notre salon.

Reste la question du logiciel, historiquement considéré comme le talon d’Achille de l’ingénierie chinoise. Cet obstacle est en passe d’être largement dépassé. Grâce à ses avancées fulgurantes, l’IA aide désormais les développeurs chinois à générer du code plus performant et des interfaces plus intuitives, comblant leur retard à une vitesse phénoménale. La boucle est bouclée : l’IA développe le logiciel du robot, lui-même propulsé par l’IA.

La course aux « modèles de fondation pour la robotique » est lancée. En se focalisant sur le foyer en parallèle de l’usine, la Chine ne se contente pas de viser un marché plus grand ; elle cherche à redéfinir notre rapport à la technologie, à la famille et même à la transmission des savoirs. Loin d’un simple gadget, ce robot-compagnon est un projet de société. Une proposition constructive à laquelle l’Europe ferait bien de réfléchir pour ne pas devenir simple consommatrice d’un futur imaginé par d’autres.

L’article Le robot : notre prochain compagnon ? est apparu en premier sur Les Électrons Libres.

Christian ou les apaisements de la terre

26 septembre 2025 à 04:01

Ancien carrossier devenu agriculteur par amour et par envie de changer d’air, Christian gère aujourd’hui seul 120 hectares de céréales dans le Tarn. Entre météo capricieuse, concurrence étrangère et contraintes grandissantes, ses journées s’étirent de l’aube à la nuit tombée. Portrait d’un homme attachant qui creuse son sillon loin des projecteurs.

Du garage aux champs : un parcours inattendu

À première vue, rien ne destinait Christian à devenir agriculteur. Né à Castres, il avait choisi très tôt la mécanique, en apprentissage. Carrossier de formation, il a passé dix ans à travailler dans des garages Renault et Peugeot, le bleu de travail taché de cambouis plutôt que de terre. Jusqu’à ce que la vie décide autrement. À 26 ans, il reprend l’exploitation de ses beaux-parents. Un choix d’amour autant que de nécessité : sa femme est fille d’agriculteurs, mais ni elle — qui avait vu ses parents ployer sous les contraintes sans jamais prendre de vacances — ni son frère, handicapé, ne pouvaient reprendre. Et sans repreneur, la ferme familiale risquait de disparaître… Christian s’inscrit alors à une formation pour adultes d’un an, avant d’apprendre patiemment le métier auprès de son beau-père. Pendant dix ans, jusqu’à la retraite de ce dernier, il s’initie aux cycles des saisons, aux subtilités des sols argileux, à la compréhension des besoins des cultures. « Dix ans, ça peut paraître long mais c’est bien le temps qu’il faut pour apprendre le métier quand on ne vient pas d’une famille d’agriculteurs », sourit-il aujourd’hui.

La ferme qu’il reprend n’a plus grand-chose à voir avec celle d’autrefois. Ses beaux-parents faisaient vivre trois générations sur cinquante hectares, en quasi-autosuffisance, avec une trentaine de vaches laitières qui assuraient à la fois le revenu et le fumier pour fertiliser les cultures fourragères. Les investissements nécessaires pour maintenir l’élevage étant devenus trop lourds, l’exploitation a basculé vers les céréales. Pour survivre, Christian a dû agrandir, mécaniser et travailler seul. Lui qui n’était pas tombé dedans quand il était petit s’est accroché, parfaisant son apprentissage avec humilité. Aujourd’hui encore, il conserve le regard neuf d’un homme qui n’a pas reçu la terre en héritage, mais qui l’a choisie par engagement. « Dans ce milieu parfois conservateur, avoir cet œil neuf me permet de me remettre en cause et de faire évoluer en permanence mes pratiques », confie-t-il.

Seul avec 120 hectares

Christian cultive, à lui tout seul, l’équivalent de 170 terrains de foot. Une surface déjà conséquente, dans ces paysages vallonnés du Tarn, mais loin des grandes exploitations de la Beauce ou des plaines d’Europe de l’Est. En pleine saison, ses journées commencent à sept heures du matin et se terminent à vingt-trois heures, parfois plus tard. Son dernier tracteur, qu’il renouvelle environ tous les dix ans, lui permet de bloquer direction et pédales, ce qui limite un peu la fatigue, mais on reste loin du niveau d’automatisation accessible sur des parcelles plus grandes et moins morcelées. L’hiver, il ne chôme pas davantage : la terre se repose, pas l’agriculteur. En homme à tout faire, Christian passe alors ses journées à entretenir, réparer, maçonner. Et il lui faut encore trouver du temps pour la « paperasse », omniprésente, ou pour se former.

Derrière cette cadence se cache un équilibre financier fragile. Le chiffre d’affaires de son exploitation, tributaire de la météo et des cours mondiaux, oscille entre 120 000 et 150 000 euros, dont environ 26 000 proviennent de la PAC. Mais les charges engloutissent presque tout : près de 30 000 euros d’engrais et de phytos, 12 000 pour le remboursement du tracteur, 8 000 de cotisations sociales, sans compter les semences et l’entretien courant. Au final, Christian dégage entre 2 500 et 2 800 euros nets par mois. Un revenu correct en apparence, mais bien moins flatteur quand on le ramène au temps passé : « à peu près six euros de l’heure », calcule-t-il. Et il revient de loin, car son revenu est longtemps resté en dessous de 1 800 euros, quand il avait encore le foncier à rembourser.

Christian n’a pas eu vraiment le choix. Pour faire vivre leur famille de quatre, sa femme travaille à l’extérieur, à la mairie, tandis que lui serre les coûts au plus juste et cherche des revenus complémentaires aux seules céréales. L’ail rose en fait partie. Une culture exigeante, presque entièrement manuelle, mais qui apporte une vraie valeur ajoutée. Elle représente à elle seule près de 27 000 euros dans son revenu annuel.

À cette équation déjà serrée s’ajoute la pression du marché mondial. L’Espagne est son principal débouché, mais il subit la concurrence des blés ukrainiens et russes, produits à grande échelle à des coûts bien moindres et écoulés massivement en Méditerranée. Pour s’adapter, Christian a investi très tôt dans des silos qu’il a construits lui-même. Cela lui permet de stocker, d’attendre le bon moment et de jouer sur les cours. Une stratégie de survie, bien différente de celle de son beau-père, qui vendait directement le surplus à la coopérative. « Je ne suis pas un trader, car je vends ce que je produis. Mais suivre les cours et répondre aux appels d’offres, c’est une charge supplémentaire », sourit-il.

Le blé de la mer noire, toujours conquérant

J’approfondis

La terre sous contraintes

Les difficultés du métier ne sont pas seulement matérielles ou économiques. Elles sont aussi réglementaires. Christian en est bien conscient : on ne peut pas faire n’importe quoi, et la traçabilité des produits reste essentielle. L’administratif, au fond, ne lui prend pas tant de temps relativement aux journées interminables des périodes de pointe. Mais la charge mentale, elle, est bien réelle, d’autant que les normes changent presque chaque année. « On ne fait pas ce travail pour ça », lâche-t-il. Lui s’en sort, mais il sait que ce n’est pas forcément le cas de tous ses collègues.

Mais les réglementations ne se limitent pas aux formulaires. Nitrates, haies, couverts végétaux… Elles évoluent en permanence et obligent à revoir les pratiques. Dans l’exploitation de Christian, les sols sont argileux et classés vulnérables. Sensibles à l’érosion, ils forment des croûtes qui empêchent l’eau de s’infiltrer et laissent filer plus facilement les nitrates vers les cours d’eau. Christian doit donc implanter des couverts végétaux entre deux cultures. Il en reconnaît l’intérêt. Ils piègent les nitrates et enrichissent le sol. Mais la médaille a son revers. C’est du travail supplémentaire, des semences à acheter, du gasoil à brûler… et tout cela sans aucune rémunération ni contrepartie.

C’est ce qu’il regrette le plus. Beaucoup d’obligations, peu d’incitations. L’impression de travailler davantage… gratuitement. Comment encourager réellement à se convertir aux bonnes pratiques ? Christian n’a pas de solution miracle. Il sait seulement que les aides existantes devraient être mieux fléchées vers les solutions réellement vertueuses.

Et les difficultés ne sont pas seulement dues aux réglementations venues d’en haut. À ses yeux, le manque de reconnaissance sociale pèse tout autant. Produire de la nourriture, respecter les règles, faire des efforts… et en retour ? Trop souvent, du mépris. L’agribashing, pour lui, n’est pas un slogan mais une réalité. Des automobilistes qui klaxonnent derrière lui, une bouteille jetée sur son tracteur, des regards hostiles quand il traite ses cultures. « C’est dur à supporter », admet-il. Alors il a trouvé une solution : pulvériser de nuit. Comme ça, il ne dérange personne. Et tant pis s’il doit rentrer plus tard. Sauf que, ajoute-t-il dans un soupir, « quand les gens me voient épandre la nuit, ils en concluent que mes produits doivent être particulièrement dangereux ». Un cercle vicieux.

Malgré tout, Christian abat le travail sans broncher. Les manifs, il les comprend, mais ne s’y reconnaît pas vraiment. Sauf peut-être sur un point : le Mercosur. Là, il avoue ses inquiétudes. La concurrence étrangère fait déjà partie de son quotidien ; alors importer encore plus de produits qui ne respectent pas les mêmes normes que lui lui paraît tout simplement injuste. Sans surprise, il n’est pas syndiqué. Il observe d’un œil indifférent les batailles d’influence entre organisations agricoles. Son credo : travailler dur et assurer sa subsistance par lui-même plutôt que d’attendre quoi que ce soit de la politique.

Faire mieux avec moins

Foin des postures, Christian préfère avancer. Il a réduit ses intrants bien avant que la réglementation ne l’y oblige, diminuant les quantités de 30 à 50 %. « Pour l’environnement, ça compte, et aussi parce que ça coûte une fortune », dit-il. Pour progresser, il s’appuie sur un ingénieur agronome indépendant, mais se méfie des coopératives : « Ils veulent surtout vendre leurs produits, alors les doses sont souvent un peu gonflées. » Malgré ses efforts, il a le sentiment d’avoir atteint un plancher. Descendre encore lui paraît impossible.

Il s’efforce aussi de réduire le travail du sol, ce qui l’oblige à recourir davantage aux herbicides. Les résistances, notamment du ray-grass, l’empêchent de baisser les doses. Il implante des couverts intermédiaires et pratique les rotations comme tout le monde. Pour les allonger vraiment, il faudrait introduire des légumineuses, mais les filières sont quasi inexistantes. « En protéines végétales, les industriels préfèrent importer du tourteau de soja brésilien », regrette-t-il.

Les carences en protéines de l’agriculture française

J’approfondis

Côté fertilisation, Christian reste aux engrais de synthèse. Les effluents d’élevage seraient un atout, mais les éleveurs les gardent pour eux. Quant à l’irrigation — sujet sensible dans une région marquée par les violentes contestations du barrage de Sivens durant lesquelles le jeune Rémi Fraisse est mort en 2014 — il n’en a besoin que pour son maïs semence, grâce à une petite retenue collinaire permise par les sols argileux et vallonnés. Ici, pas de mégabassines, mais il sait que la situation est différente ailleurs. Supprimer l’irrigation ? Chez lui, ce serait jouable, sauf pour le maïs, justement. Dans le Sud-Ouest, en revanche, sur des sols sablonneux incapables de retenir l’eau, il n’imagine pas comment ses collègues pourraient s’en passer.

Et après ?

Christian ne manifeste pas, ne brandit pas de pancarte. Mais il a un message clair : qu’on cesse d’empiler les contraintes et qu’on reconnaisse enfin les efforts de tous ceux qui, comme lui, s’efforcent de produire mieux avec moins. Valoriser plutôt que punir, encourager plutôt qu’imposer. « On nous aime huit jours par an, pendant le Salon de l’Agriculture », sourit-il, avant d’ajouter qu’il attend surtout moins d’effets de manche, moins de promesses vite envolées à chaque crise, et plus d’écoute du terrain.

Reste une question plus large, qui dépasse son seul cas : ce modèle agricole, celui de l’exploitant seul face à 120 hectares, est-il viable à terme ? N’est-il pas condamné par sa vulnérabilité, quand tout repose sur les épaules d’une seule personne, et par l’impossibilité d’investir suffisamment pour suivre les évolutions technologiques ? Comment tenir face à la concurrence mondiale sans agriculture de précision, sans drones, sans outils satellitaires, pour augmenter les rendements et diminuer les intrants ?

Les deux enfants de Christian s’orientent vers d’autres voies. Comme ses beaux-parents avant lui, il pourrait se retrouver face au vide de la succession. « Je n’y pense pas trop, jusqu’à ma retraite ça ira. Mais il faudra bien un jour que les céréaliers du Tarn remettent en cause leurs convictions et apprennent à s’associer », conclut-il. Car il faudra bien grandir pour être à même d’investir et d’innover. Loin du mythe de la paysannerie et de la petite exploitation.

L’article Christian ou les apaisements de la terre est apparu en premier sur Les Électrons Libres.

Le Mercosur, ce bouc émissaire de nos politiques agricoles

25 septembre 2025 à 05:05

Déforestation, bœuf aux hormones, trahison de nos agriculteurs. Le Mercosur, accusé de tous les maux, fait l’unanimité contre lui. Pourtant, cet accord pourrait être une opportunité pour notre industrie, sans pour autant sacrifier notre souveraineté alimentaire.

Le Mercosur, c’est en quelque sorte la version sud-américaine de notre marché commun, un espace de libre circulation des biens et des services. Il regroupe l’Argentine, le Brésil, le Paraguay, l’Uruguay et, depuis l’an dernier, la Bolivie. Le Venezuela en a été exclu en 2016. Après deux décennies de négociations, l’Union européenne et le Mercosur ont conclu, en juin 2019, un traité instaurant une zone de libre-échange. Ou plutôt un accord commercial, car le terme, qui suggère une libéralisation sans contraintes, est trompeur : les règles restent nombreuses et certaines importations limitées. Aujourd’hui, il demeure suspendu à la ratification des 27 États européens. La France est l’un des rares pays à avoir des réserves. À tort ou à raison ?

Concrètement, la suppression de 4 milliards de droits de douane rendrait nos exportations beaucoup plus compétitives. Le prix des voitures et des vêtements pourrait baisser de 35 %, celui des machines-outils, produits chimiques et pharmaceutiques de 14 à 20 %. Les fournisseurs de services — télécommunications, transports, numérique — accéderaient aux marchés publics locaux. L’industrie automobile européenne, en grande difficulté, appelle évidemment l’accord de ses vœux : il relancerait ses ventes de véhicules thermiques, au moins pour un temps. Au total, Bruxelles projette près de 50 milliards d’euros d’exportations supplémentaires vers le Mercosur, pour seulement 9 milliards d’importations en plus. Des importations qui pourraient bien profiter aux industries européennes. Le Brésil, en particulier, est un important fournisseur de matières premières critiques comme le nickel, le cuivre, l’aluminium, l’acier ou le titane.

L’erreur est en effet de réduire exportations et importations à une lecture comptable. On croit trop souvent que seule la production locale enrichit, quand les importations appauvrissent. L’exemple du CETA, l’accord entre l’Europe et le Canada, montre l’inverse : les entreprises françaises ont pu importer hydrocarbures et minerais à des prix plus avantageux. Si ces flux semblent peser négativement sur la balance commerciale, ils sont économiquement bénéfiques. Des matières premières moins chères permettent à nos entreprises de réduire leurs coûts et de gagner en compétitivité. Aujourd’hui, qu’importe-t-on majoritairement depuis l’Amérique latine ? Des hydrocarbures, des produits miniers… et des produits agricoles.

Les agriculteurs européens sont-ils vraiment sacrifiés sur l’autel du commerce ?

L’agriculture des pays du Mercosur fait peur. Avec 238 millions de bovins, le Brésil possède le plus grand cheptel au monde et assure à lui seul près d’un quart des exportations mondiales. L’Argentine n’est pas en reste, avec 54 millions de bêtes et des troupeaux en moyenne quatre fois plus grands qu’en France. En Amazonie ou dans le Cerrado brésilien, certaines exploitations dépassent même les 100 000 têtes de bétail. À titre de comparaison, la « ferme des mille vaches » picarde, fugace symbole tricolore de l’élevage intensif, n’a jamais compté plus de 900 bovins. Mais le gigantisme ne s’arrête pas à l’élevage. Au Brésil, SLC Agrícola exploite plus de 460 000 hectares de céréales. Deux cents fois plus que la plus grande exploitation française. Les vergers sont quatre fois plus étendus de l’autre côté de l’Atlantique. Sucre, maïs, soja… les agriculteurs européens font face à un géant. Sans jouer avec les mêmes cartes : si les produits importés devront répondre aux normes de consommation européennes, les règles de production ne sont pas identiques. Notamment concernant l’utilisation des pesticides, qui fait tant débat en Europe. Pour les agriculteurs français, difficile de se départir de l’impression de concourir face à des V12 avec un 3 cylindres.

Heureusement, l’Union européenne a prévu des garde-fous. Les importations de bœuf, notamment, sont limitées à 99 000 tonnes par an, soit l’équivalent d’un gros steak par habitant. Cela ne représente, comme pour la volaille ou le sucre, que moins de 1,5 % de la production du continent. Aucune chance, dans ces conditions, d’être submergé par l’afflux de produits agricoles sud-américains. Et si jamais c’était le cas, une procédure de sauvegarde, qui stopperait net les importations, pourrait être enclenchée.

« En France comme en Europe, les cheptels bovins ont reculé d’environ 10 % en dix ans, et cette concurrence n’y est pour rien », souligne Vincent Chatellier, ingénieur de recherche à l’Inrae. Selon lui, les pays du Mercosur disposent déjà d’un client de poids avec la Chine, beaucoup plus simple à approvisionner. L’Europe, au contraire, impose des normes strictes et chaque exploitation doit être agréée individuellement. « On l’a vu avec le CETA : dans ces conditions, rien ne garantit même que les quotas soient atteints », ajoute-t-il.

Café, oranges, soja… À l’heure actuelle, le Mercosur vend surtout à l’Europe des produits qu’elle ne cultive pas. La seule filière réellement exposée semble être celle du maïs. Massivement OGM, la production brésilienne échappe à tout quota. Elle représente bien la schizophrénie des normes : un maïs impossible à cultiver en Europe peut nourrir nos animaux d’élevage.

L’accord pourrait même ouvrir de nouvelles perspectives à certains agriculteurs européens. Bruxelles table sur 1,2 milliard d’euros d’exportations supplémentaires. Les viticulteurs seraient les premiers bénéficiaires : leurs vins gagneraient en compétitivité et leurs appellations, comme celles de plusieurs fromages, seraient enfin reconnues outre-Atlantique. Exit le « Champagne » argentin ou le camembert brésilien. Dans une moindre mesure, les fruits et légumes, les huiles végétales et les produits laitiers devraient eux aussi profiter de nouveaux débouchés commerciaux.

Quand l’écologie gagne à commercer avec le bout du monde

Pour beaucoup, faciliter le commerce transatlantique est vu comme une aberration environnementale. Pourtant, les accords commerciaux sont des outils puissants pour convertir le reste du monde à la vision européenne du mieux-disant écologique et social. Ils permettent de façonner les règles du commerce mondial conformément aux normes européennes les plus élevées, de projeter nos valeurs à travers des obligations détaillées en matière de commerce, d’emploi et de développement durable. Les signer, c’est ratifier les conventions de l’Organisation internationale du travail et les accords multilatéraux sur l’environnement, de l’Accord de Paris aux conventions biodiversité. Toute violation pouvant justifier une suspension, totale ou partielle. Ainsi, en 2020, le Cambodge a perdu ses privilèges unilatéraux, du fait des dérives autoritaires du Premier ministre Hun Sen.

La culture du soja, importante cause de déforestation, est souvent évoquée. Pourtant, l’accord avec le Mercosur ne change rien à l’affaire, les importations de tourteaux étant déjà exemptes de toute taxation douanière. Le rôle de l’Union européenne, qui n’importe que 14 millions de tonnes par an, contre 112 millions pour la Chine, est de toute façon minime. L’accord entraîne par ailleurs la ratification du Protocole de Glasgow, qui prohibe toute déforestation à partir de 2030. Pour la transition énergétique, c’est aussi un enjeu majeur : le Brésil détient 20 % des réserves mondiales de graphite, de nickel et de manganèse. L’Argentine regorge de lithium. De quoi nourrir notre industrie verte…

Reste la question du contrôle. Croire que les contrôleurs de l’Union puissent éviter toute entorse aux règles est évidemment illusoire. Mais croire qu’ils sont aveugles n’est pas moins excessif. L’an dernier, une enquête a dévoilé la présence d’hormones dans le régime alimentaire des bœufs au Brésil. Pas à des fins d’engraissement, comme on l’a souvent suggéré, mais à des fins thérapeutiques… ce qui est aussi possible en Europe. Les mêmes craintes étaient brandies lors de la signature du CETA. Huit ans plus tard, aucun bœuf aux hormones n’est importé du Canada.

En creux, l’amertume du deux poids, deux mesures

Alors que toutes les pratiques agricoles sont remises en question, que des militants n’hésitent pas à les accuser d’empoisonnement, ni à fantasmer sur une chimérique agriculture sans intrants, l’opposition au Mercosur semble bien dérisoire. Nos agriculteurs ont-ils baissé les bras face aux ennemis de l’intérieur, au point de ne plus s’autoriser d’autre combat que celui contre leurs concurrents étrangers ? Pensent-ils trouver dans la mondialisation un ennemi commun leur assurant la miséricorde des gardiens du dogme ?

Signer l’accord avec le Mercosur serait un signal puissant, un acte de confiance et de détermination, à contre-courant du repli américain. Mais après des années d’agri-bashing, de surtransposition des normes, on comprend que les agriculteurs se sentent fragilisés face à la concurrence — même si, dans les faits, elle vient bien plus de l’Ukraine ou des autres pays européens que du Mercosur. Après le raz-de-marée médiatique contre la loi Duplomb cet été, difficile de ne pas comprendre non plus leur sentiment d’impuissance. C’est pourtant là que sont les vrais enjeux : redonner aux agriculteurs le goût du possible. Qu’ils puissent à nouveau se projeter dans un avenir à la fois serein et conquérant. Nous en sommes loin. Mais ne baissons pas les bras : la souveraineté se construit plus solidement dans la compétitivité que dans le repli sur soi.

L’article Le Mercosur, ce bouc émissaire de nos politiques agricoles est apparu en premier sur Les Électrons Libres.

Autisme : le Doliprane plonge Trump dans l’effervescence

24 septembre 2025 à 04:27

« N’en prenez pas, n’en prenez pas ! » Pour Donald Trump et son inénarrable Secrétaire d’État à la Santé, Robert F. Kennedy Jr., la prise de paracétamol pendant la grossesse est responsable de l’autisme. Une annonce spectaculaire… et une fake news de plus ?

La crainte ne date pas d’hier. Elle remonte à 2008, quand une première étude suggère un lien possible entre exposition prénatale au paracétamol1 et troubles du spectre autistique. Si l’échantillon — 83 cas et 80 témoins — est trop limité pour en tirer des conclusions solides, la question revient régulièrement depuis. En août 2025, une méta-analyse regroupant 46 études évoque un sur-risque très modeste d’autisme. Mais entre données autodéclarées, mémoire maternelle incertaine aboutissant à des oublis ou des erreurs de déclaration et faibles effectifs, les limites méthodologiques sont nombreuses. Surtout, l’analyse ne permet pas de distinguer l’effet du médicament de celui des fièvres ou des infections qui ont motivé son usage. Or ces infections sont elles-mêmes associées à un risque accru de troubles neurodéveloppementaux.

Vaccins et autisme : la persistance d’un mythe

J’approfondis

L’Association américaine des obstétriciens-gynécologues a immédiatement rappelé que ce type d’étude, entaché de biais majeurs, ne permet en aucun cas d’affirmer une causalité. La littérature scientifique reste limitée et contradictoire, avec moins d’une centaine de travaux. Certaines publications concluent à un sur-risque très faible, d’autres ne trouvent aucun lien. Quelques-unes vont même jusqu’à suggérer un effet protecteur.

Pourtant, une étude de grande ampleur existe. Menée en Suède sur près de 2,5 millions d’enfants, elle montre que les femmes ayant pris du paracétamol n’ont pas plus d’enfants autistes que les autres. Sa force tient à sa taille exceptionnelle, à la qualité des registres nationaux de santé et à l’ajustement possible par de nombreux facteurs familiaux et médicaux. Bien plus solide que les plus petits travaux, elle tend à écarter l’hypothèse d’un lien direct entre paracétamol et autisme.

Toutes ces interrogations sont aussi motivées par l’apparente explosion des cas, puisqu’il y aurait aujourd’hui dix fois plus d’enfants concernés que dans les années soixante-dix. Une hausse qui s’explique par l’élargissement progressif des critères de diagnostic. Des profils autrefois exclus sont désormais intégrés dans le spectre de l’autisme. Grâce à une meilleure sensibilisation des familles et des professionnels, les signes sont plus facilement repérés, le dépistage est plus précoce et plus systématique. Enfin, des formes légères, longtemps passées inaperçues, sont aujourd’hui reconnues. S’y ajoutent des évolutions démographiques, comme l’âge plus avancé des parents et l’amélioration de la survie des enfants à risque. Autrement dit, il y a davantage d’autistes diagnostiqués, mais pas nécessairement plus de chances de l’être.

La fake news du paracétamol contaminé par un virus mortel

J’approfondis

Il importe de garder une rigueur scientifique irréprochable, sans se laisser guider par des biais cognitifs. Que Donald Trump ait instrumentalisé le sujet ne doit pas conduire à écarter toute hypothèse d’emblée. La recherche doit se poursuivre méthodiquement, loin des emballements médiatiques. Mais aujourd’hui, ses déclarations n’ont aucune base scientifique solide.

Le paracétamol reste l’antalgique de référence pendant la grossesse, à condition de l’utiliser à la dose minimale efficace et sur une durée limitée. Certaines femmes enceintes pourraient être tentées, par sécurité, de se passer de médication. Mais l’inaction n’est pas sans risques : une fièvre maternelle non traitée représente un danger bien réel pour la mère et son enfant. C’est toute la tragédie de ce chimérique combat trumpien, qui pourrait engendrer des drames bien réels.

Aucun lien d’intérêt à déclarer en lien avec cet article.

1    Le médicament est appelé acétaminophène en Amérique du Nord et vendu sous le nom de Tylenol®, équivalent du Doliprane® ou de l’Efferalgan®.

L’article Autisme : le Doliprane plonge Trump dans l’effervescence est apparu en premier sur Les Électrons Libres.

Les PFAS, des polluants moins « éternels »

22 septembre 2025 à 04:29

Êtes-vous en danger à cause des boîtes à pizza ou des pailles en papier ?
Dans le collimateur de l’Europe et de la France, les PFAS, dits « polluants éternels », sont partout, ou presque. Quels sont vraiment les risques ? Et quelles solutions pour demain ?

Les PFAS constituent une vaste famille de composés synthétiques – entre 4 000 et 10 000 molécules distinctes – caractérisée par une extrême stabilité chimique. Cette persistance, qui peut atteindre plusieurs centaines d’années pour certains composés, s’explique par la solidité de la liaison carbone-fluor qui les caractérise, l’une des plus fortes en chimie organique, capable de résister aux rayonnements UV et aux conditions naturelles. Cette architecture crée une liaison très stable, qui confère aux PFAS de nombreux atouts. Ils présentent une grande stabilité dans le temps, un fort pouvoir antiadhérent, une excellente résistance à la chaleur et aux produits chimiques, et une rare capacité à repousser l’eau comme les graisses. Ce rôle transversal explique leur succès… et la difficulté de s’en passer trop brutalement.

Hélas, ils se dispersent facilement dans l’air, les sols et les eaux, ce qui accroît leur potentiel de contamination. Logique, puisque leur caractère bioaccumulable favorise leur concentration dans les écosystèmes et leur transfert dans la chaîne alimentaire.

À titre d’exemple, les PFAS utilisés comme agents d’imperméabilisation ou antitaches pour les textiles sont progressivement libérés lors des lavages et rejoignent les eaux usées. Ils peuvent également exposer l’utilisateur par contact cutané. Les emballages alimentaires constituent une autre source d’exposition. De nombreux produits en papier/carton, tels que les boîtes à pizza, les pailles en papier ou certains contenants jetables, peuvent être traités aux PFAS afin de résister à l’eau, aux graisses et à la chaleur. Cette utilisation favorise leur migration vers les aliments, en particulier lorsque ceux-ci sont chauds ou gras, ce qui entraîne une exposition du consommateur.

Dans le cas des PFAS utilisés pour fabriquer des matériaux polymères, comme le Téflon, la dispersion dans l’environnement se produit principalement au moment de la production des molécules qui les constituent, plutôt qu’au cours de leur utilisation. Votre poêle Tefal n’est donc pas dangereuse à l’usage, mais lors de sa fabrication, contrairement à l’idée reçue qui entoure cet outil de cuisine. Les modes de rejet et de pollution de l’environnement dépendent donc fortement de l’utilisation des PFAS.

Leur formidable stabilité chimique a toutefois un revers de taille. Les éliminer est un vrai casse-tête lorsqu’ils se retrouvent disséminés dans l’environnement. La raison en est simple : ces molécules n’existent pas dans la nature, d’où l’absence d’enzymes en capacité de les dégrader…

Pendant longtemps, les seules solutions pour en limiter la dissémination ont consisté à les filtrer ou à les confiner, sans pouvoir les faire disparaître. Aujourd’hui, si nul remède miracle et facile à mettre en œuvre n’existe encore, industriels, entrepreneurs et chercheurs explorent ensemble des issues technologiques capables de détruire, voire de recycler, ces molécules.

PFAS : une pollution persistante et préoccupante pour l’environnement et la santé

J’approfondis

Oxyle : rompre l’indestructible liaison !

Parmi les start-up européennes qui s’attaquent de front aux résidus de PFAS, Oxyle fait figure de pionnière. Née à Zurich (Suisse), elle développe une technologie de destruction basée sur un catalyseur nanoporeux piézoélectrique. Le principe est aussi élégant que redoutable : lorsque de l’eau contaminée passe sur ce matériau, simultanément soumis à une stimulation mécanique, le catalyseur génère des charges électriques transitoires, des micro-impulsions qui suffisent à rompre la fameuse liaison carbone-fluor, pourtant réputée indestructible.

Résultat : les PFAS sont progressivement décomposés en molécules minérales, comme du dioxyde de carbone et du fluorure. Selon la jeune entreprise, sa technologie en élimine « plus de 99 % ». Mieux encore : cette solution aurait une consommation énergétique « jusqu’à 15 fois inférieure » aux procédés traditionnels, affirme Oxyle.
La société indique pouvoir équiper aussi bien des unités industrielles que des installations de traitement d’eaux souterraines ou rejetées par les municipalités. Elle a déjà mené plusieurs expériences pilotes en Suisse et en Europe, avec l’ambition de traiter au moins 100 millions de mètres cubes dans les cinq prochaines années.

Prometteuse, la solution d’Oxyle est en voie d’industrialisation, même si des écueils demeurent. Son efficacité varie sensiblement selon la qualité de l’eau, comme le reconnaît volontiers l’entreprise. Car la présence de matières organiques et de co-polluants peut altérer la performance. Et sur des rejets très dilués, une étape de préconcentration en amont s’avère souvent nécessaire. À suivre.

Haemers Technologies : détruire les PFAS dans les sols

Quand on parle de PFAS, on pense souvent à leur présence dans l’eau. Mais une part importante du problème se cache dans les sols, les boues et les sédiments. C’est sur ce terrain que veut s’imposer Haemers Technologies, une start-up belge spécialiste du procédé thermique de dépollution. Son approche repose sur un principe simple : chauffer le sol par conduction thermique pour faire migrer les polluants, puis les détruire aussitôt dans une unité de traitement couplée, sans générer de « résidus secondaires ».

Concrètement, l’entreprise déploie sur site des électrodes ou des puits chauffants qui élèvent la température du sol, entraînant la désorption des PFAS. Les composés volatilisés sont ensuite aspirés et dirigés vers un dispositif de post-traitement à haute température, où ils sont oxydés. Haemers revendique une destruction totale de ces molécules, aussi bien in situ (sans devoir faire d’excavation) qu’ex situ (après extraction du sol pollué).

Cette technologie se distingue par sa capacité à traiter efficacement les PFAS directement sur les sites contaminés, ce qui en fait une solution plug-and-play pour la dépollution des sols. Des essais pilotes ont déjà été réalisés, au Danemark notamment.

La voie thermique de Haemers n’est toutefois pas sans contraintes. Chauffer des volumes de sol importants reste un processus énergivore et coûteux. Par exemple, pour l’in situ, la société indique que la consommation d’énergie « descendrait aux alentours de 200 kWh par tonne de sol ». Quant à l’ex situ, il est nettement plus onéreux. Se pose aussi la question du bilan carbone de ces opérations de dépollution, qui dépend beaucoup de la qualité du mix énergétique des pays dans lesquels elles seront envisagées.

Oxford : et si on recyclait le fluor ?

Du côté de l’Université d’Oxford, une autre approche est proposée : le recyclage en amont des PFAS, au lieu de les détruire. Une solution qui permettrait de les traiter « à la source », en intervenant avant leur dispersion dans l’environnement, pour en récupérer le fluor sous la forme de sels réutilisables. Un dispositif pouvant s’avérer complémentaire des deux technologies précédentes dites « de dépollution ».

Les équipes de chimistes du campus ont mis au point, au printemps 2025, une méthode inédite reposant sur la mécanochimie. Au lieu d’utiliser de la chaleur ou des solvants, elles détruisent les PFAS solides, en présence de sels de phosphate de potassium, dans un simple broyeur à billes. Ce processus mécanique génère l’énergie nécessaire pour rompre les liaisons carbone-fluor, décidément de moins en moins « indestructibles ».

Le fluor libéré est capté sous forme de sels inorganiques (fluorure de potassium et fluorophosphate), directement réutilisables dans l’industrie chimique. Le phosphate servant d’agent réactif est lui aussi recyclé, ce qui rend le procédé circulaire. Il ne se contente pas d’éliminer la pollution, il revalorise une ressource stratégique, en transformant des déchets solides contenant des PFAS en une nouvelle source de fluor pour l’économie.

Selon les chercheurs d’Oxford, la méthode est applicable à une large gamme de PFAS : les acides (comme le PFOA), les sulfonates (PFOS), mais aussi les polymères fluorés un peu plus complexes tels que le PTFE ou le PVDF. L’expérience se déroule à température et pression ambiantes, avec un équipement simple et non énergivore.

Cette solution reste néanmoins au stade de l’expérimentation, avec des essais réalisés sur de petits lots de PFAS. Quant au potentiel passage au niveau industriel, il doit encore être démontré. En outre, le procédé vise surtout des flux solides et concentrés. Pour des PFAS de type résines, mousses ou polymères, il sera préalablement nécessaire de les capter et de les sécher avant de les passer au broyage.

PFAS : un encadrement qui se durcit en France et en Europe

J’approfondis

Si pour certains les PFAS auront marqué notre époque comme la chimie du progrès, et pour d’autres comme celle de l’empreinte « indélébile » des activités humaines, la science, l’ingénierie et l’imagination refusent de se laisser enfermer dans une quelconque fatalité. Même si elles ne couvrent pas tous les cas de figure et ne sont pas des « baguettes magiques », les pistes présentées ouvrent des portes et autorisent à penser que l’éternité des PFAS n’a pas forcément vocation à durer…

La sortie par le haut passera donc par un mix entre une réduction à la source et une substitution lorsque c’est possible. Mais aussi par le traitement des flux de production, la destruction ou le recyclage lorsque c’est pertinent, et bien sûr par la transparence et le suivi des résultats.

L’article Les PFAS, des polluants moins « éternels » est apparu en premier sur Les Électrons Libres.

La technologie peut-elle sauver le climat ?

21 septembre 2025 à 04:55

Non, ce n’était pas « mieux avant ». En réalité, le monde n’a jamais été durable. Mais, pour la première fois dans l’histoire de l’humanité, des technologies changent la donne. Et si la neutralité carbone n’était plus une question de « si », mais de « quand » ?

Dossier réservé à nos abonnés.

S'abonner dès 5€/mois

ou

Acheter ce dossier pour 1,50€

L’article La technologie peut-elle sauver le climat ? est apparu en premier sur Les Électrons Libres.

💾

Le GIEC est-il techno-optimiste ?

20 septembre 2025 à 04:27

À en croire l’historien Jean-Baptiste Fressoz, le groupe III du GIEC, qui évalue les moyens d’atténuer le réchauffement climatique, serait trop « technophile » et sous-estimerait les mesures de sobriété. Un procès à côté de la plaque.

Dans un article récemment paru dans la revue Energy Research & Social Science et dûment relayé par Le Monde du 30 août, l’historien des sciences et chercheur au CNRS Jean-Baptiste Fressoz entend mettre en évidence le biais « technocentrique » qui, selon lui, imprègne tous les rapports du groupe III du GIEC depuis ses débuts en 1990. Ce groupe de travail est chargé de recenser et d’évaluer les solutions d’atténuation du changement climatique qui doivent permettre de réduire les émissions de gaz à effet de serre (GES) et donc limiter autour de 2 degrés la hausse de la température planétaire par rapport aux périodes préindustrielles.

L’auteur estime que ce biais « nourrit un faux optimisme, légitime le soutien aux technologies spéculatives, réduit l’éventail des options politiques viables et retarde les transformations structurelles ». Il juge l’objectif de neutralité carbone visé d’ici 2050-2070 par l’Accord de Paris « technologiquement impossible » et appelle à renoncer à ces « illusions » au profit de mesures de sobriété, de décroissance et de redistribution (qu’il ne détaille pas). Hélas, sa thèse souffre elle-même de nombreux biais.

Méthodologie sémantique indigente

Pour mettre en évidence cette supposée technophilie historique, l’historien a compté les occurrences de différents termes dans les six rapports du groupe III, certains identifiés comme technologiques, d’autres évoquant des actions de réduction de la demande. Dans le dernier rapport paru en 2022, il a ainsi compté 1 096 fois le mot « hydrogène », 1 667 fois « innovation » ou 2 111 fois « technologie », mais seulement 232 fois le terme « sufficiency » (sobriété) et 29 fois « décroissance » ! Pour l’auteur, le déséquilibre est probant, même s’il admet qu’il est moins prononcé que dans les précédents opus. Et de fait, le groupe III a, pour la première fois en 2022, consacré un chapitre aux changements de modes de vie et d’usages et à la sobriété, estimant que ces stratégies pourraient réduire les émissions de 40 à 70 % selon les secteurs. Un virage applaudi par toute la sphère de l’écologie politique. « Le GIEC enterre la stratégie de la croissance verte », s’est notamment réjoui l’économiste décroissant Timothée Parrique.

Le politologue François Gemenne, co-auteur du sixième rapport du GIEC, et confronté à l’historien sur France Inter, a moqué « l’extraordinaire faiblesse d’une méthodologie basée sur le nombre d’occurrences de mots », rappelant que le rapport du GIEC n’était pas, comme le prétendait JB Fressoz, « un guide pour nous aider à sortir du carbone », mais l’état des connaissances scientifiques à un moment précis. « On évalue à la fois l’abondance et la convergence de la littérature sur le sujet. Il est donc logique que les rapports parlent davantage d’énergie solaire ».

De plus, remarque le journaliste scientifique Sylvestre Huet sur son blog Sciences au carré hébergé par Le Monde, « Jean-Baptiste Fressoz confond “beaucoup” et “bien”. Il nous dit que le GIEC est obnubilé par les CSC (capture et stockage du carbone), alors que le GIEC nous alerte surtout sur l’extrême difficulté d’une éventuelle mise en œuvre de cette technologie. Mais pour le savoir, il ne faut pas se contenter de faire compter des mots par un logiciel, il faut lire le texte (qui est long) ». Bim.

In fine, ce comptage de mots ne prouve rien. JB Fressoz démonte même sa propre démonstration en admettant, au détour d’un paragraphe, que « la fréquence d’un terme n’implique pas son approbation », citant le cas de l’hydrogène, très critiqué dans le dernier rapport.

Opposition stérile entre technologies et mesures socio-économiques

Résumer le débat à un affrontement entre techno-solutionnistes et décroissants relève du pur sophisme (voir encart « Le coût, principal frein des technologies de décarbonation »). « Ce n’est pas une technologie générique qui permet de réaliser le potentiel de réduction, c’est une synergie entre des changements techniques précis et des modes de vie et de consommation nécessaires », affirme Sylvestre Huet. D’autant que les leviers socio-économiques d’atténuation du changement climatique sont tout aussi complexes à mettre en œuvre que les techniques de décarbonation — sans même parler de la décroissance, qui fait l’objet d’un profond rejet des populations en plus de reposer sur une littérature imprécise et peu aboutie (voir encart ci-dessous).

La décroissance, une théorie scientifique ?

J’approfondis

Confusion entre faisabilité technique et coût économique

JB Fressoz juge les technologies de décarbonation « spéculatives » et « irréalistes ». « Est-ce que l’on sait faire de l’acier, du ciment, des engrais sans émettre de CO₂ ? Non ! Est-ce que l’on sait faire voler des avions ou faire naviguer des porte-conteneurs sans émettre de CO₂ ? Non. Tous les modélisateurs le savent ! », s’est-il emporté sur France Inter.

Sauf qu’en fait, bien souvent, on sait le faire et on le fait déjà, comme peuvent en témoigner de nombreuses entreprises, tels le fabricant d’engrais bas-carbone FertigHy, le cimentier Lafarge Holcim ou, dans le domaine des CSC, le méga-projet norvégien Northern Lights (TotalEnergies, Equinor et Shell). Les technologies bas carbone existent. Le problème, c’est leur coût, encore nettement plus élevé que pour leurs équivalentes plus émettrices. Ainsi, remplacer toutes les chaudières au gaz d’une collectivité par des pompes à chaleur est techniquement facile mais l’investissement nécessaire est encore dissuasif.

« Le GIEC met parfois en avant des solutions peu ou pas matures, admet le physicien-climatologue et co-auteur du cinquième rapport du GIEC François-Marie Bréon. Mais le solaire ou les batteries ne l’étaient pas il y a vingt ans. Or, on voit aujourd’hui les ruptures technologiques réalisées ». Avec, à la clé, des baisses de coûts spectaculaires et la massification des procédés.

Le coût, principal frein des technologies de décarbonation 

J’approfondis

JB Fressoz se montre particulièrement critique envers la mise en avant par le GIEC des techniques d’émissions négatives comme les CSC (consistant à capturer le carbone rejeté dans l’atmosphère par les centrales thermiques et les usines, puis à l’injecter dans le sous-sol). Le scénario misant sur l’injection, à terme, de 10 milliards de tonnes de CO₂ par an, est-il absurde, comme il le soutient ? Non, répond François-Marie Bréon. Pour lui, la limite à l’essor de ces procédés n’est pas technique, mais politique et économique : « Les CSC coûtent environ 100 euros la tonne. Aucun État n’a un intérêt politique à y consacrer des ressources significatives, car sa population n’en bénéficiera pas directement à court terme, même si la planète en a besoin. Seul un accord international pourra résoudre cette difficulté ».

Un biais « socio-solutionniste » ?

Derrière l’importance que le GIEC accorde à ces techniques, JB Fressoz voit la main des multinationales et de leurs lobbies. Il souligne que le groupe III a, dès sa création, impliqué « de nombreux experts affiliés à l’industrie des combustibles fossiles », citant Total, Exxon, ENI, Mobil Oil, Saudi Aramco, DuPont, Volvo, le World Coal Institute, etc. Et on comprend clairement qu’il le condamne. Selon lui, la participation de ces experts du privé comme co-auteurs « a contribué à façonner le contenu des rapports, notamment en valorisant le rôle des CSC dans les scénarios de neutralité carbone du GIEC ». Une assertion qu’il illustre par une série de retours historiques, insistant sur l’influence exercée par les États-Unis dès 1988. On retrouve ici l’accusation classique de « néolibéralisme » portée par des écologistes radicaux à l’encontre du GIEC, initiée lors d’une réunion du G7 en 1988, sous l’impulsion notable de Margaret Thatcher et de Ronald Reagan.

L’intérêt du GIEC se traduit par un rapport spécial sur les CSC publié en 2005. « Plusieurs auteurs principaux ou réviseurs de ce rapport étaient également employés par des compagnies de charbon, de pétrole, de gaz ou d’électricité », dénonce Fressoz. « De nombreuses références provenaient soit des conférences GHGT (Global Energy Technology Strategy), soit du programme GES de l’AIE, tous deux étroitement liés aux majors pétrolières ». Et alors ? pourrait-on lui répondre, puisqu’il reconnaît lui-même que le groupe III est « majoritairement composé d’experts de la recherche publique ni naïfs ni influençables ».

Le sous-entendu de mise sous influence du groupe III est patent. Il ne cache d’ailleurs pas son rejet viscéral de l’entreprise : « Parfois, écrit-il, le rapport du GIEC ressemble davantage à des brochures de marketing industriel qu’à une évaluation scientifique ». Pour Alexandre Baumann, auteur et créateur d’un blog sur la pseudo-écologie, « le présupposé de Fressoz est que les chercheurs qui travaillent pour une entreprise privée sont forcément inféodés à leurs employeurs, forcément corrompus, et que la recherche privée ne peut traduire que les intérêts capitalistes en présence. Ce double standard sur la science s’inscrit selon moi dans une logique partisane ».

Même si, rappelons-le, le GIEC n’a aucun rôle prescripteur, il doit présenter des solutions jugées crédibles et réalisables. Et comme il fait autorité auprès des gouvernements (et de la communauté internationale en général), on ne peut certes exclure que des groupes d’intérêt cherchent à influencer ses conclusions. Mais face aux risques de pression, sa force réside dans le recours à des centaines d’experts aux opinions et sensibilités différentes, qui évaluent et synthétisent des milliers de travaux (278 auteurs pour 18 000 articles scientifiques en 2022). C’est ainsi que se construit et s’ajuste au fil des années le consensus scientifique le plus complet et le plus rigoureux actuellement disponible sur le climat. Personne ne peut envisager sérieusement d’en exclure les ingénieurs et les chercheurs du secteur privé, qui élaborent et développent ces technologies. Ni de bannir ces dernières au profit d’une hypothétique sobriété. À moins de souffrir d’un regrettable biais « socio-solutionniste » sans fondement scientifique.

L’article Le GIEC est-il techno-optimiste ? est apparu en premier sur Les Électrons Libres.

Le mythe de l’huile aux hydrocarbures

19 septembre 2025 à 04:09

Des solvants pétroliers dans nos huiles de cuisine ?
Sorti hier, le livre du journaliste Guillaume Coudray, De l’essence dans nos assiettes, dénonce une « contamination générale ». Qu’en est-il vraiment ?

C’est l’histoire d’une salade tranquille. Un peu de vinaigre, une pointe de moutarde, une giclée d’huile de tournesol. Et puis, soudain, la politique et les médias s’invitent dans votre assiette. En plus du journaliste, un député surgit et vous annonce que votre vinaigrette contient… des hydrocarbures. Panique ! Vous imaginez déjà un jerrican de sans-plomb 95 planqué dans votre cuisine. La faute à un mot : l’hexane.

Comment fabrique-t-on une huile ?

Reprenons au début. Extraire l’huile d’une graine, ce n’est pas comme presser une orange. On peut bien sûr l’écraser mécaniquement, mais ça laisse pas mal de gras coincé dedans. Entre 20 et 40 % selon les procédés et les types de produits. Ce qui n’est pas négligeable. Alors, depuis des décennies, l’industrie utilise un solvant, l’hexane, pour « laver » les graines et en récupérer quasiment toute l’huile. Car celle-ci est contenue dans des cellules végétales rigides, ce qui rend son extraction mécanique (par pression) moins efficace que pour des fruits à pulpe aqueuse. Notre hexane est d’ailleurs également présent dans d’autres aliments oléagineux, comme la margarine. Bref.

Une fois le travail effectué, on chauffe, on distille, on évapore.
Résultat : le solvant s’en va, l’huile reste. Dans le jargon, on appelle ça un auxiliaire technologique, à savoir un produit utilisé pendant la fabrication, mais qui n’est pas censé se retrouver dans l’aliment fini. Et si jamais il en reste une trace, c’est en quantité infinitésimale — de l’ordre du milligramme par kilo d’huile, autrement dit l’équivalent d’un grain de sable dans un seau entier.

Et le législateur veille. En Europe, une huile ne doit pas contenir plus d’1 mg d’hexane par kilo. Autrement dit, un litre d’huile — soit près d’un kilo — contient moins d’un milligramme de résidu possible. Pas plus. Mais cela ne suffit pas pour le député MoDem Richard Ramos, habitué de ce genre de combats, tout comme Guillaume Coudray, aperçu dans l’émission Cash Investigation et les colonnes de… Reporterre, médias alarmistes et sensationnalistes. Au printemps dernier, il a déposé une proposition de loi pour faire interdire le suspect, également dans le viseur d’une commission parlementaire. La raison, comme le rappelait Le Point en avril dernier, est que « ces seuils, établis en 1996, sont considérés comme insuffisants par l’Autorité européenne de sécurité des aliments (EFSA), qui alertait, dans une note publiée en septembre 2024, sur la nécessité de réévaluer le produit et ses autorisations. En cause, l’usage par les industriels d’un ‘’hexane technique’’, qui, par opposition à l’hexane pur utilisé en laboratoire, pourrait contenir d’autres produits dangereux. »

Le chiffre qui calme

Entrons dans le vif du sujet : la toxicologie. Les scientifiques s’appuient sur une mesure clé, le NOAEL (No Observed Adverse Effect Level), soit la dose à laquelle aucun effet nocif n’est observé. Pour l’hexane, ce seuil est aujourd’hui estimé à environ 23 mg par kilo de poids corporel par jour, avant son éventuelle réévaluation.

Faisons le calcul ensemble :

  • Pour une personne de 70 kg, ça fait 1 610 mg par jour.
  • Dans une huile conforme à la loi, il y a ≤ 1 mg par litre.
  • Conclusion : pour atteindre le seuil toxique, il faudrait boire plus de 1 600 litres d’huile par jour.

Ce qui nécessiterait une très sérieuse réévaluation du NOAEL pour que la toxicité de votre salade soit établie. Rappelons qu’ingérer plus de 8 litres d’eau pure par jour peut vous conduire rapidement à une sérieuse insuffisance rénale, sans que personne n’envisage l’interdiction de cette source essentielle de vie.

Néanmoins, arrêtons-nous un instant. Cette comparaison, bien que frappante, simplifie la réalité. La toxicologie ne se résume pas à un seuil unique. Par exemple, les effets de l’hexane à long terme, même à très faible dose, sont encore étudiés, notamment pour des expositions répétées via l’alimentation. L’EFSA n’a pas classé l’hexane comme un danger immédiat dans les huiles alimentaires, mais elle recommande une surveillance continue et des données supplémentaires pour mieux évaluer les risques. C’est une démarche scientifique classique : on ne conclut pas sans preuves solides, mais on reste vigilant.

La peur plutôt que les faits

Pourtant, agiter le spectre d’une présence morbide « d’hydrocarbures » dans votre cuisine est davantage le reflet de l’époque que d’un danger certain. Cette idée peut sembler séduisante pour alerter le public, mais elle risque de semer la confusion.

Imaginez un instant : faudrait-il indiquer que les moules ont été nettoyées avec un détergent ? Ou préciser que l’eau du robinet contient des traces de chlore utilisé pour la purifier ?

La présence d’un auxiliaire technologique comme l’hexane ne signifie pas forcément que le produit final est dangereux. Mais il y a un gros bémol : les travailleurs des usines de production d’huile, eux, peuvent être exposés à des vapeurs d’hexane en quantités bien plus significatives. Or, cette exposition prolongée par inhalation peut entraîner des effets neurologiques, comme des maux de tête ou, dans des cas extrêmes, des troubles nerveux. C’est pourquoi les normes de sécurité au travail sont cruciales, et les syndicats comme les ONG soulignent régulièrement l’importance de protéger ces ouvriers. Ce débat-là, moins médiatisé, mérite pourtant autant d’attention que celui sur les étiquettes des bouteilles d’huile.

Le vrai débat

L’hexane n’est pas une fatalité. Il existe des alternatives, comme l’éthanol, le CO₂ supercritique ou des solvants biosourcés comme le 2-méthyloxolane, fabriqué à partir de résidus agricoles. Ces options sont prometteuses, mais elles ne sont pas une baguette magique. Elles impliquent des coûts plus élevés, une consommation énergétique parfois importante et des adaptations complexes des chaînes de production. Par exemple, le CO₂ supercritique nécessite des équipements sous haute pression, ce qui représente un investissement lourd pour les industriels. De plus, ces alternatives doivent être évaluées sur leur cycle de vie. Sont-elles vraiment plus écologiques si elles consomment plus d’énergie ou génèrent d’autres déchets ?

Le défi est donc double : encourager l’innovation vers des procédés plus durables tout en maintenant des prix accessibles pour les consommateurs. Car n’oublions pas un détail : l’huile alimentaire, qu’elle soit de tournesol, de colza ou de soja (l’huile d’olive n’est pas concernée), reste un produit de première nécessité. Une hausse des coûts pourrait peser sur les ménages modestes et fragiliser la souveraineté alimentaire, surtout dans un contexte où les filières agricoles sont déjà sous pression. Ajoutons à cela que l’hexane, malgré son image peu flatteuse, permet de maximiser l’extraction d’huile, réduisant ainsi le gaspillage de ressources. Toute transition devra donc être mûrement réfléchie.

En conclusion

Donc non, votre vinaigrette n’est pas un cocktail toxique explosif ! Mais cela ne signifie pas qu’il faut s’endormir sur ses lauriers. La science évolue, les attentes sociétales aussi. Les consommateurs veulent des produits perçus comme plus « naturels » — même si cela n’a pas toujours de sens — et des industries plus transparentes. Malheureusement, les médias contribuent de plus en plus à brouiller les pistes en amplifiant les craintes, comme nous l’analysons à longueur de temps dans ces colonnes. Alertes sans fondement, chiffres plus symboliques que réels (tels les 211 milliards aux entreprises que nous avons traités hier), idées véhiculées sans analyse de leurs conséquences (comme la taxe Zucman)… les exemples sont légion de dramatisations lucratives mais dangereuses. Un titre accrocheur sur les « hydrocarbures dans votre huile » fait plus cliquer qu’une explication nuancée sur les seuils toxicologiques. Cette fabrique de la peur, souvent alimentée par des raccourcis ou des mots anxiogènes, détourne l’attention des vrais enjeux. Plutôt que de céder à la panique ou de diaboliser une molécule, le vrai défi est de soutenir la recherche et l’innovation pour des procédés plus durables, tout en protégeant les travailleurs exposés.

Alors, la prochaine fois que vous arrosez votre salade d’un filet d’huile de tournesol, pensez-y : ce n’est pas un jerrican d’essence que vous versez dessus, mais le fruit d’un équilibre complexe entre science, industrie et réglementation à un instant T. En espérant que le prochain soit source de progrès.

L’article Le mythe de l’huile aux hydrocarbures est apparu en premier sur Les Électrons Libres.

Les « 211 milliards » : autopsie de la fabrique de l’opinion

17 septembre 2025 à 23:24

« 211 milliards d’euros : c’est le montant des aides publiques versées aux entreprises en 2023, selon une commission d’enquête du Sénat. C’est plus de 2 fois le budget de l’Éducation nationale ! » annonce Complément d’Enquête sur X à propos de son émission de ce jeudi soir. Un teasing qui en dit long sur la manière dont ce chiffre, pourtant à prendre avec des pincettes, a vampirisé le débat public. Jusqu’à masquer l’essentiel.

Placardé sur fond noir à la Une de L’Humanité, repris en chœur par la presse, martelé sur les plateaux télé, ce chiffre s’est imposé dans l’opinion. Peu importe qu’il agrège des réalités hétérogènes ou qu’il soit assorti de multiples précautions méthodologiques, il est devenu parole d’évangile médiatique. Alors, « versées », vraiment ces  211 milliards ?

Du rapport au slogan

À l’origine, il y a une commission d’enquête sénatoriale, créée en janvier 2025 à l’initiative du groupe communiste dans le cadre de son droit de tirage. Présidée par Olivier Rietmann (LR), avec Fabien Gay (Parti Communiste) pour rapporteur, elle s’ouvrait en promettant d’éclairer « le Sénat comme l’opinion publique sur un enjeu majeur : celui de l’efficacité de l’argent public ». Après 87 heures d’auditions, dont une bonne part consacrées à interroger 33 PDG et directeurs généraux de grandes entreprises — Michelin, Total, LVMH, Google France et bien d’autres — et plusieurs mois de travaux, la commission a abouti à deux chiffres : environ 108 milliards d’euros d’aides au sens strict et 211 milliards d’euros au sens large.

Au-delà des montants, le rapport a révélé un maquis administratif d’une complexité telle que même l’État n’en maîtrise pas les contours. Économistes et hauts fonctionnaires ont décrit un empilement de dispositifs hétérogènes, sans tableau de bord global. Un constat jugé « irréel » par le président de la commission, Olivier Rietmann : la créature a fini par échapper à son créateur.

À l’aide : perdus dans le maquis

J’approfondis

De ce brouillard a émergé le fameux « 211 milliards ». Sous l’impulsion de Fabien Gay qui le présente comme « le premier poste de dépenses de l’Ėtat », il a retenu l’attention des médias. « Les entreprises gavées aux aides publiques » (Médiapart). « Des sommes faramineuses versées sans contrepartie » (L’Humanité). « Les sénateurs lèvent le voile sur le pactole des aides aux entreprises » (Challenges). Le rapport, pourtant nuancé, est devenu un unique chiffre choc, parfait pour alimenter la fabrique de l’indignation. Et ceux qui tentent de le contester sont accusés de remettre en cause le travail du Sénat. Suprême habileté : l’onction de la Haute Assemblée confère au chiffre une légitimité médiatique renforcée.

Vraies et fausses aides

La distinction entre les deux périmètres est pourtant essentielle. Les 108 milliards d’euros du plus restreint correspondent à de véritables transferts financiers : subventions budgétaires, dispositifs sectoriels ou encore crédits d’impôt comme le CIR, qui représentait 7,4 milliards d’euros en 2022, répartis entre 25 000 entreprises (38 % pour les grandes, 27 % pour les ETI, 28 % pour les PME et 6 % pour les microentreprises). 

Les 211 milliards du plus large intègrent en revanche des mécanismes différents : 77 milliards d’exonérations de cotisations sociales en 2024, des régimes de TVA réduite ou d’amortissements accélérés, ainsi que des prêts et garanties qui ne coûtent à l’État qu’en cas de défaut. Une large part du total correspond donc à des allègements pérennes de cotisations sociales, conçus comme des mesures structurelles de compétitivité, et non à des aides versées.

Publié le 17 juillet 2025, soit deux semaines après le rapport sénatorial, le rapport du Haut-commissariat à la stratégie et au plan (HCSP) n’a pas eu le même écho. Il confirme pourtant l’existence de périmètres très différents : 45 milliards d’aides d’État au sens européen en 2022, 112 milliards en incluant subventions, dépenses fiscales et aides financières, et plus de 200 milliards si l’on ajoute exonérations sociales, aides locales, européennes et dispositifs fiscaux « déclassés ».

Les paradoxes du rapporteur

On l’a vu, ce chiffre devenu viral doit beaucoup à son porte-voix privilégié : Fabien Gay, rapporteur de la commission, mais aussi directeur de L’Humanité. Une sorte de juge et partie. Rapporteur d’un texte qui alimente ensuite les gros titres en une de son propre journal… Surtout que le rapport rappelle que les aides à la presse représentent environ 205 millions d’euros directement en 2023, auxquelles s’ajoutent d’autres dispositifs (par exemple le transport postal), portant le total à près de 300 millions. Pour L’Humanité seule, cela correspond à 6,6 millions d’euros, soit près de 36 % de son chiffre d’affaires et environ 0,70 € par exemplaire vendu. Ironie : l’un des secteurs les plus subventionnés en proportion de son activité a donc occupé une place centrale dans la dénonciation des « aides sans contrepartie  . Plus ironique encore : son rapporteur a réduit le travail nuancé et approfondi de toute une commission à un chiffre-épouvantail, taillé pour servir son seul agenda idéologique, médiatique et politique.

Tapis rouge

Le dernier acte de la pièce se joue à la télévision, et c’est l’inévitable Complément d’Enquête qui s’y colle ce soir. La bande-annonce donne le ton : musique sombre, tours de verre filmés à contre-jour, salariés en colère, caméra cachée, témoin anonyme, voix off martelant « 211 milliards, c’est plus que le déficit de l’État ». Tout l’arsenal anxiogène est mobilisé, frôlant la mise en scène complotiste. Le chiffre, arraché à son contexte, devient preuve à charge contre ces « Multinationales : les (vraies) assistées de la République ». Coupables, forcément coupables.

Un parallèle s’impose avec la communication autour de la taxe Zucman. Là encore, tout part d’un calcul à la méthodologie contestée, visant cette fois les « ultra-riches » accusés d’échapper à l’impôt. Comme pour les 211 milliards d’aides aux entreprises, un débat technique se transforme en évidence morale, sans passer par la case de la rigoureuse analyse politique. D’un côté « taxer les riches », de l’autre « couper les aides aux multinationales ». Dans les deux cas, le service public déroule le tapis rouge à ces thèses (3 passages de Gabriel Zucman à la radio et la télévision publique  — dont le 20 heures de France 2 — entre le 10 et le 15 septembre) et évacue la complexité économique au profit d’un récit binaire dénonçant les profiteurs contre la France qui souffre. Une grille de lecture simpliste qui alimente les populismes.

Complément d’influence

J’approfondis

Le chiffre qui n(p)ourrit le débat

Dans les deux cas, le barnum médiatique passe à côté de l’éléphant dans la pièce.

D’abord, les aides ne sont qu’une partie du système. En France, les prélèvements sur les entreprises — impôts, cotisations, charges — comptent parmi les plus élevés d’Europe. Même en tenant compte des aides directes, le solde net reste défavorable. Les entreprises françaises supportent un poids fiscal et social supérieur à la moyenne européenne. Autrement dit, l’État taxe d’une main et tente de corriger les effets de l’autre à travers ces fameuses aides. Dans ces conditions, multiplier les contreparties et les conditions d’attribution relève de la politique de Gribouille. Le débat sur les aides ne peut être dissocié de celui sur la fiscalité des entreprises et de la simplification de l’édifice.

Ensuite, reste la question de la contribution des plus riches à la justice fiscale, notamment sur les plus-values latentes. Mais elle mérite d’être posée clairement, sans martyriser les chiffres pour mobiliser l’opinion et dresser les uns contre les autres, au risque de décourager l’investissement et l’innovation, et d’aggraver le mal.

Dans tous les cas, comme l’a montré la polémique autour des ZFE et du chiffre des « 48 000 morts » — brandi jusqu’au président de la République pour justifier la création de ces zones, alors que la part des moteurs thermiques dans les émissions censées en être responsables n’est en réalité que de… 5 % — aucun débat serein et productif ne peut avoir lieu sur des bases biaisées. Et quand l’opinion, intoxiquée, finit par s’en rendre compte, le réveil peut être brutal.

L’article Les « 211 milliards » : autopsie de la fabrique de l’opinion est apparu en premier sur Les Électrons Libres.

Vers l’IA frugale !

17 septembre 2025 à 04:51

C’est fait. La désinformation a été si massive, répétée avec tant d’aplomb, que beaucoup croient qu’une requête ChatGPT consomme 50 cl d’eau ou émet autant de CO₂ qu’une voiture sur 5 km. Pourtant, la technologie progresse à une vitesse telle qu’elle déjoue toutes les prévisions et pourrait rendre notre écosystème numérique bien plus sobre qu’avant.

Reprenons par exemple le fameux exemple des 50 cl d’eau. Ce chiffre, largement surestimé, intègre la production d’électricité — plus de 90 % du total ! —, comme les toilettes du personnel. Par ailleurs, il provient de centres de données américains et concerne un modèle obsolète, à savoir le ChatGPT de 2022. En réalité, la situation est bien plus nuancée.

Combien d’énergie pour générer une réponse en texte ou en image ?

Les estimations de la consommation énergétique varient sensiblement en fonction des années, des modèles analysés et des méthodologies employées par les chercheurs. En 2023, une requête sur ChatGPT était estimée à environ 3 Wh, soit l’équivalent de dix recherches classiques sur Google. Mais dès 2025, une étude plus récente a revu ce chiffre à la baisse, le ramenant à seulement 0,3 Wh — juste assez pour faire bouillir 3 millilitres d’eau chaude, moins d’une cuillère à café. À titre de comparaison, préparer un simple expresso du matin nécessite vingt fois plus d’énergie.

La génération d’images, en revanche, s’avère plus vorace. Elle exige actuellement autour de 3 Wh, ce qui correspond à la moitié de l’énergie requise pour cet expresso matinal.

À ce sujet, fin juillet, la startup française Mistral, pionnière dans le domaine, a partagé ses propres données, estimant l’impact carbone de son modèle à 1,14 gramme de CO₂ par requête. Ces chiffres soulignent non seulement la diversité des approches, mais aussi les progrès constants qui redessinent le paysage énergétique de l’IA.

Pourquoi de telles disparités dans les estimations ?

L’intelligence artificielle générative est un domaine en pleine ébullition, attirant les esprits les plus brillants en recherche et en informatique. Les premiers prototypes, souvent qualifiés de « preuves de concept », ont été affinés sans relâche sur tous les fronts : performances accrues, optimisation des ressources matérielles, raffinement des algorithmes et mutualisation des calculs. Ces avancées se poursuivent à un rythme effréné, expliquant les écarts observés entre les études. Ce qui était vrai hier peut être obsolète demain, tant l’innovation est rapide.

L’IA va-t-elle engloutir l’électricité de la planète à elle seule ?

Les évaluations basées sur le ChatGPT balbutiant de 2022 sont aujourd’hui périmées. La consommation a chuté de manière spectaculaire grâce aux optimisations successives. Réaliser aujourd’hui des projections au-delà de cinq ans sur la base des modèles actuels relève de la pure spéculation, tant la technologie évolue de semaine en semaine. D’ailleurs, des géants comme Microsoft et Meta ont déjà révisé à la baisse leurs prévisions d’achats énergétiques, témoignant d’une prudence accrue face à ces dynamiques imprévisibles.

Pour illustrer, certaines analyses estiment qu’OpenAI mobilise entre 30 000 et 50 000 cartes graphiques (GPU), chacune consommant de 400 à 700 watts. En pic d’activité, cette infrastructure pourrait avaler jusqu’à 35 mégawatts. En juin 2025, l’entreprise de Sam Altman accueille quotidiennement environ 125 millions d’utilisateurs, générant un milliard de requêtes. Dans le scénario le plus pessimiste, cela équivaut à 0,84 Wh par requête, tous types confondus — à peine suffisant pour allumer une ampoule pendant six minutes. Pour donner une échelle plus tangible à ces données, en pleine charge, ChatGPT consomme un peu plus que trois TGV lancés à pleine puissance, transportant au total 1 700 passagers. Cette comparaison met en perspective l’impact réel de l’IA, loin des scénarios apocalyptiques souvent dépeints.

Mais l’apprentissage des modèles, c’est le pire ?

L’entraînement des grands modèles de langage représente réellement un défi en termes énergétiques. Il implique des calculs intensifs, donc une consommation substantielle, étalée sur des semaines ou des mois. Selon une étude d’Epoch AI en 2024, la complexité computationnelle de ces entraînements augmente d’un facteur 4 à 5 chaque année, reflétant l’ambition croissante des modèles.

Ainsi, l’entraînement de GPT-4 aurait requis 50 gigawattheures, soit l’équivalent de deux jours de production d’un réacteur nucléaire. Mais la donne est en train de changer. Par exemple, les chercheurs chinois de DeepSeek ont fait sensation début 2025 avec leur modèle R1, d’une envergure comparable à celui d’OpenAI, mais entraîné pour un budget vingt fois inférieur, de 5,6 millions de dollars. Ces bonds en avant algorithmiques sont monnaie courante en informatique, démontrant que l’efficacité peut primer sur la force brute. Enfin, il ne faut pas perdre de vue l’ensemble du tableau : ces entraînements coûteux sont amortis sur un volume colossal d’utilisations quotidiennes, rendant leur part relative dans l’impact global bien plus modeste qu’il n’y paraît.

Vers la sobriété heureuse ?

L’optimisation logicielle et matérielle est au cœur des efforts actuels, avec des chercheurs explorant des architectures plus frugales [encadré 1]. Si, jusqu’en 2022, l’exécution du moindre LLM requérait des serveurs onéreux, aujourd’hui, ils tournent sans peine sur des ordinateurs personnels, voire des smartphones, démocratisant ainsi l’accès à l’IA.

Fin août, Google a annoncé un gain impressionnant. Entre les printemps 2024 et 2025, son modèle Gemini a vu sa consommation énergétique divisée par 33 : 23 fois grâce à des améliorations logicielles, et 1,4 fois via une meilleure utilisation des serveurs. Résultat : une interrogation médiane ne demande plus que 0,24 Wh. Ces progrès illustrent le potentiel infini de l’innovation pour atténuer les coûts énergétiques.

Quid des data centers ?

Leurs infrastructures doivent évoluer pour gagner en efficacité énergétique et thermique. L’adoption d’électricité bas carbone est cruciale pour minimiser l’empreinte environnementale de l’IA, tout comme l’utilisation de systèmes de refroidissement plus économes en eau. La France, avec ses normes hydriques sévères et son mix énergétique dominé par le nucléaire et les renouvelables, détient de solides atouts dans ce domaine (voir encart). Dans l’étude mentionnée, Google a par ailleurs réduit ses émissions de CO₂eq d’un facteur 1,4 en privilégiant des sources d’énergie plus propres, prouvant que des choix stratégiques peuvent faire une différence significative.

Data centers : la vérité par « le eau » !

J’approfondis

Existe-t-il pire encore que l’IA ?

Pour remettre les choses en perspective, examinons quelques ordres de grandeur. En 2022, les centres de données (tous usages confondus, hors cryptomonnaies) absorbaient entre 240 et 340 térawattheures, soit environ 1 à 1,3 % de l’électricité mondiale. Selon l’Agence internationale de l’énergie (AIE), cette demande pourrait plus que doubler d’ici 2030, atteignant près de 945 térawattheures — environ 3 % de la consommation globale. Bien que l’IA contribue à cette croissance, elle n’en constitue qu’une fraction mineure. Et, en termes absolus, ces volumes restent modestes comparés à ceux d’autres secteurs. Les transports motorisés, par exemple, représentent plus d’un tiers des émissions de CO₂eq finales. Quant au secteur résidentiel et tertiaire (chauffage, climatisation et cuisson dans les bâtiments), il y contribue pour environ 15 à 20 %. L’IA pèse également peu dans nos habitudes quotidiennes et elle pourrait même nous aider à économiser de l’énergie en automatisant des tâches chronophages, libérant ainsi du temps et des ressources pour des activités plus efficientes. Pas bête, non ?

Modèles allégés : une révolution économe

J’approfondis

L’article Vers l’IA frugale ! est apparu en premier sur Les Électrons Libres.

Jupiter : un superordinateur pour le climat !

16 septembre 2025 à 04:38

L’Europe lance son premier supercalculateur, l’un des quatre plus puissants au monde, conçu pour créer des « jumeaux numériques » de la Terre.

Jupiter n’est pas qu’une planète. C’est aussi le premier ordinateur géant européen, inauguré vendredi 5 septembre sur le campus du centre de recherche de Jülich, en Allemagne, près de Cologne (Rhénanie-du-Nord-Westphalie). Tout simplement l’un des quatre plus puissants supercalculateurs au monde (sans surprise, les trois autres sont américains). Une « machine » d’une taille démentielle, occupant 3 600 m². Conçu par le groupe français Atos et financé à hauteur de 500 millions d’euros par l’Allemagne et l’Europe, il peut effectuer un quintillion de calculs à la seconde — soit un milliard de milliards — grâce à ses 24 000 puces fournies par Nvidia, dont le quasi-monopole lui permet d’être dans tous les bons coups. Destiné notamment à repositionner notre continent dans l’entraînement des modèles de langage IA (LLM), comme Gemini ou ChatGPT, il offre surtout d’immenses promesses dans la recherche sur le climat.

Son objectif phare est la création de répliques virtuelles de la Terre. Une véritable révolution entrant dans le cadre du Earth Virtualization Engines, un projet d’envergure mondiale initié lors d’un sommet à Berlin, en juillet 2023, réunissant certains des plus grands experts mondiaux en climatologie, technologie et IA.

Ces modélisations doivent permettre de visualiser et d’analyser des phénomènes complexes, comme les impacts des événements météorologiques extrêmes sur l’atmosphère, les sols, les océans et les glaces terrestres, soit les systèmes globaux. L’Institut Max-Planck pour la météorologie est l’un des premiers utilisateurs de Jupiter. En collaboration avec le Centre allemand de calcul climatique et le campus de Jülich, il mène une fascinante expérience de simulation du climat terrestre sur une année entière, en considérant tous ses paramètres. Cela permettra notamment d’étudier la manière dont les tempêtes influencent les systèmes de vents globaux et le cycle du carbone, aidant à évaluer les impacts régionaux du changement climatique.

Ce genre de simulations était jusqu’à présent inimaginable en raison des limites des calculateurs existants. Un immense bond en avant pour la recherche.

L’article Jupiter : un superordinateur pour le climat ! est apparu en premier sur Les Électrons Libres.

Pénurie d’organes : l’espoir des xénogreffes

15 septembre 2025 à 04:58

Six mois sans dialyse grâce à un rein de porc génétiquement modifié.
Les xénogreffes peuvent-elles résoudre la pénurie d’organes ? L’an dernier, en France, plus de 850 personnes sont mortes faute de greffon. 22 500 étaient sur liste d’attente.

L’histoire de la transplantation d’organes est marquée par les rêves, les audaces et les échecs de plusieurs générations de médecins : un corps humain vivant grâce à un organe d’une autre espèce. Aux États-Unis, un patient de 67 ans survit depuis plus de six mois sans dialyse grâce à un rein de porc génétiquement modifié, un exploit qui fascine la communauté médicale. C’est la première fois qu’un greffon porcin fonctionne aussi longtemps chez un humain vivant. L’organe provient d’un animal dont le génome a été profondément modifié : plusieurs gènes responsables du rejet hyperaigu ont été supprimés, d’autres gènes humains ajoutés pour limiter l’inflammation et les complications de coagulation, et les rétrovirus endogènes porcins ont été désactivés pour réduire le risque infectieux. Cette réussite ouvre un espoir pour les milliers de patients en attente d’un rein. Elle marque une étape après de nombreuses tentatives moins fructueuses, mais rappelle aussi les obstacles qu’il reste à surmonter.

Les premiers essais de xénogreffes remontent au début du XXᵉ siècle : en 1906, à Lyon, le chirurgien français Mathieu Jaboulay implante un rein de chèvre puis de porc à deux patientes en insuffisance rénale terminale. Les greffons ne survivent que quelques jours, mais ces interventions sont les premières de leur genre. Dans les années 1960, l’Américain Keith Reemtsma, à l’université de Tulane, greffe des reins de chimpanzé à une dizaine de patients. Une femme, institutrice de 23 ans, survit neuf mois, retourne même travailler pour un temps, avant de décéder soudainement. L’autopsie révèlera que les reins de chimpanzé ne présentaient aucun signe de rejet.

La même époque voit des essais de greffes cardiaques animales : en 1968, le Dr Denton Cooley implante un cœur de mouton chez un homme de 48 ans qui décède en deux heures ; l’année suivante, à Lyon, l’équipe du Pr Pierre Marion tente sans succès un cœur de chimpanzé. En 1984, à l’université de Loma Linda en Californie, un cœur de babouin est greffé à une petite fille connue sous le nom de « Baby Fae », qui survit 21 jours et devient l’icône des xénogreffes et des questions éthiques qui en découlent.
En 1992, le Pr Thomas Starzl, pionnier de la transplantation hépatique, greffe un foie de babouin à un patient en insuffisance terminale ; la survie est de 70 jours, record pour une xénogreffe de foie. Plus récemment, en 2022, l’université du Maryland réalise la première transplantation d’un cœur de porc génétiquement modifié chez un patient en phase terminale : le greffon fonctionne deux mois avant un rejet fulminant. Ces expériences ont permis de mieux comprendre l’immunité, la physiologie et les risques infectieux, mais ont aussi montré combien il reste difficile de parvenir à des greffes durables et sûres.

L’ère des porcs « humanisés »

Aujourd’hui, nous entrons peut-être dans une nouvelle ère. Les porcs « humanisés » utilisés pour la transplantation ne ressemblent plus à ceux de l’époque de Jaboulay : leur ADN est édité pour supprimer les principaux antigènes déclenchant un rejet immédiat et massif (le rejet hyperaigu). D’autres modifications rendent leurs organes plus compatibles avec la physiologie humaine.

Malgré ces avancées, plusieurs défis demeurent. Le rejet par les anticorps reste possible, même après ces corrections génétiques, car le système immunitaire peut encore identifier des différences subtiles. À cela s’ajoutent des incompatibilités physiologiques : un rein de porc ne gère pas exactement la coagulation sanguine comme un rein humain, et il ne produit pas l’urine de la même manière, ce qui complique l’intégration. Un autre enjeu majeur est le risque infectieux. Même si l’élevage sous haute surveillance réduit fortement ce danger, il existe toujours la possibilité de transmission de virus porcins ou de rétrovirus intégrés dans le génome du porc, appelés rétrovirus endogènes. Enfin, les immunosuppresseurs modernes — indispensables pour empêcher le rejet — ont rendu ces essais possibles. Mais leur utilisation prolongée fragilise l’organisme : risque accru d’infections, de cancers, et d’effets toxiques sur différents organes. C’est, encore aujourd’hui, l’une des limites majeures de cette approche.

Des organoïdes à la bio-impression 3D

Les xénogreffes ne sont pas la seule piste pour répondre à la pénurie d’organes. Des chercheurs travaillent par exemple sur les organoïdes rénaux, de petits « mini-reins » cultivés à partir de cellules souches pluripotentes, qui pourraient un jour remplacer une partie d’un rein défaillant. D’autres explorent les matrices acellulaires : on retire toutes les cellules d’un organe animal pour ne conserver que son échafaudage biologique, que l’on recolonise ensuite avec des cellules humaines afin d’obtenir un organe plus compatible. La bio-impression 3D, encore au stade expérimental, vise quant à elle à fabriquer couche par couche des tissus vivants capables de remplir certaines fonctions. Enfin, une autre stratégie cherche à induire une tolérance immunologique : plutôt que de bloquer le rejet à coups de médicaments, il s’agit de « rééduquer » le système immunitaire, en combinant une transplantation d’organe avec une greffe de moelle osseuse pour que l’organisme considère l’organe greffé comme le sien.

Prudence néanmoins : l’exemple récent montre que la xénogreffe peut prolonger une vie de manière encore anecdotique lorsqu’aucune autre option n’est disponible, mais elle n’est pas encore prête à remplacer la greffe humaine standard. L’enjeu est de proposer à chaque patient une solution fiable, sûre et durable et, pour cela, la recherche doit se poursuivre sur plusieurs fronts.

En attendant, la pénurie d’organes continue d’interroger notre solidarité. Huit Français sur dix se déclarent favorables au don après leur mort. Mais, en pratique, l’opposition des proches au moment du décès va souvent à l’encontre de cette volonté.

L’article Pénurie d’organes : l’espoir des xénogreffes est apparu en premier sur Les Électrons Libres.

Le suicide bancaire ottoman

14 septembre 2025 à 04:23

« Il faut faire tomber les banques ». Pour certains, elles sont le cœur pourri de notre système. Mais peut-on s’en passer ? L’Empire ottoman l’a fait, en suivant scrupuleusement la charia. Une politique qui l’a conduit à la ruine, et au pire.

Au XIIᵉ siècle, l’Europe sort lentement du Moyen Âge féodal. Les villes renaissent, le commerce s’épanouit. Grains, épices, soieries, laines, mais aussi pèlerins et croisés, la Méditerranée est au centre des échanges et des quêtes.

En Italie, de grandes familles amassent des fortunes colossales. Peruzzi ou Bardi à Florence, Doria, Spinola ou Médicis à Gênes, pour pouvoir commercer dans plusieurs devises, pour payer les achats et les expéditions, elles deviennent à la fois marchands et créanciers. Elles transportent la laine anglaise, financent les guerres royales, avancent le capital aux artisans florentins.

Leur tâche est compliquée par les pratiques des souverains locaux, qui réduisent chaque année la teneur en or ou en argent de leur monnaie et entretiennent l’inflation. En 1252, leur corporation des changeurs et banquiers, l’Arte del Cambio, crée le florin d’or dans la capitale toscane. Sa solidité en fait la devise de référence, adoptée dans toute l’Europe.

Mais, entre les attaques de pirates, les embuscades de brigands ou l’avidité des potentats locaux, transporter de l’argent reste une affaire périlleuse. Pour l’éviter, on crée la lettre de change : un marchand dépose une somme à Florence auprès d’un banquier contre une lettre qui ordonne à son correspondant de payer la somme à Bruges ou à Londres. Premier instrument de paiement international, c’est l’ancêtre du virement bancaire. Le commerce devient moins risqué et moins cher, ce qui se ressent sur le prix des produits. On invente la comptabilité en partie double, qui révolutionne la gestion, et la commenda, un accord entre deux partenaires, généralement un investisseur et un voyageur, dans le but de réaliser une entreprise commerciale.

Défauts souverains et microcrédit

À la merci d’une mauvaise récolte, écrasés par les taux des petits usuriers, les plus pauvres ne bénéficient pas des nouvelles possibilités bancaires. Pour y remédier, les magistrats de la République de Sienne créent, deux siècles plus tard, en 1472, un Monte di Pietà (mont-de-piété), une institution de prêt sur gage. Bijoux, vaisselle… Les personnes dans le besoin peuvent déposer un objet en gage contre de l’argent, prêté à faible taux. Aujourd’hui, la Banca Monte dei Paschi di Siena est la plus vieille banque en activité.

L’humanité découvre aussi les risques du défaut souverain. Au début du XIVᵉ siècle, la monarchie anglaise veut financer la guerre contre la France, mais son Trésor est vide. Les Peruzzi et les Bardi prêtent des sommes colossales en échange d’un accès privilégié à la laine du royaume, ressource vitale pour l’industrie florentine. En 1340, Édouard III se déclare en défaut de paiement, entraînant la banqueroute des deux familles toscanes et la ruine de milliers d’épargnants. Une crise financière secoue toute la région.

La conquête des Amériques

À la fin du XVe siècle, quand Christophe Colomb appareille, les instruments financiers qui rendent possible le commerce transatlantique sont déjà en place. Les banquiers génois deviennent, avec les Fugger allemands, les financiers principaux de l’Espagne, qui importe des montagnes d’argent de Bolivie et du Mexique… Quand le pays fait à son tour défaut, la finance se tourne vers Amsterdam, où l’on invente la société par actions. Des centaines de petits investisseurs peuvent financer une expédition vers l’Asie ou l’Amérique, en partageant les risques. Londres, Nantes, Bordeaux, Marseille deviennent à leur tour des places financières. Avec l’abolition progressive de la traite, on passe de l’armement des navires négriers à l’investissement dans l’industrie. Le capital accumulé durant trois siècles de commerce entre l’Ancien et le Nouveau Monde alimente la révolution industrielle. Et avec elle, les fondations du monde que nous connaissons aujourd’hui.

Pendant ce temps, de l’autre côté de la Méditerranée…

Au XIIIᵉ siècle, en Anatolie, de petites principautés turques émergent des ruines du sultanat seldjoukide d’Iconium. Parmi elles, celle d’Osman Ier, qui donnera son nom aux Ottomans. En deux siècles, la nouvelle puissance franchit les Dardanelles, s’impose dans les Balkans et prend Constantinople, qu’elle rebaptise Istanbul. Elle atteint son apogée sous Süleyman le Magnifique : Belgrade et la Hongrie tombent, et, d’Oran au Péloponnèse en passant par Jérusalem, la Méditerranée passe sous sa domination. Mais derrière cette force militaire, l’Empire stagne. Tandis que l’Europe se développe, il ne se modernise pas, reste tributaire d’une agriculture archaïque et du transit caravanier.

Article réservé à nos abonnés.

S'abonner dès 5€/mois

ou

Acheter cet article pour 1,50€

1    Sourate 2 (Al-Baqara / La Vache), versets 275 et 279.

L’article Le suicide bancaire ottoman est apparu en premier sur Les Électrons Libres.

En Ukraine, les gardiens du nucléaire tirent la sonnette d’alarme

13 septembre 2025 à 04:33

Depuis deux semaines, la guerre en Ukraine a franchi un nouveau cap. Les activités militaires se sont intensifiées autour des centrales nucléaires. De quoi craindre le pire ?

À Tchernobyl, les experts de l’Agence internationale de l’énergie atomique (AIEA) ont été réveillés le 28 août par des tirs antiaériens visant des drones détectés à cinq kilomètres de la centrale. À Rivne, où se trouve également une installation nucléaire, les survols se multiplient : treize drones ont été signalés en quelques jours, selon le communiqué de l’AIEA du 10 septembre 2025. À Khmelnytskyï, neuf autres appareils ont été repérés à trois kilomètres seulement du réacteur. Et à Zaporijia, les observateurs notent désormais des tirs presque quotidiens.

Le 1er septembre 2025 a marqué un cap symbolique. Trois ans que les équipes de l’AIEA se relaient sans répit en Ukraine. Trois années à vivre au rythme des alarmes, à descendre dans les abris, à inspecter des installations qui ne peuvent jamais être laissées sans surveillance. Une routine devenue extraordinaire : vérifier, témoigner, alerter, pour empêcher que la guerre ne franchisse la ligne rouge.

Rafael Grossi, directeur général de l’AIEA, le répète à chaque mise à jour : presque tous les “sept piliers” de la sûreté nucléaire sont aujourd’hui entravés. L’intégrité physique des installations est menacée par les bombardements. L’indépendance des opérateurs fragilisée par la pression militaire. L’alimentation électrique réduite à une seule ligne externe quand il en faudrait deux. Les chaînes d’approvisionnement ralenties. Et la sérénité du personnel, impossible à garantir sous les sirènes.

À Zaporijia, la plus grande centrale d’Europe, la fragilité est criante. Occupée depuis 2022, elle ne survit que grâce à une ligne électrique unique et à un barrage improvisé qui maintient encore l’eau de son canal de refroidissement. Malgré tout, les ingénieurs continuent d’assurer la maintenance, de tester les systèmes d’urgence, de vérifier les stocks de carburant pour les générateurs. Un travail d’équilibriste, mené au bord du vide.

Ce qui se joue n’est pas qu’ukrainien. Un accident majeur, provoqué par une coupure de courant ou une frappe trop proche, n’aurait pas de frontières. Mais l’histoire dit aussi autre chose. Même au cœur de la guerre, la coopération internationale, la compétence technique et la vigilance obstinée permettent de maintenir la ligne rouge. Tant que ces “gardiens du nucléaire” restent sur place, le fil tient encore.

Et ce fil, l’AIEA le tisse bien au-delà de l’Ukraine. En Iran, les inspections de l’Agence ont été suspendues en juillet 2025. Rafael Grossi plaide aujourd’hui pour leur restauration, qu’il juge indispensable afin de “créer un terrain prometteur” vers de plus larges avancées diplomatiques. D’un front à l’autre, l’Agence incarne une certitude : sans contrôle, la peur s’installe. Avec des yeux et des oreilles sur le terrain, même dans le chaos, une marge de sécurité demeure.

L’article En Ukraine, les gardiens du nucléaire tirent la sonnette d’alarme est apparu en premier sur Les Électrons Libres.

« ChatControl », la perquisition numérique systématique de nos conversations

11 septembre 2025 à 22:16

Demain, l’Europe va-t-elle lire tous vos messages ? C’est le principe de « ChatControl », projet relancé aujourd’hui au nom de la lutte contre la pédocriminalité. Une surveillance de masse qui pourrait mettre fin au secret des correspondances, saturer les services de police et offrir une porte d’entrée aux ingérences étrangères. Alors, tous suspects ?

Depuis quelques années, la Commission européenne planche sur des mesures fortes pour lutter contre la pédocriminalité sur Internet. L’une d’entre elles, partant de bonnes intentions, a été surnommée « ChatControl » par Patrick Breyer, député européen allemand Pirate jusqu’en 2024, qui a été le premier à en dénoncer les dangers. Mise au placard en décembre 2024, sous la présidence hongroise, par une étroite minorité de blocage, la proposition a été relancée par la présidence danoise en ce 2ᵉ semestre 2025.

De quoi s’agit-il ?

ChatControl consiste à obliger légalement les opérateurs de messagerie à scanner l’intégralité de nos échanges privés en ligne, afin d’identifier de potentielles images pédopornographiques.
Les signalements seraient ensuite transmis automatiquement aux autorités de police pour archivage et enquête. Deux procédés sont prévus :

  • détection d’images déjà connues des services de police ;
  • reconnaissance par IA d’images inédites.

Pourquoi c’est un problème ?

Le projet met fin à la confidentialité des échanges. En France, ce principe est garanti par le Code des postes et télécommunications. L’article 8 de la Convention européenne des droits humains consacre également « le droit au respect de la correspondance ».

Cette disposition n’empêche pas les États de placer des citoyens sous surveillance, mais seulement dans des cas précis, sur présomption et sous contrôle judiciaire. ChatControl inverse ce principe : il ne s’agit plus d’écoutes ciblées, mais d’un contrôle généralisé de toute la population. En somme : tous perquisitionnés par principe, parce que tous suspects.

La Commission a fait valoir que personne ne serait obligé de consentir à ce scan massif… à condition de ne pas pouvoir échanger de photos avec ses amis. Il s’agirait donc d’un « consentement forcé ».

Fiabilité contestée

Les procédés de repérage d’images connues présentent de fortes limites. Des études récentes ont montré qu’ils pouvaient être contournés facilement, soit par recompression de l’image ciblée, soit en provoquant la détection incorrecte d’une image ciblée.

Les algorithmes d’IA posent encore plus de problèmes. Même avec une précision théorique de 99,99 % – bien au-delà de leurs performances réelles –, 1 image sur 10 000 serait signalée à tort. À l’échelle des centaines de millions d’images échangées chaque jour, cela noierait la police sous des masses de faux positifs et rendrait le système inopérant. On peut citer le cas d’un père dénoncé à tort pour pédocriminalité par Google après avoir envoyé une photo de son fils à un médecin.

Une faille de sécurité structurelle

Introduire un « mouchard » dans les applications revient à créer un trou dans la confidentialité de bout en bout, multipliant les possibilités d’attaque par des tiers : d’abord dans notre téléphone, ensuite chez l’opérateur de l’application, enfin dans les systèmes de police.

Il ne s’agit pas d’un fantasme : les fuites de données personnelles sensibles, que ce soit dans des entreprises, des administrations ou des services de police, adviennent quotidiennement. Les tiers indiscrets peuvent même être des services de renseignement étrangers qui coopéreraient avec les opérateurs de messagerie de leur pays. Voulons-nous nous mettre à la merci des services russes ou iraniens ?

L’éditeur de l’application Signal, emblématique en matière de protection des communications, a annoncé qu’il se retirerait de l’Union européenne si ChatControl était adopté, jugeant impossible de maintenir son niveau de sécurité tout en respectant les nouvelles obligations.

Enfin, last but not least, les technologies de surveillance voient systématiquement leur périmètre étendu au fil du temps, bien au-delà des prétentions initiales qui ont permis leur adoption. C’est pourquoi protéger le secret de la correspondance doit rester la règle de principe.

Où en est-on ?

Ce 12 septembre, les États doivent faire part à la Commission européenne de leurs positions. Certains ont reculé, comme la Belgique, la Finlande ou la Tchéquie. D’autres restent indécis : Allemagne, Roumanie, Estonie ou Grèce. La France, quant à elle, a – hélas ! – toujours soutenu le projet.

Le projet, s’il est validé par les États, doit ensuite passer au vote le 14 octobre au Parlement européen.


Plus d’informations sur ChatControl :

L’article « ChatControl », la perquisition numérique systématique de nos conversations est apparu en premier sur Les Électrons Libres.

❌