Vue normale

Reçu avant avant-hier

Emploi : la nouvelle jeunesse des séniors !

8 octobre 2025 à 19:41

Des boomers de plus en plus geeks, qui dament le pion aux jeunes sur le marché du travail ? Nous n’en sommes pas encore là. Mais un réel progrès en faveur de l’emploi des seniors dans le tertiaire se confirme, notamment grâce à l’entrée dans cette catégorie des premières générations ayant frayé avec les ordinateurs.

Faire du neuf avec du vieux

Imaginez une génération qui a grandi en découvrant, incrédule, les prémices de l’informatique personnelle. Des quinquas qui, enfants, bavaient devant les publicités pour la première console de jeux offrant la possibilité de se démener, manette en main, face au préhistorique « Pong » ; puis, adolescents, ont vu les cafés commencer à se débarrasser de leurs flippers au profit de jeux d’arcade comme Space Invaders, Asteroids, puis Pac-Man et Tetris. La même qui a appris le CD-ROM, puis les délices de ces ordinateurs dépourvus d’O.S., dont il fallait programmer chaque pixel d’action en Basic, puis en Pascal, tel le Sinclair ZX 81. Et ce avant l’arrivée du fameux Atari 520 ST et du premier Mac, avec leur processeur Motorola cadencé à 7,8 MHz et leur RAM figée à… 128 Ko, pour le second.

Deux révolutions qui ont forgé l’avenir de ces ancêtres du travail face aux écrans, alimenté par la navigation sur les logiciels des années 1980 et 1990, et qui, aujourd’hui, apporte une touche d’expérience unique dans un monde boosté par l’intelligence artificielle. En France comme en Europe, les seniors (55-64 ans) redessinent le paysage du travail, particulièrement dans le secteur tertiaire. Leur maîtrise pionnière des outils numériques et leur savoir-être affûté par des décennies d’expérience en font des acteurs précieux pour les entreprises. Bien plus qu’un simple atout, ils incarnent un pont entre tradition et innovation, contribuant à une économie plus équilibrée face au vieillissement démographique.

En France : une vitalité record et un élan numérique

Même si notre pays reste à la traîne par rapport à nos voisins, l’emploi des seniors atteint des sommets historiques : 60,4 % des 55-64 ans étaient actifs en 2024. Un bond de 2 points en un an et de plus de 12,4 points en dix ans ! Le secteur tertiaire, qui regroupe 70 % de ces travailleurs, est leur terrain de prédilection.

Pourquoi un tel engouement ? Cette génération, née entre 1965 et 1975, s’adapte avec aisance aux technologies modernes, y compris l’IA. Comme le souligne France Travail, « L’expertise de ces salariés, dépositaires des savoirs de l’entreprise, se caractérise par une certaine vision stratégique et une capacité de prise de recul forgées au fil des années. »

Mais ce n’est pas tout. Les réformes des retraites et les incitations fiscales encouragent cette dynamique, tout comme le désir des seniors de transmettre leur expertise. Dans les métiers du conseil, de la formation ou des services numériques, 80 % d’entre eux se disent motivés à partager leur savoir. Et ça fonctionne dans les deux sens : les jeunes forment leurs aînés aux dernières innovations technologiques, tandis que les seconds leur offrent fiabilité et sens de la collaboration. Résultat : 63 % des actifs estiment que ce mélange générationnel booste l’innovation tout en renforçant la cohésion des équipes. Un véritable cercle vertueux.

Europe : aussi des promesses

À l’échelle européenne, les seniors ne sont pas en reste. Avec un taux d’emploi dépassant les 75 % (pour les 55-64 ans), des pays comme la Suède et l’Allemagne sont en tête de peloton. Sans doute l’une des raisons ayant conduit la ministre de l’Économie d’outre-Rhin, Katherina Reiche, à envisager de repousser l’âge de départ à la retraite de ses concitoyens à 70 ans, même si ce sont essentiellement des préoccupations budgétaires qui dictent cette volonté.

Là encore, l’exposition précoce à l’informatique joue un rôle clé. Depuis 2010, le nombre de seniors actifs en Europe est passé de 23,8 millions à près de 40 millions en 2023. Dans des pays comme les Pays-Bas, des programmes de mentorat inversé permettent même aux concernés n’ayant pas immédiatement pris le virage du numérique de partager leur expérience tout en se formant aux outils modernes, compensant ainsi les limites de l’IA par leur intuition et leur recul. Car prompter est essentiellement un art du questionnement, dont l’âge est souvent la clé de la maîtrise.

Une idée confirmée par une large étude publiée par le FMI en avril dernier, qui stipule : « Cela suggère que, pour un niveau d’éducation donné, les travailleurs plus âgés peuvent bénéficier davantage de l’adoption de l’IA que les cohortes plus jeunes, car les premiers sont relativement plus concentrés dans les occupations à forte exposition et forte complémentarité. »

C’était… moins bien avant

Contrairement aux salariés nés entre 1940 et 1950, dont le taux d’emploi jusqu’aux années 2010 stagnait entre 40 % et 45 % en raison d’une exposition limitée à l’informatique et de politiques de préretraites massives, la cohorte actuelle gagne de 15 à 20 points.

Cette génération antérieure, souvent perçue comme réfractaire au numérique, subissait une exclusion structurelle, avec peu d’accès aux outils bureautiques émergents. Une analyse confirmée par David Autor et David Dorn, en 2009, dans l’American Economic Review, montrant que les études pointaient cette révolution comme un obstacle soudain à l’adaptation technologique des plus de 55 ans : un âge se présentant, en France, comme une barrière quasi infranchissable dans la quête d’un nouvel emploi après la perte du précédent.

Aujourd’hui, l’entrée précoce sur le marché durant le boom du PC permet une adaptation plus fluide, transformant les seniors en atouts pour l’IA, où leur vision humaine complète l’automatisation. Surtout, comme le précise aussi l’étude du FMI déjà citée : « Plusieurs caractéristiques des emplois à forte exposition à l’IA correspondent aux préférences des travailleurs plus âgés. Au cours des trois dernières décennies, il y a eu une augmentation générale des emplois adaptés à ces personnes, caractérisés par une activité physique moins exigeante, des niveaux de danger au travail plus faibles et un rythme d’activité modéré […] Ces caractéristiques sont attrayantes pour les travailleurs visés et s’alignent avec les gains positifs de leurs capacités cognitives dans le cadre d’un vieillissement en meilleure santé […], d’autant plus que ces emplois exposés à l’IA offrent généralement des revenus plus élevés. »

Ce shift générationnel réduit les discriminations et valorise l’expérience, avec 90 % des seniors engagés dans le transfert de compétences.

Mais tout n’est pas encore rose. Assez logiquement, seul le secteur tertiaire est touché par cette grâce en faveur des grands aînés. Selon la DARES, dans l’agriculture et le secondaire (industrie, construction), la situation de l’emploi des seniors reste très dégradée en France, avec une stagnation ou une baisse relative des effectifs depuis les années 2010. Une tendance observée dans la plupart des pays de l’OCDE. Les travailleurs âgés y sont sous-représentés en raison de la pénibilité physique accrue et des exigences en mobilité, limitant les embauches à moins de 10 % des postes. Cette disparité persiste en 2024-2025 et s’accompagne, dans tous les secteurs, de la subsistance de freins culturels à l’emploi, malgré l’embellie décrite dans cet article. France Travail note d’ailleurs : « Encore trop peu d’entreprises déploient une culture senior friendly. »

Et demain ?

D’ici 2030, l’emploi des seniors dans le tertiaire pourrait atteindre 75 % en France et 80 % en Europe, porté par l’IA et des formations adaptées. Dans des secteurs comme la cybersécurité ou le conseil digital, leur expérience historique devient un atout pour anticiper les disruptions. Les initiatives gouvernementales, comme la valorisation des salariés expérimentés lancée en 2025, promettent de réduire le chômage senior à moins de 5 %, tout en boostant le PIB de 2 à 3 % grâce à une productivité intergénérationnelle.

À voir, tout de même…
Il n’en demeure pas moins que cette génération, pionnière du numérique, ouvre la voie à une économie où l’expérience et l’innovation se nourrissent mutuellement. En créant des espaces de collaboration, comme des comités mixtes, les entreprises peuvent tirer le meilleur de chaque époque.

Les seniors ne sont pas seulement dans le coup. Ils sont au cœur de la transformation, prêts à façonner un avenir où chacun peut trouver sa place sur le marché de l’emploi.*

(Ce qui arrange votre rédacteur en chef, né en 1968, et ayant l’éternelle nostalgie de ses parties de Pong…)

L’article Emploi : la nouvelle jeunesse des séniors ! est apparu en premier sur Les Électrons Libres.

Le vent de l’IA souffle sur l’Europe

8 octobre 2025 à 04:14

2 milliards d’euros levés en deux mois. Une décacorne française. Des licornes qui éclosent partout. L’Europe, longtemps spectatrice du grand bal numérique américain, s’invite à la table de l’intelligence artificielle. Et si cette fois, on ne ratait pas le coche ?

Soyons honnêtes : l’Europe a en grande partie loupé le train du numérique. Pas de GAFAM européen, pas de suite bureautique, aucun moteur de recherche ni réseau social majeur. Pendant que la Silicon Valley transformait le monde, nous regardions passer les trains. Nos talents partaient s’exiler outre-Atlantique, nos investissements restaient frileux et nos champions se faisaient racheter avant même d’atteindre leur majorité. De quoi constater avec amertume l’existence d’un écart qui pourrait sembler insurmontable pour l’Europe.

Mais voilà qu’une nouvelle course est lancée : celle de l’intelligence artificielle. Et le Vieux Continent a compris qu’il pouvait y participer. Les jeux ne sont pas encore faits. Les positions ne sont pas figées. Et surtout, nos atouts — la qualité de notre recherche, la force de nos ingénieurs — s’affirment. Notre exigence réglementaire, elle, reste un handicap… à moins que l’Europe ne réussisse à l’imposer au monde entier, auquel cas nos start-ups pourraient avoir un coup d’avance.

La France joue ses cartes : Mistral et le pari de la souveraineté

Décembre 2023 : Mistral AI est valorisée 2 milliards d’euros. Septembre 2025 : 11,7 milliards. En moins de deux ans, cette start-up française qui développe ses propres LLM a multiplié sa valeur par six, devenant au passage la première décacorne tricolore. Ce n’est pas juste une histoire de levée de fonds spectaculaire, c’est le symbole que l’Europe peut créer ses propres leaders de l’IA générative.

L’approche de Mistral ? Jouer la carte de la transparence et de l’open source face aux géants américains. Proposer une alternative qui respecte le RGPD plutôt que de le contourner. Faire de la souveraineté des données un atout commercial plutôt qu’une contrainte bureaucratique. Pour les entreprises européennes qui ne veulent pas confier leurs informations sensibles à des serveurs américains ou chinois, c’est une aubaine. Pour les citoyens soucieux de leurs données personnelles, c’est rassurant. Pour l’Europe, c’est stratégique.

Et Mistral n’est pas seule. Hugging Face, cette autre pépite française devenue « le GitHub de l’IA ». Concrètement ? Une plateforme collaborative et open source qui démocratise l’intelligence artificielle en offrant une bibliothèque géante de modèles préentraînés. Au lieu de créer son IA de zéro, n’importe quel développeur peut y piocher des briques prêtes à l’emploi et les adapter à ses besoins. Résultat : 1,3 million de modèles hébergés, un milliard de requêtes par jour, et même Google ou Meta y publient leurs créations. Avec une valorisation de 4,5 milliards de dollars, Hugging Face est devenue une infrastructure incontournable de l’écosystème mondial de l’IA et l’une des rares start-ups du secteur ayant déjà atteint son seuil de rentabilité.

De Londres à Stockholm : l’écosystème prend forme

Le phénomène dépasse largement nos frontières. À Londres, Synthesia révolutionne la production vidéo : des avatars numériques ultra-réalistes qui parlent toutes les langues, sans caméra ni acteur. Résultat ? 60 % des entreprises du Fortune 100 utilisent leur technologie pour leurs communications internes. Valorisation : 2,1 milliards de dollars.

En Suède, Lovable permet à n’importe qui de créer un site web fonctionnel simplement en décrivant ce qu’il veut. Au Royaume-Uni, PhysicsX applique l’IA à la simulation physique pour accélérer l’innovation en ingénierie. En Allemagne, DeepL offre des traductions d’une qualité qui fait rougir les géants américains, tandis que Black Forest Labs a développé FLUX Kontext, l’un des modèles d’édition d’images les plus performants au monde : il suffit de lui dire « change la couleur de la voiture en rouge » pour qu’il modifie précisément cet élément sans toucher au reste de l’image. Sans oublier Wayve, qui enseigne aux voitures à conduire seules dans les rues londoniennes.

Ces start-ups ne sont pas des imitations tardives de modèles américains. Elles explorent des niches, innovent selon des approches différentes et répondent à des besoins spécifiques. Elles construisent un écosystème diversifié où chacun apporte sa pierre à l’édifice global de l’IA européenne.

L’effet boule de neige : quand les licornes engendrent des licornes

Cette dynamique ne sort pas de nulle part. La France compte désormais 30 licornes, contre zéro en 2013. Ce changement quantitatif masque une transformation plus profonde : l’émergence d’une génération d’entrepreneurs et d’investisseurs qui ont appris à gérer des hypercroissances. Les fondateurs de Criteo, Fotolia, Datadog, Zenly, BlaBlaCar ou OVHcloud créent de nouvelles entreprises ou investissent dans la génération suivante. Les ingénieurs qui ont bâti ces succès lancent leurs propres projets.

Comment la Suède finance ses startups (et pourquoi la France échoue)

J’approfondis

Ce cercle vertueux, la Silicon Valley le connaît depuis des décennies. Chez nous, il commence à peine à tourner. Mais il tourne. Les gouvernements européens l’ont compris, et l’UE elle-même change de posture, passant du rôle de régulateur méfiant à celui d’accélérateur volontariste, comme en témoigne l’AI Summit organisé à Paris, il y a peu, réunissant tous les acteurs du secteur.

Les fantômes du passé : pourquoi il ne faut pas gâcher notre chance

Pourtant, le tableau n’est pas sans ombres. Les start-ups européennes brillent en phase d’amorçage et en séries A et B. Mais quand vient le moment de passer à l’échelle, de lever des centaines de millions pour conquérir le monde, l’argent se raréfie. Les fonds américains et asiatiques prennent alors le relais, imposant souvent un déménagement du siège social vers des cieux plus cléments fiscalement. Or, la réalité est têtue : avant 2021, nos entrepreneurs ont créé 46 licornes… mais aux États-Unis. Seulement 18 en France.

La fiscalité sur les capitaux et sur les hauts salaires, pourtant indispensable pour attirer les meilleurs ingénieurs mondiaux, reste parmi les plus élevées du monde. Une situation qui ne pourrait qu’empirer en cas d’instauration de la suicidaire taxe Zucman, agitée sans discernement ces dernières semaines, et qui s’en prend directement au capital des entreprises.

Pendant ce temps, la compétition ne s’arrête pas. La Chine, en État stratège omniprésent, injecte des milliards dans ses pépites nationales, tandis que les États-Unis gardent une avance confortable en capacité de calcul et en capitaux disponibles. Même des pays comme les Émirats arabes unis ou Singapour se positionnent agressivement sur le secteur, tandis que l’Inde, pourtant très dépendante du secteur informatique, semble avoir totalement raté le virage IA.

La croissance de demain se construit aujourd’hui

Alors oui, l’Europe a en partie raté la révolution numérique des années 2000. Mais l’histoire ne se répète jamais à l’identique. Nous avons des start-ups qui maîtrisent les fondamentaux. Un écosystème se met en place, des champions émergent. Tirons les leçons du passé pour les aider à grandir.

Mais attention, il serait tragique de saboter cette dynamique par frilosité fiscale ou rigidité réglementaire. L’enjeu n’est pas seulement économique — même si les emplois qualifiés et les exportations futures se jouent maintenant. Il est aussi stratégique : dans un monde où l’IA va structurer tous les secteurs, de la santé à la défense en passant par l’éducation, ne pas avoir nos propres fleurons, c’est accepter de dépendre entièrement de puissances étrangères.

Le risque de la vertu réglementaire

J’approfondis

Les Européens qui s’inquiètent de la domination américaine sur nos vies numériques devraient être les premiers à soutenir nos start-ups d’IA et nos acteurs du cloud souverain. Ceux qui veulent protéger nos données personnelles devraient applaudir Mistral. Ceux qui rêvent de souveraineté technologique devraient faciliter, pas entraver ni dénigrer, l’essor de notre écosystème.

L’Europe a longtemps été spectatrice. Aujourd’hui, elle est sur scène. À nous de lui donner les moyens de jouer les premiers rôles plutôt que de lui couper les jambes au moment où elle s’élance enfin.

L’article Le vent de l’IA souffle sur l’Europe est apparu en premier sur Les Électrons Libres.

Moustique : sus au tueur né

5 octobre 2025 à 06:04

Paludisme, dengue, chikungunya, Zika… quatre terribles maladies transmises par un même tueur. Grâce aux vaccins, aux biotechnologies ou aux moustiques modifiés, l’humanité peut enfin espérer les éradiquer. Juste à temps, car ce minuscule meurtrier envahit progressivement la France.

Si l’on vous demandait quel est l’animal le plus dangereux pour l’homme, vous penseriez peut-être au requin, au serpent ou au chien. En réalité, l’ennemi public numéro un est minuscule, léger comme une plume et se glisse discrètement dans nos nuits : le moustique.

Derrière son bourdonnement agaçant se cache un tueur de masse. Au cours du dernier siècle, les maladies qu’il transmet — paludisme, dengue, chikungunya, Zika, fièvre jaune — ont causé des dizaines de millions de morts. Aujourd’hui encore, près de 800 000 personnes meurent chaque année après une simple piqûre. C’est deux fois plus que les morts causées… par l’homme lui-même. À chaque lever de soleil, plus de mille familles dans le monde perdent un proche à cause d’un moustique.

Le paludisme : le plus vieux fléau de l’humanité

De toutes ces maladies, le paludisme reste le plus meurtrier. Selon l’OMS, en 2023 on comptait plus de 249 millions de cas dans 85 pays et plus de 600 000 décès, dont près de 80 % d’enfants de moins de cinq ans. Rien qu’en Afrique subsaharienne, toutes les deux minutes, un enfant meurt de cette infection. En Asie du Sud-Est, dans certaines régions d’Amérique latine et en Guyane, le parasite reste endémique, c’est-à-dire qu’il circule en permanence dans la population locale, avec des cas toute l’année ou qui reviennent à chaque saison des pluies, sans jamais disparaître complètement.

Dossier réservé à nos abonnés.

S'abonner dès 5€/mois

ou

Acheter ce dossier pour 1,50€

L’article Moustique : sus au tueur né est apparu en premier sur Les Électrons Libres.

💾

Kessel : un siècle avant la flottille

30 septembre 2025 à 19:08

Un siècle avant la Flottille pour Gaza, Joseph Kessel prenait la mer pour rejoindre la Palestine. Une expédition bien différente, qui nous éclaire sur le conflit actuel… et sur notre société du spectacle.

Avril 1926, Marseille. Joseph Kessel embarque pour Jaffa. Comme souvent, ses voyages sont nés de rencontres avec des êtres charismatiques, Monfreid, Mermoz, Kersten… Ce jour-là, l’homme qui l’accompagne se nomme Chaïm Weizmann. Difficile de trouver deux personnalités plus antagonistes. Kessel, nomade agnostique, étranger à toute ferveur religieuse, indifférent aux appels du patriotisme comme aux élans des causes collectives, est à mille lieues de l’ardeur qui étreint le futur premier chef de l’État d’Israël. Mais celui qui fait sienne la devise de Péguy, « Dire bêtement la vérité bête, ennuyeusement la vérité ennuyeuse, tristement la vérité triste », veut voir, et raconter.

Une terre d’espoir et de feu

Contrairement à la flottille d’aujourd’hui, il ne s’attarde pas sur sa traversée de la Méditerranée. L’important n’est pas le voyage, mais la destination. La « mer de la civilisation » s’échoue sur une terre âpre, où le feu du soleil brûle les visages et les terres, où la malaria décime les familles. Même l’eau enflamme les chairs.

Depuis 1920, la Palestine est sous mandat britannique. Une conséquence de l’effondrement de l’Empire ottoman et de sa défaite lors de la Première Guerre mondiale. Son territoire correspondant grosso modo aux actuelles terres d’Israël, de la Cisjordanie et de Gaza. Elle compte alors environ 600 000 Arabes et un peu plus de 150 000 Juifs. La majorité de ces derniers sont des immigrants arrivés depuis la fin du XIXᵉ siècle de Russie, de Pologne ou d’Ukraine, venus se mêler aux communautés juives autochtones présentes sur place de longue date. Les premiers sionistes, les Amants de Sion, s’étaient embarqués à la suite d’émeutes antijuives en Russie. D’autres les ont rejoints après guerre, soupçonnés d’avoir pris part à la révolution d’Octobre et pourchassés par les armées blanches, nationalistes et cosaques. Peu de temps avant que les bolcheviques, à leur tour, ne s’en prennent à eux, voyant dans le sionisme une entreprise capitaliste, bourgeoise et nationaliste. Car ce nouveau sionisme, théorisé à la fin du XIXᵉ siècle par Theodor Herzl, propose pour la première fois la création d’un foyer national pour le peuple juif, en réponse aux persécutions.

Kessel arrive dans un pays qui semble s’ébrouer après plusieurs siècles d’une vie immuable. Les fellahs, petits paysans arabes accablés de labeur et d’impôts dans un système féodal, voient les plaines se couvrir de cultures, les villes s’élever et une nouvelle liberté poindre… qui va bientôt inquiéter leurs maîtres.

Une langue, mille rêves

Comme toujours, Kessel s’intéresse davantage aux êtres qu’à la politique. Des kvoutza, ces ancêtres du kibboutz, aux communautés orthodoxes, il découvre autant de projets sionistes qu’il y a de rêves individuels. L’individu, pourtant, s’efface derrière cette espérance collectiviste qu’il a conçue en songe.

Au cœur de la vallée de Jezreel, les jeunes idéalistes socialistes qu’il rencontre ne se mettent pas en scène, ne fantasment pas leur bravoure ni l’importance de leur rôle. Non, ils sacrifient leur héritage bourgeois et leurs mains délicates pour le rude travail de la terre, creusant, récurant, construisant de l’aube au coucher du soleil. Leur sueur a transformé un inculte marécage en promesse d’abondance.

À Bnei Brak, la colonie hassidim défie la chaleur écrasante dans ses habits de ténèbres, construit des temples avant même d’avoir garanti son souper ou sécurisé ses bicoques branlantes. Aujourd’hui encore, Bnei Brak abrite le quartier le plus pauvre d’Israël, et vote à 90 % pour les ultra-orthodoxes.

À Kfar-Yeladim, Kessel découvre stupéfait une communauté d’enfants qui vit en quasi autonomie. Guidés par le pédagogue Pougatchev, ils inventent leur constitution, leur tribunal, leur système électoral et leur presse. Ils tentent de construire une société nouvelle, pour refermer la plaie ouverte par le massacre de leurs géniteurs.

Comme nulle part ailleurs, cette promesse se construit dans un chantier permanent, qui s’oppose en tout point au charme pittoresque des cités arabes patinées par les siècles. Elle porte un nom : Tel-Aviv. Un antagonisme qui illustre si bien le dilemme du progrès. Aucune nouveauté, aucune invention ne peut procurer la douceur réconfortante d’un marché, d’une échoppe ou d’un geste ancestral. Mais que vaut ce réconfort immémorial face à la malaria, à la misère du non-développement, au joug des traditions ? C’est ce carcan qui, précisément, a poussé à fonder la cité. À Jaffa, les autochtones prenaient les visages découverts des nouvelles arrivantes pour une invitation. Tel-Aviv est « née du baiser des arabes ».

De l’entrepreneur fortuné au religieux démuni ou au jeune socialiste, les aspirations sont si diverses que seule la langue peut les réunir. « Un peuple peut exister sans gouvernement choisi, sans institutions, et même sans terre qui lui appartienne. Mais s’il ne possède pas de langue qui lui soit propre, c’est un peuple mort » écrit Kessel. En Palestine, c’est la résurrection d’une langue morte qui fait naître un peuple.

Nouvelles richesses, vieilles servitudes

Depuis l’époque ottomane, les effendis sont les véritables maîtres de la société palestinienne. Propriétaires fonciers, ils accablent d’impôts les misérables fellahs qui travaillent leurs terres pour des salaires de famine. À l’arrivée des migrants, ces potentats locaux saisissent l’aubaine et leur cèdent des parcelles à prix d’or, au mépris des fellahs qui perdent leur unique moyen de subsistance.

S’ils ne sont pas acceptés dans les communautés orthodoxes ni dans les kvoutza socialistes, nombreux trouvent des emplois chez des fermiers ou des entrepreneurs juifs. À leur grande surprise, ils découvrent des ouvriers payés aux prix européens, des hommes travaillant aux champs et réclamant aisément leur dû. « Des formules étranges de liberté, d’égalité étaient dans l’air », remarque Kessel. Les effendis sentirent la colère monter chez leurs anciens vassaux.

Mais il leur restait l’influence que confère une longue domination. Ils les persuadèrent que les nouveaux venus allaient tout leur enlever et qu’il fallait les exterminer avant qu’ils ne fussent en force. La propagande réussit. 

Terreur et développement 

Le 4 avril 1920, 70 000 personnes se rassemblent à Jérusalem. Depuis l’hôtel de ville, le maire Moussa Qazem al-Husseini presse la foule de donner son sang pour la cause. Aref al-Aref, l’éditeur du Journal Suriya al-Janubia, harangue depuis son cheval : « Si nous n’utilisons pas la force contre les sionistes et contre les Juifs, nous n’en viendrons jamais à bout ! ». On lui répond en scandant « Indépendance ! Indépendance ! » Durant quatre jours, des combats éclatent. Malgré leur infériorité numérique, les colons résistent avec l’appui des soldats britanniques. 

Ces émeutes sont la première manifestation majeure de violence entre les communautés arabe et juive de Palestine dans le contexte du conflit qui les oppose encore aujourd’hui. Elles poussent les Juifs à développer leur propre organisation de défense, la Haganah, ancêtre du noyau de l’armée israélienne : Tsahal.

Quand Kessel débarque en terre palestinienne quelques années plus tard, il sent un revirement. La dynamique de croissance qu’engendre l’immigration juive semble faire des émules. Il voit des terres sans avenir se couvrir de cultures, les grandes agglomérations devenir des centres de commerce de plus en plus florissants. Alors que le pays « nourrissait difficilement quelques centaines de milliers d’hommes » rappelle-t-il, s’ouvre la perspective d’en faire vivre des millions. Ce que, opprimés par le joug féodal de leurs maîtres, les fellahs n’ont pu faire en quatre siècles.

Le développement plutôt que l’affrontement ? En 2020 une étude indiquait que 86 % des Gazaouis se disaient plus intéressés par la croissance économique et les réformes politiques que par la politique étrangère. 7 sur 10 souhaitaient être gouvernés par l’Autorité palestinienne plutôt que par le Hamas. Organisation que les habitants des pays arabes rejetent massivement, comme le Hezbollah. Et tandis que le gouvernement Netanyahou menace d’annexer la Cisjordanie et d’occuper Gaza, près des trois quarts des Israéliens soutiennent, ou ne s’opposent pas à un accord incluant la reconnaissance d’un État de Palestine.

Kessel allait pour voir, pour sentir et pour raconter. Aujourd’hui, on va pour se montrer. Quitte à être les idiots utiles de déplorables maîtres.

L’article Kessel : un siècle avant la flottille est apparu en premier sur Les Électrons Libres.

Nucléariser le monde !

29 septembre 2025 à 04:36

En finir avec la grande pauvreté ? Réduire d’un tiers nos émissions de CO2 ? Le tout pour seulement 0,5 % de notre PIB ? C’est possible, en nucléarisant la planète. Plongée dans le « Projet Messmer 2.0 ».

Voici une vérité qui dérange : la pauvreté n’est pas un problème parmi d’autres. C’est le problème fondamental de l’humanité, celui qui condamne des milliards d’êtres humains à une existence précaire, marquée par la maladie, l’ignorance et la mort prématurée. Et au cœur de cette pauvreté se trouve un dénominateur commun, simple et implacable : l’absence d’accès à une énergie abordable et fiable.

Près de 3,7 milliards de personnes — environ 47% de la population mondiale — vivent dans ce qu’on peut appeler le « monde débranché », où la consommation électrique annuelle par habitant est inférieure à 1 200 kWh. Un précédent papier mettait déjà en valeur cette comparaison frappante : c’est à peine plus que la consommation annuelle d’un réfrigérateur américain standard. Pendant qu’un Français moyen consomme 7 000 kWh par an et un Américain plus de 12 000, des pays comme le Pakistan, l’Indonésie et l’Inde — qui abritent ensemble 1,9 milliard de personnes — restent dramatiquement sous-électrifiés.

Cette pauvreté énergétique n’est pas qu’une statistique abstraite. Elle se traduit par des drames humains quotidiens d’une effrayante ampleur. Selon l’Institute for Health Metrics and Evaluation, plus de 3 millions de personnes meurent prématurément chaque année à cause de la pollution de l’air intérieur liée à l’utilisation de combustibles solides pour cuisiner. Plus de 50% des décès d’enfants de moins de 5 ans sont dus à des pneumonies causées par l’inhalation de particules fines provenant de la pollution domestique.

Environ 40% de la population mondiale dépend encore principalement de la combustion de biomasse — bois, bouses séchées, résidus agricoles — pour leurs besoins énergétiques. Cette réalité condamne des milliards de personnes, principalement des femmes et des enfants, à passer des heures chaque jour à chercher du combustible, à le transporter sur des kilomètres, puis à respirer sa fumée toxique. Ces heures perdues sont autant d’heures volées à l’éducation, au travail productif, au développement personnel. C’est un révoltant gâchis humain.

Le double impératif : climat ET prospérité

La corrélation entre consommation énergétique et développement humain n’est pas une simple coïncidence statistique — c’est une loi de fer du progrès humain. Une règle empirique approximative pour les économies en développement est que chaque kWh par habitant consommé vaut environ 5 dollars de PIB par personne. Ce lien s’observe dans tous les indicateurs de bien-être : espérance de vie, mortalité infantile, éducation, accès à l’eau potable.

Voici la réalité brutale que certains refusent d’admettre. Nous ne résoudrons pas le réchauffement climatique en condamnant des milliards d’êtres humains à rester dans la pauvreté. Ce serait moralement intolérable et, de toute façon, politiquement impossible. La transition énergétique à l’échelle mondiale doit s’accompagner d’une élévation généralisée du niveau de vie, donc d’une augmentation massive de la production d’énergie mondiale. Le nécessaire et urgent combat pour limiter le réchauffement climatique ne doit pas nous faire oublier que le pire ennemi de l’humanité est la pauvreté elle-même.

En 2023, la production mondiale d’électricité a atteint un niveau record de 29 471 TWh. Malgré les progrès significatifs, le mix électrique reste dominé par les combustibles fossiles carbonés qui représentent encore 61% du total Le charbon constitue la plus grande source unique avec 35% (10 434 TWh), suivi du gaz naturel à 23% (6 634 TWh). Les sources d’énergie propre ne représentent que 39% du total : l’hydroélectricité fournit 14% (4 210 TWh), le nucléaire 9,1% (2 686 TWh), et l’éolien et le solaire combinés 13,4% (3 935 TWh). 

Face au défi climatique, tous les investissements ne se valent pas. Il est indispensable d’agir de manière rationnelle et d’investir dans des programmes ayant le coût par tonne de CO₂ évitée le plus faible possible. C’est précisément l’ambition de cette analyse.

Répondre à la demande et éradiquer la pauvreté énergétique d’ici 2050

Pour 2050, l’Agence Internationale de l’Énergie (AIE) projette dans son scénario des Engagements Annoncés (APS) que la demande électrique mondiale augmentera de 120% par rapport à 2023, atteignant environ 65 000 TWh. Cette croissance est portée par l’électrification des transports, du chauffage, et par de nouvelles industries comme les centres de données et l’IA.

Pour éradiquer la pauvreté énergétique dans le monde, il est nécessaire de s’assurer qu’aucun pays ne reste sous le seuil de 1 500 kWh par personne et par an. Y conduire en 2050 les 666 millions de personnes encore sous ce seuil nécessiterait environ 2 000 TWh supplémentaires de production électrique annuelle.

La demande totale projetée pour un monde prospère et équitable en 2050 est donc de 67 000 TWh (65 000 + 2 000). Appliquons maintenant le modèle français de mix électrique bas-carbone avec une cible de 70% de nucléaire. Il faudrait alors produire 46 900 TWh d’électricité nucléaire par an — plus de 17 fois la production nucléaire mondiale actuelle (2 686 TWh).

Avec un facteur de capacité de 90%, tel qu’on l’observe aujourd’hui dans les meilleurs parcs nucléaires comme celui des États-Unis, cela se traduit par un besoin d’environ 5 950 GW de capacité nucléaire installée. En termes concrets ? Ce serait l’équivalent d’environ 5 000 nouveaux grands réacteurs nucléaires d’ici 2050.

Quel serait le coût de cet immense programme nucléaire à l’échelle mondiale ? En tirant les leçons des meilleurs exemples du passé que sont la Corée du Sud et le plan Messmer français (1974-1986), le nucléaire peut atteindre un coût de 2 000 $/kW. Pour construire les 5 950 GW de capacité nucléaire nécessaires d’ici 2050 la facture s’élèverait alors à 11 900 milliards de dollars.Ce chiffre peut sembler vertigineux, mettons-le donc en perspective. Répartis sur 2 décennies (2030–2050), les 11 900 milliards de dollars représentent en moyenne environ 600 milliards par an, soit moins de 0,5 % du PIB annuel mondial attendu sur cette période, alors même que celui-ci devrait plus que doubler pour dépasser 200 000 milliards de dollars en 2050. C’est un effort du même ordre de grandeur que les flux d’investissements déjà engagés dans les énergies renouvelables chaque année. Loin d’être un fardeau insoutenable, un tel programme constituerait un investissement clé pour garantir une électricité à la fois abondante et propre, ainsi que la fin de la pauvreté énergétique dans le monde.

Le nucléaire est-il trop long à construire ou trop cher ?

J’approfondis

Chute des émissions de CO₂  mondiales à coût record

L’impact climatique d’un tel projet Messmer 2.0 serait titanesque. Nos calculs révèlent que ce programme électronucléaire massif éviterait :

  • 20,4 gigatonnes (Gt) de CO₂ par an comparé à un scénario 2050 maintenant le mix électrique actuel avec 60% de sources fossiles — soit l’équivalent de 35,7% des émissions mondiales totales actuelles de gaz à effet de serre
  • 12,8 Gt de CO₂ par an comparé à un investissement équivalent de 11 900 milliards de dollars dans les énergies renouvelables — et ce malgré les baisses spectaculaires des coûts de ces technologies sur les 3 dernières décennies

Il est possible que ces chiffres soient sous-estimés. La projection de 67 000 TWh pour 2050 intègre en effet l’électrification massive des transports et le déploiement généralisé de pompes à chaleur réversibles pour la régulation thermique des bâtiments. L’impact réel sur les émissions de CO₂ totales serait donc encore supérieur de ce point de vue là.

Sur la base d’une durée de vie opérationnelle conservatrice de 60 ans (certaines centrales nucléaires américaines ayant déjà obtenu l’autorisation d’opérer 80 ans), le coût d’abattement atteint :

  • 9,7 $/tonne de CO₂ évitée comparé au scénario fossile (60%)
  • 15,5 $/tonne de CO₂ évitée comparé au scénario renouvelable équivalent

Même en doublant ou triplant ces estimations pour tenir compte d’éventuels biais optimistes, le programme nucléaire demeurerait exceptionnellement efficace.

Des milliers de centrales nucléaires flottantes pour un avenir radieux

J’approfondis

Mettons ces chiffres en perspective : les sources universitaires et industrielles estiment que le coût effectif de l’Energiewende allemande a atteint 90-100 €/tCO₂ pour l’éolien et plus de 500 €/tCO₂ pour le PV solaire. Les programmes allemands de rénovation de bâtiments aux normes d’efficacité les plus élevées peuvent atteindre un coût d’abattement de plus de 900 €/tCO₂.

Cette révolution nucléaire n’exclut pas des investissements dans d’autres énergies prometteuses. Pour compléter les 70% de nucléaire dans notre vision 2050, misons sur les énergies propres avec les meilleurs coûts d’abattement. Privilégions en particulier le solaire photovoltaïque dont les prix sont en chute libre, ou encore la géothermie dont les progrès pourraient nous permettre de tirer de l’énergie en grande quantité toujours plus loin sous terre. L’objectif ? Fermer autant que possible le robinet des énergies fossiles.

En fin de compte, face à nous se dresse un triple défi d’une urgence absolue pour les décennies à venir : limiter le réchauffement climatique à 1,5°C, alimenter la croissance des économies modernes qui consomment toujours plus d’électricité, et arracher enfin des milliards d’êtres humains au piège mortel de la pauvreté énergétique. Ces 3 impératifs ne sont pas négociables — ils doivent être réalisés simultanément. Un monde qui combat le climat en condamnant les pauvres à leur misère échouera sur les 2 fronts. Un monde qui priorise la croissance économique sans décarboner massivement condamne ses propres fondations.

L’expansion nucléaire massive que nous proposons est la stratégie qui semble la plus efficace pour relever ce triple défi. Elle seule peut décarboner à la vitesse et l’échelle requises tout en fournissant l’énergie abondante et fiable qu’exigent à la fois les économies avancées et les milliards d’humains qui aspirent légitimement à un niveau de vie décent. Ce qui fait défaut, c’est la volonté de traiter cette crise avec l’urgence et l’ambition qu’elle mérite, et en s’inspirant des succès du passé. Chaque jour d’inaction est un jour de plus où des millions meurent dans la fumée intérieure ou la pollution extérieure, où le climat se réchauffe, où des économies entières stagnent faute d’énergie abondante.

L’article Nucléariser le monde ! est apparu en premier sur Les Électrons Libres.

Christian ou les apaisements de la terre

26 septembre 2025 à 04:01

Ancien carrossier devenu agriculteur par amour et par envie de changer d’air, Christian gère aujourd’hui seul 120 hectares de céréales dans le Tarn. Entre météo capricieuse, concurrence étrangère et contraintes grandissantes, ses journées s’étirent de l’aube à la nuit tombée. Portrait d’un homme attachant qui creuse son sillon loin des projecteurs.

Du garage aux champs : un parcours inattendu

À première vue, rien ne destinait Christian à devenir agriculteur. Né à Castres, il avait choisi très tôt la mécanique, en apprentissage. Carrossier de formation, il a passé dix ans à travailler dans des garages Renault et Peugeot, le bleu de travail taché de cambouis plutôt que de terre. Jusqu’à ce que la vie décide autrement. À 26 ans, il reprend l’exploitation de ses beaux-parents. Un choix d’amour autant que de nécessité : sa femme est fille d’agriculteurs, mais ni elle — qui avait vu ses parents ployer sous les contraintes sans jamais prendre de vacances — ni son frère, handicapé, ne pouvaient reprendre. Et sans repreneur, la ferme familiale risquait de disparaître… Christian s’inscrit alors à une formation pour adultes d’un an, avant d’apprendre patiemment le métier auprès de son beau-père. Pendant dix ans, jusqu’à la retraite de ce dernier, il s’initie aux cycles des saisons, aux subtilités des sols argileux, à la compréhension des besoins des cultures. « Dix ans, ça peut paraître long mais c’est bien le temps qu’il faut pour apprendre le métier quand on ne vient pas d’une famille d’agriculteurs », sourit-il aujourd’hui.

La ferme qu’il reprend n’a plus grand-chose à voir avec celle d’autrefois. Ses beaux-parents faisaient vivre trois générations sur cinquante hectares, en quasi-autosuffisance, avec une trentaine de vaches laitières qui assuraient à la fois le revenu et le fumier pour fertiliser les cultures fourragères. Les investissements nécessaires pour maintenir l’élevage étant devenus trop lourds, l’exploitation a basculé vers les céréales. Pour survivre, Christian a dû agrandir, mécaniser et travailler seul. Lui qui n’était pas tombé dedans quand il était petit s’est accroché, parfaisant son apprentissage avec humilité. Aujourd’hui encore, il conserve le regard neuf d’un homme qui n’a pas reçu la terre en héritage, mais qui l’a choisie par engagement. « Dans ce milieu parfois conservateur, avoir cet œil neuf me permet de me remettre en cause et de faire évoluer en permanence mes pratiques », confie-t-il.

Seul avec 120 hectares

Christian cultive, à lui tout seul, l’équivalent de 170 terrains de foot. Une surface déjà conséquente, dans ces paysages vallonnés du Tarn, mais loin des grandes exploitations de la Beauce ou des plaines d’Europe de l’Est. En pleine saison, ses journées commencent à sept heures du matin et se terminent à vingt-trois heures, parfois plus tard. Son dernier tracteur, qu’il renouvelle environ tous les dix ans, lui permet de bloquer direction et pédales, ce qui limite un peu la fatigue, mais on reste loin du niveau d’automatisation accessible sur des parcelles plus grandes et moins morcelées. L’hiver, il ne chôme pas davantage : la terre se repose, pas l’agriculteur. En homme à tout faire, Christian passe alors ses journées à entretenir, réparer, maçonner. Et il lui faut encore trouver du temps pour la « paperasse », omniprésente, ou pour se former.

Derrière cette cadence se cache un équilibre financier fragile. Le chiffre d’affaires de son exploitation, tributaire de la météo et des cours mondiaux, oscille entre 120 000 et 150 000 euros, dont environ 26 000 proviennent de la PAC. Mais les charges engloutissent presque tout : près de 30 000 euros d’engrais et de phytos, 12 000 pour le remboursement du tracteur, 8 000 de cotisations sociales, sans compter les semences et l’entretien courant. Au final, Christian dégage entre 2 500 et 2 800 euros nets par mois. Un revenu correct en apparence, mais bien moins flatteur quand on le ramène au temps passé : « à peu près six euros de l’heure », calcule-t-il. Et il revient de loin, car son revenu est longtemps resté en dessous de 1 800 euros, quand il avait encore le foncier à rembourser.

Christian n’a pas eu vraiment le choix. Pour faire vivre leur famille de quatre, sa femme travaille à l’extérieur, à la mairie, tandis que lui serre les coûts au plus juste et cherche des revenus complémentaires aux seules céréales. L’ail rose en fait partie. Une culture exigeante, presque entièrement manuelle, mais qui apporte une vraie valeur ajoutée. Elle représente à elle seule près de 27 000 euros dans son revenu annuel.

À cette équation déjà serrée s’ajoute la pression du marché mondial. L’Espagne est son principal débouché, mais il subit la concurrence des blés ukrainiens et russes, produits à grande échelle à des coûts bien moindres et écoulés massivement en Méditerranée. Pour s’adapter, Christian a investi très tôt dans des silos qu’il a construits lui-même. Cela lui permet de stocker, d’attendre le bon moment et de jouer sur les cours. Une stratégie de survie, bien différente de celle de son beau-père, qui vendait directement le surplus à la coopérative. « Je ne suis pas un trader, car je vends ce que je produis. Mais suivre les cours et répondre aux appels d’offres, c’est une charge supplémentaire », sourit-il.

Le blé de la mer noire, toujours conquérant

J’approfondis

La terre sous contraintes

Les difficultés du métier ne sont pas seulement matérielles ou économiques. Elles sont aussi réglementaires. Christian en est bien conscient : on ne peut pas faire n’importe quoi, et la traçabilité des produits reste essentielle. L’administratif, au fond, ne lui prend pas tant de temps relativement aux journées interminables des périodes de pointe. Mais la charge mentale, elle, est bien réelle, d’autant que les normes changent presque chaque année. « On ne fait pas ce travail pour ça », lâche-t-il. Lui s’en sort, mais il sait que ce n’est pas forcément le cas de tous ses collègues.

Mais les réglementations ne se limitent pas aux formulaires. Nitrates, haies, couverts végétaux… Elles évoluent en permanence et obligent à revoir les pratiques. Dans l’exploitation de Christian, les sols sont argileux et classés vulnérables. Sensibles à l’érosion, ils forment des croûtes qui empêchent l’eau de s’infiltrer et laissent filer plus facilement les nitrates vers les cours d’eau. Christian doit donc implanter des couverts végétaux entre deux cultures. Il en reconnaît l’intérêt. Ils piègent les nitrates et enrichissent le sol. Mais la médaille a son revers. C’est du travail supplémentaire, des semences à acheter, du gasoil à brûler… et tout cela sans aucune rémunération ni contrepartie.

C’est ce qu’il regrette le plus. Beaucoup d’obligations, peu d’incitations. L’impression de travailler davantage… gratuitement. Comment encourager réellement à se convertir aux bonnes pratiques ? Christian n’a pas de solution miracle. Il sait seulement que les aides existantes devraient être mieux fléchées vers les solutions réellement vertueuses.

Et les difficultés ne sont pas seulement dues aux réglementations venues d’en haut. À ses yeux, le manque de reconnaissance sociale pèse tout autant. Produire de la nourriture, respecter les règles, faire des efforts… et en retour ? Trop souvent, du mépris. L’agribashing, pour lui, n’est pas un slogan mais une réalité. Des automobilistes qui klaxonnent derrière lui, une bouteille jetée sur son tracteur, des regards hostiles quand il traite ses cultures. « C’est dur à supporter », admet-il. Alors il a trouvé une solution : pulvériser de nuit. Comme ça, il ne dérange personne. Et tant pis s’il doit rentrer plus tard. Sauf que, ajoute-t-il dans un soupir, « quand les gens me voient épandre la nuit, ils en concluent que mes produits doivent être particulièrement dangereux ». Un cercle vicieux.

Malgré tout, Christian abat le travail sans broncher. Les manifs, il les comprend, mais ne s’y reconnaît pas vraiment. Sauf peut-être sur un point : le Mercosur. Là, il avoue ses inquiétudes. La concurrence étrangère fait déjà partie de son quotidien ; alors importer encore plus de produits qui ne respectent pas les mêmes normes que lui lui paraît tout simplement injuste. Sans surprise, il n’est pas syndiqué. Il observe d’un œil indifférent les batailles d’influence entre organisations agricoles. Son credo : travailler dur et assurer sa subsistance par lui-même plutôt que d’attendre quoi que ce soit de la politique.

Faire mieux avec moins

Foin des postures, Christian préfère avancer. Il a réduit ses intrants bien avant que la réglementation ne l’y oblige, diminuant les quantités de 30 à 50 %. « Pour l’environnement, ça compte, et aussi parce que ça coûte une fortune », dit-il. Pour progresser, il s’appuie sur un ingénieur agronome indépendant, mais se méfie des coopératives : « Ils veulent surtout vendre leurs produits, alors les doses sont souvent un peu gonflées. » Malgré ses efforts, il a le sentiment d’avoir atteint un plancher. Descendre encore lui paraît impossible.

Il s’efforce aussi de réduire le travail du sol, ce qui l’oblige à recourir davantage aux herbicides. Les résistances, notamment du ray-grass, l’empêchent de baisser les doses. Il implante des couverts intermédiaires et pratique les rotations comme tout le monde. Pour les allonger vraiment, il faudrait introduire des légumineuses, mais les filières sont quasi inexistantes. « En protéines végétales, les industriels préfèrent importer du tourteau de soja brésilien », regrette-t-il.

Les carences en protéines de l’agriculture française

J’approfondis

Côté fertilisation, Christian reste aux engrais de synthèse. Les effluents d’élevage seraient un atout, mais les éleveurs les gardent pour eux. Quant à l’irrigation — sujet sensible dans une région marquée par les violentes contestations du barrage de Sivens durant lesquelles le jeune Rémi Fraisse est mort en 2014 — il n’en a besoin que pour son maïs semence, grâce à une petite retenue collinaire permise par les sols argileux et vallonnés. Ici, pas de mégabassines, mais il sait que la situation est différente ailleurs. Supprimer l’irrigation ? Chez lui, ce serait jouable, sauf pour le maïs, justement. Dans le Sud-Ouest, en revanche, sur des sols sablonneux incapables de retenir l’eau, il n’imagine pas comment ses collègues pourraient s’en passer.

Et après ?

Christian ne manifeste pas, ne brandit pas de pancarte. Mais il a un message clair : qu’on cesse d’empiler les contraintes et qu’on reconnaisse enfin les efforts de tous ceux qui, comme lui, s’efforcent de produire mieux avec moins. Valoriser plutôt que punir, encourager plutôt qu’imposer. « On nous aime huit jours par an, pendant le Salon de l’Agriculture », sourit-il, avant d’ajouter qu’il attend surtout moins d’effets de manche, moins de promesses vite envolées à chaque crise, et plus d’écoute du terrain.

Reste une question plus large, qui dépasse son seul cas : ce modèle agricole, celui de l’exploitant seul face à 120 hectares, est-il viable à terme ? N’est-il pas condamné par sa vulnérabilité, quand tout repose sur les épaules d’une seule personne, et par l’impossibilité d’investir suffisamment pour suivre les évolutions technologiques ? Comment tenir face à la concurrence mondiale sans agriculture de précision, sans drones, sans outils satellitaires, pour augmenter les rendements et diminuer les intrants ?

Les deux enfants de Christian s’orientent vers d’autres voies. Comme ses beaux-parents avant lui, il pourrait se retrouver face au vide de la succession. « Je n’y pense pas trop, jusqu’à ma retraite ça ira. Mais il faudra bien un jour que les céréaliers du Tarn remettent en cause leurs convictions et apprennent à s’associer », conclut-il. Car il faudra bien grandir pour être à même d’investir et d’innover. Loin du mythe de la paysannerie et de la petite exploitation.

L’article Christian ou les apaisements de la terre est apparu en premier sur Les Électrons Libres.

Les PFAS, des polluants moins « éternels »

22 septembre 2025 à 04:29

Êtes-vous en danger à cause des boîtes à pizza ou des pailles en papier ?
Dans le collimateur de l’Europe et de la France, les PFAS, dits « polluants éternels », sont partout, ou presque. Quels sont vraiment les risques ? Et quelles solutions pour demain ?

Les PFAS constituent une vaste famille de composés synthétiques – entre 4 000 et 10 000 molécules distinctes – caractérisée par une extrême stabilité chimique. Cette persistance, qui peut atteindre plusieurs centaines d’années pour certains composés, s’explique par la solidité de la liaison carbone-fluor qui les caractérise, l’une des plus fortes en chimie organique, capable de résister aux rayonnements UV et aux conditions naturelles. Cette architecture crée une liaison très stable, qui confère aux PFAS de nombreux atouts. Ils présentent une grande stabilité dans le temps, un fort pouvoir antiadhérent, une excellente résistance à la chaleur et aux produits chimiques, et une rare capacité à repousser l’eau comme les graisses. Ce rôle transversal explique leur succès… et la difficulté de s’en passer trop brutalement.

Hélas, ils se dispersent facilement dans l’air, les sols et les eaux, ce qui accroît leur potentiel de contamination. Logique, puisque leur caractère bioaccumulable favorise leur concentration dans les écosystèmes et leur transfert dans la chaîne alimentaire.

À titre d’exemple, les PFAS utilisés comme agents d’imperméabilisation ou antitaches pour les textiles sont progressivement libérés lors des lavages et rejoignent les eaux usées. Ils peuvent également exposer l’utilisateur par contact cutané. Les emballages alimentaires constituent une autre source d’exposition. De nombreux produits en papier/carton, tels que les boîtes à pizza, les pailles en papier ou certains contenants jetables, peuvent être traités aux PFAS afin de résister à l’eau, aux graisses et à la chaleur. Cette utilisation favorise leur migration vers les aliments, en particulier lorsque ceux-ci sont chauds ou gras, ce qui entraîne une exposition du consommateur.

Dans le cas des PFAS utilisés pour fabriquer des matériaux polymères, comme le Téflon, la dispersion dans l’environnement se produit principalement au moment de la production des molécules qui les constituent, plutôt qu’au cours de leur utilisation. Votre poêle Tefal n’est donc pas dangereuse à l’usage, mais lors de sa fabrication, contrairement à l’idée reçue qui entoure cet outil de cuisine. Les modes de rejet et de pollution de l’environnement dépendent donc fortement de l’utilisation des PFAS.

Leur formidable stabilité chimique a toutefois un revers de taille. Les éliminer est un vrai casse-tête lorsqu’ils se retrouvent disséminés dans l’environnement. La raison en est simple : ces molécules n’existent pas dans la nature, d’où l’absence d’enzymes en capacité de les dégrader…

Pendant longtemps, les seules solutions pour en limiter la dissémination ont consisté à les filtrer ou à les confiner, sans pouvoir les faire disparaître. Aujourd’hui, si nul remède miracle et facile à mettre en œuvre n’existe encore, industriels, entrepreneurs et chercheurs explorent ensemble des issues technologiques capables de détruire, voire de recycler, ces molécules.

PFAS : une pollution persistante et préoccupante pour l’environnement et la santé

J’approfondis

Oxyle : rompre l’indestructible liaison !

Parmi les start-up européennes qui s’attaquent de front aux résidus de PFAS, Oxyle fait figure de pionnière. Née à Zurich (Suisse), elle développe une technologie de destruction basée sur un catalyseur nanoporeux piézoélectrique. Le principe est aussi élégant que redoutable : lorsque de l’eau contaminée passe sur ce matériau, simultanément soumis à une stimulation mécanique, le catalyseur génère des charges électriques transitoires, des micro-impulsions qui suffisent à rompre la fameuse liaison carbone-fluor, pourtant réputée indestructible.

Résultat : les PFAS sont progressivement décomposés en molécules minérales, comme du dioxyde de carbone et du fluorure. Selon la jeune entreprise, sa technologie en élimine « plus de 99 % ». Mieux encore : cette solution aurait une consommation énergétique « jusqu’à 15 fois inférieure » aux procédés traditionnels, affirme Oxyle.
La société indique pouvoir équiper aussi bien des unités industrielles que des installations de traitement d’eaux souterraines ou rejetées par les municipalités. Elle a déjà mené plusieurs expériences pilotes en Suisse et en Europe, avec l’ambition de traiter au moins 100 millions de mètres cubes dans les cinq prochaines années.

Prometteuse, la solution d’Oxyle est en voie d’industrialisation, même si des écueils demeurent. Son efficacité varie sensiblement selon la qualité de l’eau, comme le reconnaît volontiers l’entreprise. Car la présence de matières organiques et de co-polluants peut altérer la performance. Et sur des rejets très dilués, une étape de préconcentration en amont s’avère souvent nécessaire. À suivre.

Haemers Technologies : détruire les PFAS dans les sols

Quand on parle de PFAS, on pense souvent à leur présence dans l’eau. Mais une part importante du problème se cache dans les sols, les boues et les sédiments. C’est sur ce terrain que veut s’imposer Haemers Technologies, une start-up belge spécialiste du procédé thermique de dépollution. Son approche repose sur un principe simple : chauffer le sol par conduction thermique pour faire migrer les polluants, puis les détruire aussitôt dans une unité de traitement couplée, sans générer de « résidus secondaires ».

Concrètement, l’entreprise déploie sur site des électrodes ou des puits chauffants qui élèvent la température du sol, entraînant la désorption des PFAS. Les composés volatilisés sont ensuite aspirés et dirigés vers un dispositif de post-traitement à haute température, où ils sont oxydés. Haemers revendique une destruction totale de ces molécules, aussi bien in situ (sans devoir faire d’excavation) qu’ex situ (après extraction du sol pollué).

Cette technologie se distingue par sa capacité à traiter efficacement les PFAS directement sur les sites contaminés, ce qui en fait une solution plug-and-play pour la dépollution des sols. Des essais pilotes ont déjà été réalisés, au Danemark notamment.

La voie thermique de Haemers n’est toutefois pas sans contraintes. Chauffer des volumes de sol importants reste un processus énergivore et coûteux. Par exemple, pour l’in situ, la société indique que la consommation d’énergie « descendrait aux alentours de 200 kWh par tonne de sol ». Quant à l’ex situ, il est nettement plus onéreux. Se pose aussi la question du bilan carbone de ces opérations de dépollution, qui dépend beaucoup de la qualité du mix énergétique des pays dans lesquels elles seront envisagées.

Oxford : et si on recyclait le fluor ?

Du côté de l’Université d’Oxford, une autre approche est proposée : le recyclage en amont des PFAS, au lieu de les détruire. Une solution qui permettrait de les traiter « à la source », en intervenant avant leur dispersion dans l’environnement, pour en récupérer le fluor sous la forme de sels réutilisables. Un dispositif pouvant s’avérer complémentaire des deux technologies précédentes dites « de dépollution ».

Les équipes de chimistes du campus ont mis au point, au printemps 2025, une méthode inédite reposant sur la mécanochimie. Au lieu d’utiliser de la chaleur ou des solvants, elles détruisent les PFAS solides, en présence de sels de phosphate de potassium, dans un simple broyeur à billes. Ce processus mécanique génère l’énergie nécessaire pour rompre les liaisons carbone-fluor, décidément de moins en moins « indestructibles ».

Le fluor libéré est capté sous forme de sels inorganiques (fluorure de potassium et fluorophosphate), directement réutilisables dans l’industrie chimique. Le phosphate servant d’agent réactif est lui aussi recyclé, ce qui rend le procédé circulaire. Il ne se contente pas d’éliminer la pollution, il revalorise une ressource stratégique, en transformant des déchets solides contenant des PFAS en une nouvelle source de fluor pour l’économie.

Selon les chercheurs d’Oxford, la méthode est applicable à une large gamme de PFAS : les acides (comme le PFOA), les sulfonates (PFOS), mais aussi les polymères fluorés un peu plus complexes tels que le PTFE ou le PVDF. L’expérience se déroule à température et pression ambiantes, avec un équipement simple et non énergivore.

Cette solution reste néanmoins au stade de l’expérimentation, avec des essais réalisés sur de petits lots de PFAS. Quant au potentiel passage au niveau industriel, il doit encore être démontré. En outre, le procédé vise surtout des flux solides et concentrés. Pour des PFAS de type résines, mousses ou polymères, il sera préalablement nécessaire de les capter et de les sécher avant de les passer au broyage.

PFAS : un encadrement qui se durcit en France et en Europe

J’approfondis

Si pour certains les PFAS auront marqué notre époque comme la chimie du progrès, et pour d’autres comme celle de l’empreinte « indélébile » des activités humaines, la science, l’ingénierie et l’imagination refusent de se laisser enfermer dans une quelconque fatalité. Même si elles ne couvrent pas tous les cas de figure et ne sont pas des « baguettes magiques », les pistes présentées ouvrent des portes et autorisent à penser que l’éternité des PFAS n’a pas forcément vocation à durer…

La sortie par le haut passera donc par un mix entre une réduction à la source et une substitution lorsque c’est possible. Mais aussi par le traitement des flux de production, la destruction ou le recyclage lorsque c’est pertinent, et bien sûr par la transparence et le suivi des résultats.

L’article Les PFAS, des polluants moins « éternels » est apparu en premier sur Les Électrons Libres.

La technologie peut-elle sauver le climat ?

21 septembre 2025 à 04:55

Non, ce n’était pas « mieux avant ». En réalité, le monde n’a jamais été durable. Mais, pour la première fois dans l’histoire de l’humanité, des technologies changent la donne. Et si la neutralité carbone n’était plus une question de « si », mais de « quand » ?

Dossier réservé à nos abonnés.

S'abonner dès 5€/mois

ou

Acheter ce dossier pour 1,50€

L’article La technologie peut-elle sauver le climat ? est apparu en premier sur Les Électrons Libres.

💾

Vers l’IA frugale !

17 septembre 2025 à 04:51

C’est fait. La désinformation a été si massive, répétée avec tant d’aplomb, que beaucoup croient qu’une requête ChatGPT consomme 50 cl d’eau ou émet autant de CO₂ qu’une voiture sur 5 km. Pourtant, la technologie progresse à une vitesse telle qu’elle déjoue toutes les prévisions et pourrait rendre notre écosystème numérique bien plus sobre qu’avant.

Reprenons par exemple le fameux exemple des 50 cl d’eau. Ce chiffre, largement surestimé, intègre la production d’électricité — plus de 90 % du total ! —, comme les toilettes du personnel. Par ailleurs, il provient de centres de données américains et concerne un modèle obsolète, à savoir le ChatGPT de 2022. En réalité, la situation est bien plus nuancée.

Combien d’énergie pour générer une réponse en texte ou en image ?

Les estimations de la consommation énergétique varient sensiblement en fonction des années, des modèles analysés et des méthodologies employées par les chercheurs. En 2023, une requête sur ChatGPT était estimée à environ 3 Wh, soit l’équivalent de dix recherches classiques sur Google. Mais dès 2025, une étude plus récente a revu ce chiffre à la baisse, le ramenant à seulement 0,3 Wh — juste assez pour faire bouillir 3 millilitres d’eau chaude, moins d’une cuillère à café. À titre de comparaison, préparer un simple expresso du matin nécessite vingt fois plus d’énergie.

La génération d’images, en revanche, s’avère plus vorace. Elle exige actuellement autour de 3 Wh, ce qui correspond à la moitié de l’énergie requise pour cet expresso matinal.

À ce sujet, fin juillet, la startup française Mistral, pionnière dans le domaine, a partagé ses propres données, estimant l’impact carbone de son modèle à 1,14 gramme de CO₂ par requête. Ces chiffres soulignent non seulement la diversité des approches, mais aussi les progrès constants qui redessinent le paysage énergétique de l’IA.

Pourquoi de telles disparités dans les estimations ?

L’intelligence artificielle générative est un domaine en pleine ébullition, attirant les esprits les plus brillants en recherche et en informatique. Les premiers prototypes, souvent qualifiés de « preuves de concept », ont été affinés sans relâche sur tous les fronts : performances accrues, optimisation des ressources matérielles, raffinement des algorithmes et mutualisation des calculs. Ces avancées se poursuivent à un rythme effréné, expliquant les écarts observés entre les études. Ce qui était vrai hier peut être obsolète demain, tant l’innovation est rapide.

L’IA va-t-elle engloutir l’électricité de la planète à elle seule ?

Les évaluations basées sur le ChatGPT balbutiant de 2022 sont aujourd’hui périmées. La consommation a chuté de manière spectaculaire grâce aux optimisations successives. Réaliser aujourd’hui des projections au-delà de cinq ans sur la base des modèles actuels relève de la pure spéculation, tant la technologie évolue de semaine en semaine. D’ailleurs, des géants comme Microsoft et Meta ont déjà révisé à la baisse leurs prévisions d’achats énergétiques, témoignant d’une prudence accrue face à ces dynamiques imprévisibles.

Pour illustrer, certaines analyses estiment qu’OpenAI mobilise entre 30 000 et 50 000 cartes graphiques (GPU), chacune consommant de 400 à 700 watts. En pic d’activité, cette infrastructure pourrait avaler jusqu’à 35 mégawatts. En juin 2025, l’entreprise de Sam Altman accueille quotidiennement environ 125 millions d’utilisateurs, générant un milliard de requêtes. Dans le scénario le plus pessimiste, cela équivaut à 0,84 Wh par requête, tous types confondus — à peine suffisant pour allumer une ampoule pendant six minutes. Pour donner une échelle plus tangible à ces données, en pleine charge, ChatGPT consomme un peu plus que trois TGV lancés à pleine puissance, transportant au total 1 700 passagers. Cette comparaison met en perspective l’impact réel de l’IA, loin des scénarios apocalyptiques souvent dépeints.

Mais l’apprentissage des modèles, c’est le pire ?

L’entraînement des grands modèles de langage représente réellement un défi en termes énergétiques. Il implique des calculs intensifs, donc une consommation substantielle, étalée sur des semaines ou des mois. Selon une étude d’Epoch AI en 2024, la complexité computationnelle de ces entraînements augmente d’un facteur 4 à 5 chaque année, reflétant l’ambition croissante des modèles.

Ainsi, l’entraînement de GPT-4 aurait requis 50 gigawattheures, soit l’équivalent de deux jours de production d’un réacteur nucléaire. Mais la donne est en train de changer. Par exemple, les chercheurs chinois de DeepSeek ont fait sensation début 2025 avec leur modèle R1, d’une envergure comparable à celui d’OpenAI, mais entraîné pour un budget vingt fois inférieur, de 5,6 millions de dollars. Ces bonds en avant algorithmiques sont monnaie courante en informatique, démontrant que l’efficacité peut primer sur la force brute. Enfin, il ne faut pas perdre de vue l’ensemble du tableau : ces entraînements coûteux sont amortis sur un volume colossal d’utilisations quotidiennes, rendant leur part relative dans l’impact global bien plus modeste qu’il n’y paraît.

Vers la sobriété heureuse ?

L’optimisation logicielle et matérielle est au cœur des efforts actuels, avec des chercheurs explorant des architectures plus frugales [encadré 1]. Si, jusqu’en 2022, l’exécution du moindre LLM requérait des serveurs onéreux, aujourd’hui, ils tournent sans peine sur des ordinateurs personnels, voire des smartphones, démocratisant ainsi l’accès à l’IA.

Fin août, Google a annoncé un gain impressionnant. Entre les printemps 2024 et 2025, son modèle Gemini a vu sa consommation énergétique divisée par 33 : 23 fois grâce à des améliorations logicielles, et 1,4 fois via une meilleure utilisation des serveurs. Résultat : une interrogation médiane ne demande plus que 0,24 Wh. Ces progrès illustrent le potentiel infini de l’innovation pour atténuer les coûts énergétiques.

Quid des data centers ?

Leurs infrastructures doivent évoluer pour gagner en efficacité énergétique et thermique. L’adoption d’électricité bas carbone est cruciale pour minimiser l’empreinte environnementale de l’IA, tout comme l’utilisation de systèmes de refroidissement plus économes en eau. La France, avec ses normes hydriques sévères et son mix énergétique dominé par le nucléaire et les renouvelables, détient de solides atouts dans ce domaine (voir encart). Dans l’étude mentionnée, Google a par ailleurs réduit ses émissions de CO₂eq d’un facteur 1,4 en privilégiant des sources d’énergie plus propres, prouvant que des choix stratégiques peuvent faire une différence significative.

Data centers : la vérité par « le eau » !

J’approfondis

Existe-t-il pire encore que l’IA ?

Pour remettre les choses en perspective, examinons quelques ordres de grandeur. En 2022, les centres de données (tous usages confondus, hors cryptomonnaies) absorbaient entre 240 et 340 térawattheures, soit environ 1 à 1,3 % de l’électricité mondiale. Selon l’Agence internationale de l’énergie (AIE), cette demande pourrait plus que doubler d’ici 2030, atteignant près de 945 térawattheures — environ 3 % de la consommation globale. Bien que l’IA contribue à cette croissance, elle n’en constitue qu’une fraction mineure. Et, en termes absolus, ces volumes restent modestes comparés à ceux d’autres secteurs. Les transports motorisés, par exemple, représentent plus d’un tiers des émissions de CO₂eq finales. Quant au secteur résidentiel et tertiaire (chauffage, climatisation et cuisson dans les bâtiments), il y contribue pour environ 15 à 20 %. L’IA pèse également peu dans nos habitudes quotidiennes et elle pourrait même nous aider à économiser de l’énergie en automatisant des tâches chronophages, libérant ainsi du temps et des ressources pour des activités plus efficientes. Pas bête, non ?

Modèles allégés : une révolution économe

J’approfondis

L’article Vers l’IA frugale ! est apparu en premier sur Les Électrons Libres.

Jupiter : un superordinateur pour le climat !

16 septembre 2025 à 04:38

L’Europe lance son premier supercalculateur, l’un des quatre plus puissants au monde, conçu pour créer des « jumeaux numériques » de la Terre.

Jupiter n’est pas qu’une planète. C’est aussi le premier ordinateur géant européen, inauguré vendredi 5 septembre sur le campus du centre de recherche de Jülich, en Allemagne, près de Cologne (Rhénanie-du-Nord-Westphalie). Tout simplement l’un des quatre plus puissants supercalculateurs au monde (sans surprise, les trois autres sont américains). Une « machine » d’une taille démentielle, occupant 3 600 m². Conçu par le groupe français Atos et financé à hauteur de 500 millions d’euros par l’Allemagne et l’Europe, il peut effectuer un quintillion de calculs à la seconde — soit un milliard de milliards — grâce à ses 24 000 puces fournies par Nvidia, dont le quasi-monopole lui permet d’être dans tous les bons coups. Destiné notamment à repositionner notre continent dans l’entraînement des modèles de langage IA (LLM), comme Gemini ou ChatGPT, il offre surtout d’immenses promesses dans la recherche sur le climat.

Son objectif phare est la création de répliques virtuelles de la Terre. Une véritable révolution entrant dans le cadre du Earth Virtualization Engines, un projet d’envergure mondiale initié lors d’un sommet à Berlin, en juillet 2023, réunissant certains des plus grands experts mondiaux en climatologie, technologie et IA.

Ces modélisations doivent permettre de visualiser et d’analyser des phénomènes complexes, comme les impacts des événements météorologiques extrêmes sur l’atmosphère, les sols, les océans et les glaces terrestres, soit les systèmes globaux. L’Institut Max-Planck pour la météorologie est l’un des premiers utilisateurs de Jupiter. En collaboration avec le Centre allemand de calcul climatique et le campus de Jülich, il mène une fascinante expérience de simulation du climat terrestre sur une année entière, en considérant tous ses paramètres. Cela permettra notamment d’étudier la manière dont les tempêtes influencent les systèmes de vents globaux et le cycle du carbone, aidant à évaluer les impacts régionaux du changement climatique.

Ce genre de simulations était jusqu’à présent inimaginable en raison des limites des calculateurs existants. Un immense bond en avant pour la recherche.

L’article Jupiter : un superordinateur pour le climat ! est apparu en premier sur Les Électrons Libres.

Plus jamais perdus ?

10 septembre 2025 à 04:56

“Pas de réseau” – cette angoisse de la zone blanche va-t-elle bientôt disparaître ?
Car la panne ou l’urgence surgit toujours quand les barres de connexion s’éteignent. La liaison directe entre nos smartphones et les constellations de satellites, dont Starlink est le précurseur, est sur le point d’y mettre fin.

C’est une acquisition qui annonce des bouleversements majeurs. Avec le rachat du portefeuille spectral d’EchoStar pour 17 milliards de dollars, SpaceX acquiert une large bande de fréquences aux États-Unis (50 MHz de spectre S-band) ainsi que des autorisations d’exploitation pour fournir des services mobiles par satellite dans le monde entier (licences globales MSS). Une étape décisive vers l’objectif d’une élimination complète des zones blanches dans le monde, c’est-à-dire des zones sans aucun réseau téléphonique mobile.

Une connectivité téléphonique 5G sur l’ensemble du territoire américain

Si les licences MSS permettront d’offrir des services téléphoniques basiques (SMS, appels, données limitées) à l’échelle planétaire, c’est le spectre S-band américain qui constitue la base de la véritable prouesse technique à venir.

Une nouvelle génération de satellites, optimisée pour exploiter ce spectre exclusif, promet en effet une multiplication par 100 de la capacité du système de connectivité directe des téléphones portables aux satellites Starlink aux États-Unis. Concrètement, cela signifie une connectivité équivalente à la 5G des réseaux terrestres actuels. Imaginez : de la vidéoconférence fluide depuis les parcs nationaux, ou encore du streaming haute définition en plein désert du Nevada, directement depuis votre smartphone.

L’enjeu crucial de l’adoption par les géants du mobile

Cette révolution nécessitera toutefois une adaptation : les bandes de fréquences S-band acquises (AWS-4 et PCS-H) ne sont actuellement acceptées par aucun téléphone existant. Apple, Samsung et les autres constructeurs devront intégrer ces nouvelles fréquences dans leurs futurs appareils.

Le géant de Cupertino, déjà engagé avec Globalstar pour sa propre solution satellitaire, se trouve maintenant dans une position délicate : continuer son partenariat actuel ou céder aux pressions d’Elon Musk, qui n’hésite pas à brandir la menace d’un « téléphone Starlink » propriétaire.

Les implications de cette technologie dépassent le simple confort. Lors de récentes catastrophes naturelles aux États-Unis, 1,5 million de personnes ont pu communiquer via Starlink Direct to Cell quand les réseaux cellulaires terrestres étaient détruits. En Nouvelle-Zélande, une automobiliste a pu alerter les secours via satellite après un accident, permettant aux secours d’arriver en quelques minutes alors qu’elle se trouvait en zone blanche.

Les risques d’un monopole spatial

Cette nouvelle acquisition révèle la stratégie agressive de SpaceX et Starlink : dominer par des investissements massifs sans préoccupation de rentabilité à court terme. La concurrence du projet Kuiper d’Amazon demeure essentielle pour préserver un écosystème sain. Si la promesse d’une connectivité universelle est enthousiasmante, elle ne doit pas faire oublier l’importance d’un paysage concurrentiel équilibré dans ce secteur télécom stratégique de demain.

L’article Plus jamais perdus ? est apparu en premier sur Les Électrons Libres.

La recette gagnante du libéralisme à la sauce hollandaise

7 septembre 2025 à 05:36

1982. Pendant que la France décrète la retraite à 60 ans, les Pays-Bas, en crise, s’engagent sur une toute autre voie. Pour sortir du marasme, syndicats et organisations patronales scellent un compromis historique.

Dossier réservé à nos abonnés.

S'abonner dès 5€/mois

ou

Acheter ce dossier pour 1,50€

1    Syndrome hollandais : concept économique né après la découverte du gisement de gaz de Groningen dans les années 1960. L’afflux de devises a entraîné une appréciation du florin, rendant l’industrie moins compétitive et provoquant un déclin manufacturier, symptôme d’une dépendance excessive à la rente énergétique.

L’article La recette gagnante du libéralisme à la sauce hollandaise est apparu en premier sur Les Électrons Libres.

D’où vient le déficit ? Comment le combler ?

5 septembre 2025 à 20:26

1974 : c’est la dernière année où les comptes de l’État ont été équilibrés. Depuis, les vannes de la dette se sont ouvertes et les finances publiques glissent vers un gouffre sans fond. Est-ce irrémédiable ?

Un demi-siècle plus tard, en 2024, le déficit des administrations s’établit à 5,8 % du PIB, soit 168 milliards d’euros, à peu près 5 400 € par ménage français. Il continue d’alimenter une dette record de 3 305 milliards d’euros, supérieure à 100 000 € par foyer. La France est désormais sur le podium des pays les plus endettés de l’UE, avec 113 % du PIB, derrière la Grèce (154 %) et l’Italie (135 %). Et les prévisions pour 2025, tablent sur 116%.

D’où vient le déficit ?

Chaque année, les administrations publiques collectent des recettes et les redistribuent. Le déficit vient de la différence entre la dépense publique et les prélèvements obligatoires. La pression fiscale en France est pourtant l’une des plus élevées du monde. Plus d’un euro sur 2 produits est taxé par l’Etat (51 % du PIB contre 46 % en moyenne UE en 2024). Malgré ces masses considérables collectées, la dépense s’établissait l’année dernière à 57 % du PIB. Sur 10 € dépensés par les administrations publiques, seuls 9 € proviennent des impôts et des cotisations obligatoires. L’euro manquant est emprunté sur les marchés. Rapporté au nombre de ménages, les administrations publiques ont dépensé en moyenne 52 000 € après avoir collecté 47 000 € en 2023.

Sources : Fipeco et ministère de l’Economie.

Envisagé sur le temps long, notre déficit est structurel. Il est, depuis plus de 10 ans, d’environ 3 points plus élevé que celui de nos voisins européens. Sur les dernières années, il a continué de dériver bien au-delà des 3 % malgré la fin des mesures d’exception liées au covid. D’après la Cour des comptes, les recettes fiscales ont été très en deçà des attentes et les dépenses ont été fortement tirées par les collectivités territoriales et les prestations sociales en 2023 et 2024.

Si l’on compare la France avec nos voisins, nous allouons 8 points de PIB de plus que la moyenne de l’UE aux dépenses publiques, dont 1,5 points de plus sur la santé et 4 points de plus sur la protection sociale, essentiellement sur les pensions. Si l’intégration de ces dernières dans la comptabilité du déficit fait débat (voir encadré), la comparaison européenne est implacable : notre trou d’air vient plus d’un excès de dépenses majoritairement attribuable aux retraites que d’un manque de recettes…

Source : Ministère de l’Économie et des Finances

Retraites : déficit ou pas déficit ?

J’approfondis

Ce surcoût s’explique notamment par un âge de départ effectif survenant en France 2 ans avant celui de la moyenne des pays de l’OCDE, et par un système qui repose quasiment exclusivement sur la répartition. Contrairement à la capitalisation, cette redistribution directe est mise à mal par le papy-boom et la baby-bust (effondrement de la natalité) qui dégradent le ratio actifs/retraités. Une réalité qui, ces dernières années, a été négligée à cause du faible coût de la charge de la dette – autrement dit, le coût de ses intérêts. Chiffre qui a atteint 58 milliards d’euros en 2024. Un montant historiquement bas obtenu grâce aux très faibles taux, parfois même négatifs, sur les emprunts contractés entre 2015 et 2021.

Mais la donne a changé. Cette parenthèse conjoncturelle exceptionnelle s’est désormais refermée. Et depuis quatre ans, les taux ont largement remonté, voyant la facture s’envoler, ce qui entraîne nos finances publiques dans un cercle vicieux. Le déficit se met à dériver sous la pression du coût de la dette, devenu un boulet de plus en plus lourd à porter. Il tend désormais autour de 6 %, alors que la croissance peine à atteindre les 1 %. Notre endettement n’est pas un investissement. Il soutient à bout de bras un système exsangue, aux dépens des générations futures.

Comment combler le déficit ?

Les mesures pour réduire le déficit constituent des choix politiques forts. Plusieurs propositions sont régulièrement avancées dans le débat public. Au-delà de leur légitimité ou des courants idéologiques qui les portent, elles doivent d’abord être analysées à l’aune de leur réalité comptable. Ces initiatives seraient-elles à même de réduire significativement le déficit ? Voici un tour d’horizon (non exhaustif) de ces propositions et de leur ordre de grandeur et de leur impact budgétaire attendu.

Sources : Budget CESE, CheckNews, Institut Montaigne, Crédits 2025, Gouvernement, France Stratégie, Garbiel Zucman. Collectivités : horizon 2030. Désindexer les pensions : horizon 2029. Retraite à 66 ans : horizon 2050.

Certaines mesures comme la baisse du salaire des ministres et des parlementaires portent une charge symbolique forte, mais elles auraient un impact budgétaire quasiment nul. Au-delà de leur légitimité ou de leur efficacité qui font débat, les antiennes comme la suppression de l’aide médicale d’État (AME), ou le rétablissement de l’exit tax auraient un potentiel très limité pour réduire le déficit.

Les mesures consistant à faire payer les riches, comme la réintroduction de l’ISF ou la mise en place de la taxe Zucman peuvent avoir des effets pervers tels que l’exil fiscal, voire la baisse des recettes du fait de l’effet de la courbe de Laffer : lorsque la pression fiscale devient trop forte, l’activité économique se rétracte et les recettes fiscales diminuent. (Voir encart ci-dessous)

Laffer Zucman

J’approfondis

L’analyse des ordres de grandeur révèle que ce sont surtout les réformes paramétriques sur les postes de dépense principaux qui sont susceptibles de réduire significativement le déficit. Ces mesures peuvent se compter en dizaines de milliards d’euros. Elles impliquent des arbitrages politiques fortement impopulaires, comme retarder l’âge de départ à la retraite ou désindexer les pensions.

L’autre fenêtre d’opportunité pour réduire le déficit consisterait à engager des réformes plus structurelles visant à désengager l’État de certains secteurs via des privatisations. Cela pourrait notamment concerner l’audiovisuel public, ce qui libérerait des crédits et réduirait le déficit, mais serait fortement contesté, en dépit d’un urgent besoin de réforme et de dépolitisation de celui-ci.

Quelles que soient les trajectoires choisies, une chose est certaine : le retour de la croissance est indispensable pour accompagner le rétablissement des comptes publics. La priorité est donc de lever les freins à l’innovation et de soutenir une politique nataliste. Mais aussi de s’assurer que les arbitrages pris pour réduire le déficit ne grèvent pas davantage la croissance. Risque que ferait courir à notre pays une augmentation de la pression fiscale.

L’article D’où vient le déficit ? Comment le combler ? est apparu en premier sur Les Électrons Libres.

Incendies : l’imprévoyance à l’épreuve du feu

13 août 2025 à 20:24

Si gouverner, c’est prévoir, il est tristement envisageable que la France ne soit pas au mieux en termes de commandement. C’est en tout cas l’idée qui se dégage de la politique de lutte contre les incendies menée par notre pays depuis plusieurs années, dans un contexte de réchauffement climatique, pourtant propice à la propagation de méga-feux, comme celui qui vient de ravager le massif des Corbières

On connaît la chanson, déjà rapportée par nombre de nos confrères. Le combat contre les flammes dépend en grande partie de la flotte d’avions bombardiers d’eau, dont les fameux Canadair CL-415 et autres Dash 8 Q400. Or, non seulement nous en manquons cruellement, mais une partie de notre parc, très ancien (plus de 30 ans), n’est pas en état de servir, faute d’un nombre suffisant de pièces de rechange.

À ce jour, sur les 12 CL-415 (capables de stocker 6 000 litres d’eau en à peine plus de 10 secondes), seuls 9 sont utilisables. Quant aux Dash 8 Q400 (capacité 10 000 litres, mais remplissage lent depuis les aéroports), deux doivent rester à terre. Pire, l’incendie dans l’Aude, qui a décimé plus de 17 000 hectares, a mobilisé la quasi-totalité des moyens aériens dont le pays dispose. Or, d’autres foyers se sont déclenchés dans la même période. Si l’un d’eux, dans l’Ardèche — donc proche du massif des Corbières — a pu bénéficier des CL-415 utilisés pour éteindre le feu voisin, il n’en est pas de même d’autres sinistres plus éloignés.

Par bonheur, contrairement à ce que vivent actuellement nos voisins espagnols et portugais, aux prises avec plusieurs méga-feux, aucun des autres allumés en France n’est de l’ampleur de celui de l’Aude. Cela pourrait pourtant arriver et déstabiliser profondément notre capacité de lutte.

Les raisons, multiples, de notre impréparation sont pourtant connues, certaines ne dépendant pas uniquement des gouvernements successifs ayant eu à gérer la lutte contre le feu. La première est une question industrielle. D’abord développé par Bombardier, le CL-415 est revendu en 2016 à Viking Air, puis intégré à De Havilland Canada, toutes deux appartenant au groupe Longview. Faute de commandes, Bombardier avait cessé la production dès 2015 et le repreneur a d’abord recentré l’activité sur le MRO (maintenance, réparation, révision) plus rentable à court terme. On ne compte aujourd’hui qu’environ 95 appareils dans le monde. Une paille. Pour répondre à ce parc limité et en fin de vie, De Havilland Canada a lancé le développement d’un successeur modernisé : le DHC-515.

Redécollage difficile pour le nouveau Canadair

J’approfondis

Mais relancer la production d’un avion spécialisé des années après l’arrêt de celle de son prédécesseur est un défi logistique, industriel, financier et réglementaire colossal. Le cas du DHC-515 en est l’illustration. Initialement attendu au milieu des années 2020, il ne devrait entrer en service qu’en 2030, voire 2032. Le Covid en est en partie la cause, mais pas seulement. Pour des raisons financières, d’autant que De Havilland n’est pas tendre en affaires, le lancement de la production de cet appareil, envisagé entre 50 et 60 millions d’euros pièce à la vente, a été différé, ayant été conditionné à l’obtention de 25 commandes préalables.

Celles-ci ont été atteintes grâce au plan européen rescEU de 22 unités et à une commande de l’Indonésie. Mais ces marchés n’ont été conclus qu’en 2023, retardant considérablement les dates potentielles de livraisons. Et 22 avions, à l’échelle d’un continent européen si souvent la proie des flammes dans un contexte d’aggravation du changement climatique, reste assez négligeable. Quant à la France, elle n’est concernée que par deux appareils…

Cette parcimonie dans les commandes françaises, constatée au moment où le monde a été effaré par les gigantesques feux qui ont ravagé l’ouest du Canada et plusieurs comtés de Los Angeles, tranche cruellement avec la volonté affichée par Emmanuel Macron en 2022. En juillet et août de cette année-là, la Gironde avait été frappée par des incendies majeurs dans le massif des Landes de Gascogne. Les plus importants depuis 1949, détruisant environ 32 000 hectares de forêt. Déclenchés par des causes humaines, ces feux ont été exacerbés par une sécheresse record, des températures dépassant 40 °C et des vents forts. 

Mauvais calcul

La politique surfant de plus en plus souvent sur l’émotion et une succession d’annonces rarement suivies d’effets, le président de la République s’était immédiatement saisi du sujet, assurant que le pays allait commander 14 nouveaux Canadairs. Les débats budgétaires serrés, conduisant à des recherches frénétiques d’économies, ont vite vu la promesse tomber dans l’oubli, avant que Gabriel Attal n’envisage deux nouvelles commandes de DHC-515, en plus du plan rescEU. Là encore, une annonce à l’improbable concrétisation.

Pourtant, un tel calcul s’avère absurde économiquement, écologiquement et humainement. Si les avions coûtent cher, le montant de leur achat ne représente rien comparé à celui des flammes et de leurs conséquences. On estime ainsi, feu de l’Aude compris, le coût total des incendies français depuis 2022 à près de 8 milliards d’euros, avec une contribution très majoritaire des assureurs, mais également importante des collectivités locales, 80 % des forêts françaises n’étant pas assurées.

Certes, l’État peut prétendre n’avoir pas à assumer directement ces dépenses, sa part directe étant estimée à environ 150 millions d’euros par an — soit l’équivalent de 3 Canadairs tout de même — entre la lutte contre les incendies et le fonds DSEC (Dotation de solidarité au titre des événements climatiques ou géologiques), mais elles pèsent directement sur la collectivité.

Dès lors, l’investissement dans de nouveaux bombardiers d’eau coule de source, en dépit des restrictions budgétaires. D’autant plus que le secteur privé français est à la pointe des solutions alternatives aux Canadairs. Entre la transformation potentielle d’Airbus A400M — surtout pour le largage de produits retenant le feu — et les innovations proposées par les startups Hynareo et son biréacteur amphibie Frégate-F100, ou Positive Aviation, prévoyant la conversion d’avions régionaux ATR-72 en bombardiers d’eau amphibies, notre pays fourmille d’idées. Elles sont certes onéreuses et demanderont du temps avant leur réalisation, mais le jeu en vaut la chandelle.

Les start up françaises montent au feu

J’approfondis

L’IA joue les pompiers

Lorsque les Canadairs interviennent, cela signifie que le feu a déjà pris de l’ampleur. Or, la meilleure façon de lutter contre les incendies consiste à les prévenir ou à les circonscrire au plus près de leur déclenchement. Un domaine dans lequel des innovations importantes sont apparues ces dernières années, même si nombre de défis restent à relever.

Les systèmes d’intelligence artificielle, comme FireAId ou Pano AI, jouent un rôle croissant en analysant des données issues de satellites, de stations météo et de capteurs pour prédire les zones à risque avec une précision atteignant 80 à 90 %. Ces outils permettent de détecter les départs de feu en temps réel, comme testé en Turquie, en Californie ou dans certains pays européens. Parallèlement, les drones équipés de capteurs thermiques et de caméras haute résolution sont de plus en plus utilisés pour surveiller les forêts, cartographier les feux et repérer les points chauds. Les réseaux de capteurs IoT, installés au sol, mesurent en continu des paramètres comme la température, l’humidité ou la qualité de l’air, envoyant des alertes instantanées en cas de danger, avec des déploiements notables en Australie et en Californie.

Les satellites, comme ceux du projet FireSat de Google prévu pour 2026, promettent aussi une détection ultra-précise des feux, avec des mises à jour toutes les 20 minutes. Enfin, des stratégies proactives, telles que les brûlages contrôlés guidés par l’IA, la réduction ciblée de la végétation ou l’utilisation de matériaux ignifuges pour les infrastructures, sont en cours d’adoption, notamment en Europe et aux États-Unis. Ces technologies réduisent les temps de réponse de 20 à 30 minutes dans les cas les plus avancés, mais elles se heurtent à des obstacles comme les défis d’interopérabilité entre systèmes. Les efforts se concentrent désormais sur l’intégration de ces solutions dans des cadres comme rescEU pour une réponse coordonnée à l’échelle européenne.

Moins de feux… mais plus violents

Hélas, en dépit du plan, somme toute assez modeste, de l’Union, une grande part des actions utiles dépendent de la volonté politique individuelle des États. Or, la prospective et la prévoyance ne sont pas leurs principaux atouts, dans une période où le populisme privilégie les réponses manichéennes, simplistes et court-termistes.

Mais nul besoin de céder à l’alarmisme. Contrairement à ce que l’on pourrait imaginer, le nombre d’incendies est en baisse constante, ainsi que l’importance des surfaces brûlées. C’est particulièrement vrai en France.

Dans les années 1970, environ 496 feux de plus de 30 hectares étaient enregistrés annuellement, avec 45 000 hectares brûlés en moyenne. En 2024, ce chiffre est tombé à 236 foyers, et la surface brûlée autour de 15 000 hectares. Le chiffre remontera en 2025, à cause de l’incendie de l’Aude, mais la tendance baissière est indiscutable. Elle s’explique par une meilleure prévention (débroussaillage, sensibilisation), des interventions plus rapides et une détection avancée via satellites et drones. Cependant, le changement climatique augmente l’intensité des feux, avec des conditions plus sèches et chaudes favorisant des incendies plus violents.

Ce phénomène est aussi observable à l’échelle mondiale, bien que moins nettement qu’en France. Dans les années 1970, les estimations suggèrent environ 4,5 à 5 millions de km² brûlés annuellement, principalement dans les savanes africaines. En 2025, selon le Global Fire Emissions Database, la surface brûlée globale est d’environ 3,5 à 4 millions de km² par an, avec 102 millions d’hectares (1 million de km²) enregistrés à mi-2025, dont la moitié en Afrique.

Cette inflexion, observée surtout depuis les années 2000, est attribuable à l’intensification de l’agriculture, qui réduit les prairies et savanes inflammables, à une meilleure gestion des feux, mais aussi à l’urbanisation limitant la végétation combustible. Cependant, le changement climatique accroît l’intensité et la fréquence des méga-feux dans des régions comme l’Amérique du Nord, l’Amazonie et l’Australie, ainsi que dans les forêts boréales et tempérées, où la surface brûlée augmente localement. Les conditions climatiques extrêmes (sécheresses, vagues de chaleur) et l’accumulation de biomasse contribuent à cette intensification, malgré une baisse globale qui pourrait n’être désormais plus que de courte durée. Raison de plus pour revoir, particulièrement en France, les politiques budgétaires en faveur des moyens de lutte : des dépenses indispensables à court terme, pour éviter de bien plus onéreuses destructions à moyen terme, également infiniment conséquentes écologiquement et humainement.

Qu’on y pense…

L’article Incendies : l’imprévoyance à l’épreuve du feu est apparu en premier sur Les Électrons Libres.

Aéronautique : l’étoffe du net zéro ?

3 août 2025 à 06:22

Longtemps admirée, aujourd’hui sous le feu des critiques, l’aviation commerciale incarne mieux que tout autre secteur le dilemme entre liberté de mouvement et urgence climatique. Elle doit se réinventer pour continuer à relier le monde sans le réchauffer. Le secteur s’est engagé à atteindre la neutralité carbone d’ici 2050 : promesse crédible ou techno-solutionnisme inconséquent ?

1 000 entreprises, 300 000 emplois (directs et induits), 77,7 milliards € de chiffre d’affaires… si la France représente moins de 4 % du trafic aérien mondial, elle concentre à elle seule 15,6 % des exportations mondiales de l’aérospatial. Pendant que les débats se focalisent sur les voyages personnels ou les jets privés, le pays dispose d’un levier bien plus stratégique : celui de sa capacité industrielle à décarboner l’aéronautique mondiale. Un enjeu économique majeur, puisque le secteur est le premier contributeur à la balance commerciale française, avec un excédent de 23,5 milliards d’euros en 2022, soit l’équivalent de 4,3 % du PIB.

Twingo vole

Imaginez : vous partez pour Le Caire en ne consommant que 2,35 litres de carburant et en émettant 59 g de CO₂ aux 100 km. L’équivalent d’un road trip à deux en Twingo… mais à 900 km/h et 10 000 mètres d’altitude.

Science-fiction ? Non. C’est déjà ce que permet un Boeing 787, en conditions optimales.

Entre 1990 et 2019 — date à laquelle le secteur aérien a été intégré aux objectifs climatiques européens — les émissions par passager-kilomètre ont chuté de plus de 50 %, grâce à des avions plus sobres, des motorisations plus efficaces et des vols mieux remplis.

Résultat : si les émissions de CO₂ de l’aviation ont doublé depuis 1990, atteignant environ 1 milliard de tonnes juste avant la crise Covid, elles ne représentent toujours que 2,5 % des émissions mondiales. En incluant les effets non-CO₂ — comme les NOx, la vapeur d’eau ou les traînées de condensation —, son impact climatique total est estimé à environ 4 % du réchauffement global.

Contrails : et si le ciel se dégageait pour l’aérien ?

J’approfondis

CO2 : Objectif nul

Le secteur aérien s’est collectivement engagé à atteindre la neutralité carbone d’ici 2050. Cet objectif, désormais partagé par l’ensemble des grandes organisations aéronautiques internationales constitue le cap structurant de la stratégie industrielle du secteur pour les 25 prochaines années.

Pour y parvenir, l’aviation mise sur trois leviers complémentaires : le déploiement des carburants durables (SAF), l’émergence de technologies de rupture, et l’optimisation des opérations au sol comme en vol. Aucun ne suffit à lui seul ; c’est leur combinaison qui rend la trajectoire crédible.

Les SAF y occupent une place centrale. Mais leur coût reste aujourd’hui très élevé et les obstacles à franchir pour leur montée en puissance demeurent considérables.

SAF : Tintin au pays de l’or vert ?

J’approfondis

En parallèle, les industriels remettent plein gaz sur les ruptures technologiques. Les efforts portent sur les turboréacteurs compatibles SAF, les avions hybrides-électriques, les structures allégées ou encore les ailes morphing, capables de modifier leur forme en vol pour gagner en efficacité énergétique. Mais c’est surtout du côté des moteurs ultra-efficients que les gains les plus rapides sont attendus. 

Le successeur de l’A320, présenté par Airbus en mars dernier, intègre la plupart de ces innovations. Cet appareil, jusqu’à 30 % plus efficient que l’A320neo, est conçu dès l’origine pour opérer à 100 % au SAF. Il doit être construit en matériaux composites allégés, avec des ailes longues et repliables supportant des moteurs sans carénage révolutionnaires. Sa mise en service est prévue à la fin des années 2030.

Le successeur de l’A320 devrait être équipé de moteurs RISE de CFM dépourvus de carénage. © CFM International

L’hydrogène liquide reste étudié comme une solution de rupture à plus long terme mais les annonces récentes d’Airbus laissent entrevoir un décalage du calendrier, avec une mise en service probablement repoussée à 2040 ou au-delà.

Le troisième levier repose sur une optimisation opérationnelle systématique : amélioration des trajectoires en vol, réduction du roulage, gestion au sol plus efficiente, avec, de plus en plus, recours à l’intelligence artificielle pour optimiser l’ensemble des opérations. 

Malgré les incertitudes — sur la disponibilité des SAF ou les percées technologiques —, l’IATA réaffirme fermement son engagement à atteindre la neutralité carbone en 2050. Le coût estimé de cette transition est colossal : 4 700 milliards de dollars, soit en moyenne 174 milliards par an. Mais dans 20 ans, les trois quarts de la flotte actuelle auront probablement été remplacés.

Cet effort s’inscrit dans le cadre plus large du scénario Net Zéro porté par l’Agence internationale de l’énergie (AIE), qui vise à contenir les émissions de l’aviation sous 1 000 Mt de CO₂ dès 2030. Un cap ambitieux, mais atteignable à condition d’agir vite — car le trafic, lui, continue de croître : 8,2 milliards de passagers sont attendus à cette échéance.

Report moral, report modal

Reste une question sensible : faut-il freiner cette croissance ? L’idée d’imposer interdictions, quotas ou fiscalité punitive revient régulièrement dans le débat. Pourtant, l’aviation commerciale profite à tous.

Depuis les années 1960, le nombre de passagers a été multiplié par 45 — de 100 millions à plus de 4,5 milliards. Ce ne sont pas « les mêmes qui voyagent plus », ce sont davantage de personnes qui accèdent au ciel. Et c’est justement ce succès que certains lui reprochent.

Ceux qui dénoncent le tourisme de masse — dont les impacts, bien réels, méritent d’être régulés — ou qui prônent la sobriété pour les autres, tout en affichant le bilan carbone d’une centrale à charbon allemande, sont souvent les premiers à s’exempter des efforts qu’ils prétendent imposer à tous. Pour aller voir pousser un arbre en Guyane. Ou pour assister à une conférence… sur le climat. Le tout en s’estimant exemplaires, car, n’est-ce pas, ils ne prennent plus l’avion… entre deux vols.

Faut-il au moins renoncer à l’avion sur les trajets courts ? Pas forcément. Le train peut être une excellente alternative — à condition d’être abordable, ponctuel et rapide. Mais il ne capte pas toujours les passagers de l’avion : une étude Carbone 4 pour le SNPL montre que, faute d’offre compétitive, beaucoup se rabattent sur la voiture… au risque d’aggraver le bilan carbone. 

Un turbo pour l’économie

L’aéronautique est d’abord un puissant vecteur d’émancipation. Elle relie les familles, les cultures, incarne la liberté, le progrès, le lien humain — et, pour beaucoup, elle fait encore rêver. On insiste souvent sur ses externalités négatives, en oubliant que sa balance globale reste très positive, par tout ce qu’elle rend possible.

Le transport aérien est notamment un moteur essentiel de l’économie mondiale. En 2019, l’aérien représentait près de 35 % de la valeur des échanges mondiaux, tout en ne transportant que moins de 1 % des volumes. Les marchandises acheminées par avion — pour une valeur estimée entre 6 000 et 7 000 milliards de dollars par an — concernent principalement des produits à forte valeur ajoutée ou sensibles au délai : médicaments, électronique, luxe, composants industriels. Par ailleurs, la moitié des touristes internationaux voyagent par avion, générant chaque année plus de 1 000 milliards dollars de recettes. De nombreuses économies émergentes ou insulaires en dépendent fortement.

Le Covid a été un stress test grandeur nature de ce que représente l’aviation. En 2020, le trafic passager s’est effondré de 66 %, provoquant des pertes massives pour l’ensemble de la filière (‑244 milliards de dollars cette année-là, ‑146 milliards en 2021). Pour le tourisme mondial, le choc a été brutal : les arrivées internationales ont chuté de 65 à 70 %, entraînant jusqu’à 1 200 milliards de dollars de pertes de recettes. Dans certaines régions, les revenus liés au transport aérien se sont effondrés de 90 %. Reconfiner volontairement ce secteur, ce serait non seulement renoncer à ses services rendus, mais aussi l’empêcher de financer sa propre transition.

Rêves de gosse

L’aéronautique n’est pas parfaite. Mais elle agit, elle innove et progresse vite. La saborder au nom d’une idéologie punitive serait une erreur historique. Car la véritable écologie, c’est celle qui améliore, et qui rend les progrès accessibles à tous.

Rien n’est gagné pour autant. Les défis sont immenses. La trajectoire Net Zéro exige des investissements massifs, des ruptures technologiques et industrielles profondes, et une mobilisation sans faille de tout un écosystème. Mais la feuille de route est claire.

“L’aérien ne doit plus faire partie des rêves d’enfants aujourd’hui” affirmait Léonore Moncond’huy, maire écologiste de Poitiers, en supprimant les aides municipales aux aéroclubs locaux. Pourtant, c’est ainsi que la France peut faire sa part pour le monde : en permettant aux enfants de continuer à rêver. Pour que demain, ces rêves de gosses se transforment en solutions d’ingénieurs.

L’article Aéronautique : l’étoffe du net zéro ? est apparu en premier sur Les Électrons Libres.

Aucun impact sur la santé : une étude d’envergure confirme l’innocuité des OGM

1 août 2025 à 04:36

C’est l’un des débats les plus inflammables de ces dernières décennies : les OGM sont-ils sûrs ? Ont-ils des effets néfastes à long terme sur la santé ? Il y a treize ans, l’étude Séralini l’affirmait, avant d’être rétractée. Aujourd’hui, une recherche de long terme menée sur deux générations de primates démontre le contraire. Reste à savoir si elle bénéficiera de la même couverture médiatique.

« OGM : l’humanité est en train de se suicider » (Jean-Luc Mélenchon), « La dérégulation des OGM menace la santé des consommateurs » (Marie Toussaint, EELV), « Nous n’avons pas envie de manger des produits OGM » (Marine Le Pen)… Pour de nombreux responsables politiques, et pour une grande partie de l’opinion, la cause semble entendue : consommer des OGM n’est pas sûr.

Pourtant, en trente ans, aucune étude n’a pu démontrer leur nocivité. Mais les plus inquiets réclamaient des preuves plus solides. C’est à cette attente qu’une équipe chinoise tente de répondre, avec une expérimentation d’une ampleur inédite. Pendant plus de sept ans, les chercheurs ont nourri des macaques cynomolgus avec deux variétés de maïs génétiquement modifié : l’une résistante aux insectes, l’autre tolérante aux herbicides. Cet animal, très proche de l’humain, est régulièrement utilisé dans les tests biomédicaux les plus exigeants. La durée de l’expérience, exceptionnelle, dépasse largement celle de toutes les études menées jusque-là.

Le résultat ? Aucun trouble métabolique. Aucun signe d’inflammation. Aucun dérèglement du système immunitaire. Les primates exposés au maïs OGM n’ont présenté aucune différence biologique significative avec le groupe témoin.

L’étude a été financée par plusieurs institutions publiques chinoises, dont l’Académie des sciences médicales et la province du Yunnan. Elle a été publiée dans la revue scientifique Journal of Agricultural and Food Chemistry, publiée par l’American Chemical Society (ACS), une des plus prestigieuses sociétés savantes dans le domaine de la chimie. Contrairement à d’autres travaux controversés, cette recherche ne semble ni orientée par l’industrie, ni portée par une cause militante.

Certes, elle ne porte que sur deux types de maïs transgénique. Mais elle vient ébranler l’idée que les OGM seraient nécessairement nocifs à long terme. Malheureusement, il est probable qu’elle passe inaperçue. Contrairement à l’étude Séralini, qui, a sa sortie, a bénéficié d’une couverture médiatique sans précédent. Le Nouvel Obs titrait en une, « Oui, les OGM sont des poisons ! », pendant que le documentaire « Tous cobayes ? », exposait des images spectaculaires de rats présentant des tumeurs.

Alors que Bruxelles débat de l’autorisation des NGT, ces nouveaux OGM sans transgénèse, il est regrettable que cette information ne soit plus largement diffusée. Une fois encore, les peurs pourraient être agitées sans que l’on prenne le temps d’écouter ce que dit réellement la science. Pire, elles trouveront, grâce à aux anciens titres alarmistes restés dans l’imaginaire collectif, un terreau fertile sur lequel prospérer.

L’article Aucun impact sur la santé : une étude d’envergure confirme l’innocuité des OGM est apparu en premier sur Les Électrons Libres.

❌