Vue lecture

Scanners pédiatriques, pas d’affolement ! 

Faut-il avoir peur des rayons X ? Une vaste enquête nord-américaine relance le débat sur les radiations médicales, évoquant jusqu’à un cancer pédiatrique sur dix lié aux scanners. Radioscopie de conclusions à relativiser.

Il est 22 h à l’hôpital. Un enfant fiévreux et anémié arrive aux urgences, ses parents inquiets redoutent une infection grave. Pour lever le doute, les médecins réalisent un scanner en urgence. L’examen est normal, soulagement général. Mais ce soulagement a un revers invisible : une dose de rayons X administrée à l’enfant. L’utilisation de la tomodensitométrie, plus connue sous le nom de scanner, s’est répandue de manière fulgurante, passant d’environ trois millions d’examens en 1980 à soixante-deux millions au milieu des années 2000 aux États-Unis. En France, on estime qu’environ onze millions de ces examens sont réalisés chaque année. Face à cette explosion, la question des risques liés aux rayonnements refait surface. Une nouvelle étude parue dans The New England Journal of Medicine vient justement de quantifier ce « coût caché » : elle suggère qu’un cas de cancer sur dix chez l’enfant pourrait être attribuable aux radiations mentionnées. Faut-il s’inquiéter d’un chiffre aussi important ? Comment ce risque se compare-t-il aux autres sources de radiation, et que faire pour le réduire sans renoncer aux outils favorisant le diagnostic ?

Des risques réels, mais très relatifs

L’étude nord-américaine a suivi 3,7 millions d’enfants nés entre 1996 et 2016 sur son continent. Les chercheurs ont mesuré la dose de rayonnement reçue par la moelle osseuse, exprimée en milligrays (mGy), qui quantifient l’énergie déposée dans un tissu, et analysé la survenue de cancers hématologiques comme les leucémies et les lymphomes. Leur constat : plus la dose cumulée est élevée, plus le risque croît. Les enfants ayant reçu entre 50 et 100 mGy voyaient leur risque relatif multiplié par environ 3,6. Selon les auteurs, environ 10 % des cancers du sang observés dans cette cohorte pourraient être attribués à l’imagerie. En termes de risque absolu, cela correspondait à une incidence cumulée de 55,1 cancers hématologiques pour 10 000 enfants exposés, contre 14,3 pour 10 000 chez les non exposés, soit un excès de 40,8 cas pour 10 000 enfants (environ 0,4 % supplémentaires). Ces chiffres frappent les esprits, mais ils reflètent un passé révolu : l’étude s’arrête en 2017 et repose sur des scanners souvent installés dans les années 2000, bien plus irradiants que les machines utilisées aujourd’hui. De plus, les grandes études épidémiologiques sont sujettes à des biais, notamment de sélection : les enfants subissant plusieurs scanners sont souvent déjà atteints de maladies graves, ce qui peut exagérer statistiquement le lien entre exposition et cancer.

Ce surrisque n’est pas une réelle découverte. Une étude européenne EPI-CT a déjà analysé plus de 658 000 enfants ayant subi des scanners de la tête, avec une dose moyenne de 38 mGy au cerveau par examen. Elle a recensé 165 tumeurs cérébrales malignes et estime qu’un seul de ces examens pourrait induire, pour 10 000 enfants, un cas supplémentaire de tumeur dans les cinq à quinze années suivantes. L’ASNR indique aussi qu’en France, environ 100 000 ces scanners sont réalisés chaque année chez les enfants de 0 à 15 ans. Si les doses pouvaient être réduites de moitié, l’excès de risque attendu serait très limité (quelques cas supplémentaires sur une décennie), dans un contexte global de milliers de tumeurs survenant spontanément. De quoi relativiser et rassurer les parents inquiets face à des titres parfois sensationnalistes et sans nuance.

Comparer pour comprendre

Pour mieux situer les doses, rappelons que l’exposition naturelle aux rayonnements est en moyenne de 2 à 4 mSv 1 par an, principalement liée au radon présent dans l’air des habitations et aux roches granitiques dans certaines régions comme la Bretagne, où l’irradiation naturelle peut atteindre localement 5 à 7 mSv par an. Les rayons cosmiques contribuent aussi, surtout en altitude ou lors des vols aériens. À titre de comparaison, un vol Nice–New York de six heures représente environ 0,02 mSv, une dose proche de ce que délivre une radiographie pulmonaire. Les aliments comme les fruits de mer apportent une dose très faible et le tabac expose également, mais ces apports restent mineurs comparés au radon. Une radiographie de l’abdomen correspond à environ 0,7 mSv, soit trois à quatre mois d’irradiation naturelle. Un scanner de la tête délivre en moyenne 1,6 à 2 mSv, l’équivalent de huit à dix mois de rayonnement naturel ou 100 longs courriers. Un scanner thoracique adulte est plutôt autour de 6 mSv, soit environ deux ans et demi d’exposition naturelle. Une tomodensitométrie de l’abdomen ou de la colonne lombaire atteint 7 à 8 mSv, soit environ trois années de rayonnement naturel.

La révolution des “basses doses”

La bonne nouvelle, c’est que les machines de 2025 n’ont plus rien à voir avec celles d’il y a vingt ans. On parle désormais de scanners dits « basse dose ». Les innovations permettent de réduire l’irradiation tout en maintenant, voire en améliorant, la qualité des images. On utilise la modulation automatique du faisceau, des filtres adaptatifs, des détecteurs plus sensibles, et des reconstructions d’image assistées par algorithmes ou intelligence artificielle. Certains hôpitaux disposent déjà de scanners à comptage photonique capables de diminuer la dose d’environ 50 % tout en offrant une excellente résolution. Les autorités sanitaires françaises constatent une baisse continue des niveaux de référence diagnostiques entre 2016 et 2021 et encouragent des valeurs encore plus basses pour les enfants.

Malgré tout, pour que les progrès technologiques se traduisent concrètement par une réduction des doses, il est essentiel de renouveler régulièrement les appareils, idéalement tous les cinq à sept ans. Si la tarification des actes techniques est trop compressée, par exemple avec la réduction envisagée de 11 % dans la loi de financement de la Sécurité sociale, cela pourrait ralentir l’investissement dans du matériel moderne et compromettre l’effort de diminution des doses reçues par les patients.

Rassurer sans banaliser

En conclusion pour les parents, le message est rassurant mais demande de rester attentif : un scanner bien paramétré sur une machine récente délivre une dose faible, souvent inférieure ou comparable à l’irradiation naturelle annuelle. Lorsqu’un médecin prescrit un scanner, c’est parce qu’il attend un bénéfice diagnostique majeur. Plutôt que de craindre l’examen, il vaut mieux questionner son utilité, vérifier s’il existe une alternative sans rayons comme avec une échographie ou une IRM et s’assurer que l’appareil est moderne et adapté à l’enfant. Le principe ALARA (« As Low As Reasonably Achievable » ou aussi bas que raisonnablement possible) doit toujours guider la pratique. L’histoire de l’imagerie médicale n’est pas celle de la peur, mais celle du progrès réfléchi. Les scanners d’hier irradiaient beaucoup plus ; ceux d’aujourd’hui, bien utilisés, protègent tout en permettant de voir encore mieux.

  1. Pour interpréter les chiffres, rappelons que le gray (mGy) mesure l’énergie déposée, tandis que le sievert (mSv) intègre la sensibilité biologique des tissus exposés. Le discours public emploie plutôt souvent les mSv pour exprimer le risque de cancer. ↩

L’article Scanners pédiatriques, pas d’affolement !  est apparu en premier sur Les Électrons Libres.

  •  

Numériser les usages ! Notre contrepoint au Shift

Freiner l’installation des data centers en France, pays de l’électricité bas carbone ? C’est le projet du Shift qui, après des prédictions ratées sur la 5G et le streaming, récidive avec de nouveaux scénarios alarmistes. Pourtant, le numérique tricolore est une opportunité pour la décarbonation de notre économie.

Le Shift Project persiste et signe. Dans son dernier rapport, le think tank fondé par Jean-Marc Jancovici estime que l’explosion mondiale de l’intelligence artificielle et de ses infrastructures va lourdement contribuer au réchauffement climatique. Et ses hypothèses ne lésinent pas sur les chiffres pharaoniques et anxiogènes. « Sans évolution majeure des dynamiques actuelles », il prédit un triplement de la consommation électrique des data centers à 1 250, voire 1 500 TWh à l’horizon 2030 (contre 400 TWh en 2020).

Des projections maximalistes, bâties sur les annonces des géants de l’intelligence artificielle et intégrant même le minage de cryptomonnaies, pourtant sans lien avec l’IA. Ainsi, le scénario le plus optimiste du Shift équivaut au plus pessimiste de l’Agence internationale de l’énergie, qui estime la fourchette entre 700 et 1 250 TWh.

Principal moteur : l’explosion de l’IA générative (700 millions d’utilisateurs hebdomadaires pour le seul ChatGPT, modèle d’OpenAI). Une situation qui conduirait, selon le think tank, à une augmentation des émissions de gaz à effet de serre (GES) de 9 % par an de la filière centres de données (au lieu d’une baisse annuelle de 5 % pour respecter les objectifs climatiques), dont l’essor repose encore massivement sur le gaz fossile, aux États-Unis et en Chine.

Le Shift estime donc « insoutenable » le développement mondial de ces infrastructures, à moins d’énormes efforts de décarbonation. Même prédiction pour l’Europe. Hugues Ferreboeuf, chef de projet Numérique, s’appuie sur le cas de l’Irlande où, suite à des incitations fiscales, la consommation des data centers est passée de 5 % à 20 % de l’électricité disponible. Un cas spectaculaire mais exceptionnel. À l’échelle de l’Union, cette part reste dix fois plus faible. Au point que le recours à cet exemple, peu représentatif des trajectoires européennes, interroge. D’autant que le Shift oublie de mentionner le Celtic Interconnector, qui permettra à la France d’exporter vers l’Irlande 700 MW de mix décarboné dès 2028, soit jusqu’à 6 TWh par an : l’équivalent de la consommation actuelle totale des data centers irlandais.

Le Shift y voit néanmoins un signal annonciateur et anticipe un doublement de la consommation électrique de la filière data centers européenne d’ici 2030, à 200 TWh. Ce qui, selon lui, risquerait de prolonger la dépendance de l’UE au GNL américain, que l’Europe importe pour compenser l’intermittence des énergies renouvelables. Que faire pour s’en prémunir ? Son constat est sans appel : il faut limiter le déploiement de l’IA « pour des usages ciblés et prioritaires ». Voire même l’interdire : « si ça ne suffit pas, on abandonne les fonctionnalités IA », assène sans trembler Maxime Efoui-Hess, coordinateur du programme « Numérique ».

Pourquoi cibler le champion français ?

À première vue, le raisonnement peut sembler logique. Mais le Shift ignore l’éléphant dans la pièce. Nous n’avons aucun moyen d’enrayer l’essor mondial des data centers, pas davantage que nous avons de prise sur l’empreinte carbone chinoise. Au mieux, ce lobbying peut freiner leur implantation en France. Or, avec une électricité parmi les plus décarbonées du monde et une obligation normative sur l’adoption de modèles économes en eau, notre pays figure parmi les meilleurs endroits pour les accueillir. Chaque data center installé ici, c’est un de moins qui tournera au charbon ou au gaz. Car leur nombre ne sera pas infini et qu’il s’agit d’un jeu à somme nulle.

Pauline Denis, ingénieure de recherche « Numérique » du Shift, pointe le risque de conflits d’usage. Selon elle, l’électricité captée par les data centers ne pourra pas servir à décarboner l’industrie. Pourtant, de l’électricité bas carbone, nous en avons plus qu’il n’en faut. La France a ainsi exporté 89 TWh en 2024, alors que ses centrales nucléaires étaient loin d’utiliser leur pleine capacité : 361 TWh, contre 430 en 2005 (418 en excluant Fessenheim).

Même si tous les projets annoncés lors du Sommet de l’IA voyaient le jour (109 milliards d’euros d’investissements), la consommation des data centers n’augmentera que de 25 TWh d’ici 2035, selon le Shift. Soit à peine 28 % de nos exportations actuelles. De quoi préserver, entre autres, la décarbonation des transports. Ainsi, les 40 à 50 TWh prévus pour les véhicules électriques resteraient couverts par notre excédent.

Malgré tout, ce surplus va-t-il vraiment « compromettre notre capacité à décarboner l’industrie » ? Ce pourrait bien être l’inverse. Faute de demande suffisante, nos centrales nucléaires fonctionnent en sous-régime, alors que leurs coûts fixes restent identiques. Résultat : des prix plus élevés qui freinent l’activité industrielle. Car, en réalité, notre consommation d’électricité recule année après année (–14 % en 20 ans), à rebours des scénarios de RTE et du Shift, qui n’en sont pas à une erreur prédictive catastrophiste près. Une hausse de la demande pourrait au contraire faire baisser les prix et enclencher un cercle vertueux d’électrification et de relocalisation.

Alors, vive les data centers made in France ? Toujours pas, selon Pauline Denis. Pour elle, « il faudrait prouver qu’installer 1 GW de data centers en France empêche l’installation d’1 GW ailleurs ». Sérieusement ?

Une longue tradition pessimiste et des scénarios fantaisistes

La méfiance du Shift Project envers le numérique ne date pas d’hier. Mais certaines de ses prédictions arrivent à échéance, et le constat est sévère. Début 2020, il annonçait que la 5G provoquerait 10 TWh de consommation supplémentaire en cinq ans, soit un doublement de toute l’activité des opérateurs français — fixe, mobile et data centers — et 2 % de la consommation nationale en plus. La réalité est toute autre. La hausse a été dix fois moindre et essentiellement liée à l’extension de la couverture en zones blanches, sans lien direct avec la 5G.

Même excès de sensationnalisme avec le streaming. Le Shift a relayé l’idée qu’une heure de visionnage équivalait à 12 km en voiture ou 30 minutes de four électrique. Une estimation huit à cinquante fois trop élevée selon l’IEA. Une erreur massive minimisée par le think tank. Faute d’erratum visible sur la page principale du rapport, le chiffre continue d’être repris dans les médias français.

Le shift : influenceur avant tout

J’approfondis

L’efficacité exponentielle de l’IA

Après ces errements, faire des prévisions sur une technologie aux progrès aussi foudroyants que l’IA semble bien téméraire. Charles Gorintin, cofondateur des start-up Alan et Mistral AI, soulignait déjà en janvier dernier la double révolution du secteur : « l’efficacité des modèles d’IA a été multipliée par 1 000 en trois ans et celle des puces par 100 depuis 2008 ».

En deux mois, une simple mise à jour des drivers a permis à Nvidia de doubler les performances de ses GB200, avec un nouveau gain attendu en décembre, où ils ne seront alors exploités qu’à 42 % de leur capacité (contre 22 % aujourd’hui) ! Le modèle chinois Deepseek V 3.2 a multiplié par 50 en un an la vitesse de l’attention, phase clé de l’inférence (utilisation) qui pèse 40 à 60 % du coût d’une requête. Google mise sur des modèles « QAT » (Quantization-Aware Training), entraînés et utilisés en 4 bits plutôt qu’en 16. De son côté, Alibaba a conçu Qwen3 Next, aussi performant que les géants du secteur, mais capable de tourner sur une seule carte de calcul.

Même en ignorant les évolutions matérielles, les performances des modèles permettent de baisser à vitesse grand V leur consommation de ressources, donc d’énergie et d’émissions de CO₂, à l’entraînement comme à l’utilisation. Des optimisations qui ne sont pas prises en compte par les règles de trois de nos amoureux de la décroissance.

Numérisons les usages !

Le rapport du Shift surprend aussi par le peu d’analyse des externalités positives du numérique. La visioconférence, par exemple, a réduit les déplacements et les émissions associées. Interrogé sur ce point, Maxime Efoui-Hess affirme que « ce n’est pas mesurable » et que « rien ne montre que le numérique a permis de décarboner le monde », puisque « les émissions des pays numérisés augmentent ». Une première erreur, surprenante de la part d’un spécialiste. Les émissions des pays riches, les plus numérisés, baissent depuis 18 ans. Il invoque également l’effet rebond, estimant que « l’on imprime moins de presse, mais [qu’]il y a beaucoup plus de carton pour la livraison ». C’est encore une fois faux, puisque la consommation de papier et de carton a baissé de 26 % en France depuis l’an 2000.

Avoir recours à l’IA permet déjà d’optimiser la consommation énergétique des bâtiments et des processus industriels et de développer de nouvelles solutions pour la transition écologique. Par essence, tous les processus effectués virtuellement, avec une électricité décarbonée, sont moins émetteurs que leurs équivalents physiques. Il faudrait au contraire le scander. La numérisation des usages est la suite logique de leur électrification !

Maxime Efoui-Hess reconnaît à mi-mot que mettre le numérique et l’IA au service de la décarbonation est possible, « à condition de regarder usage par usage si c’est bien pertinent ». On ne sait pas si l’on doit rire d’une telle prétention, ou trembler d’une volonté de contrôle aussi décontractée.

L’article Numériser les usages ! Notre contrepoint au Shift est apparu en premier sur Les Électrons Libres.

  •  

La rumeur qui a fait déborder la Somme !

Au printemps 2001, la Somme est en crue. Tandis que l’eau monte inexorablement, inondant terres et villages, une idée folle émerge… Et si c’était de la faute… des Parisiens ?

Quand, le 9 avril, Lionel Jospin débarque à Abbeville, il est déjà trop tard. Le Premier ministre, attendu de pied ferme, est violemment pris à partie par des riverains furieux. Sur la défensive, il tente maladroitement de balayer la rumeur : « Vous pouvez imaginer que quelqu’un décide, à Paris, d’aller noyer la Somme ? Ça n’a pas de sens ! » Dans la foule, une femme réplique aussitôt : « Il y a sûrement quelque chose qui participe… », exprimant la conviction des sinistrés : Abbeville a payé le prix fort pour que Paris reste au sec.

Car des crues, la Somme en a connues, mais jamais d’identiques. Les anciens l’assurent : « Une telle intensité, on n’avait jamais vu. » Et ce détail qui rend tout suspect : l’eau continue de monter… alors qu’il ne pleut plus. Mystère ? Ou plutôt évidence. Pour les habitants, le scénario est clair. Les politiciens parisiens, paniqués à l’idée de voir la capitale sous l’eau, auraient détourné les flots vers la vallée picarde. Après tout, ce ne serait pas la première fois que la province servirait de variable d’ajustement, non ?

Abracadabrantesque !

Article réservé à nos abonnés.

S'abonner dès 5€/mois

ou

Acheter cet article pour 1,50€

L’article La rumeur qui a fait déborder la Somme ! est apparu en premier sur Les Électrons Libres.

  •  

Le GIEC est-il techno-optimiste ?

À en croire l’historien Jean-Baptiste Fressoz, le groupe III du GIEC, qui évalue les moyens d’atténuer le réchauffement climatique, serait trop « technophile » et sous-estimerait les mesures de sobriété. Un procès à côté de la plaque.

Dans un article récemment paru dans la revue Energy Research & Social Science et dûment relayé par Le Monde du 30 août, l’historien des sciences et chercheur au CNRS Jean-Baptiste Fressoz entend mettre en évidence le biais « technocentrique » qui, selon lui, imprègne tous les rapports du groupe III du GIEC depuis ses débuts en 1990. Ce groupe de travail est chargé de recenser et d’évaluer les solutions d’atténuation du changement climatique qui doivent permettre de réduire les émissions de gaz à effet de serre (GES) et donc limiter autour de 2 degrés la hausse de la température planétaire par rapport aux périodes préindustrielles.

L’auteur estime que ce biais « nourrit un faux optimisme, légitime le soutien aux technologies spéculatives, réduit l’éventail des options politiques viables et retarde les transformations structurelles ». Il juge l’objectif de neutralité carbone visé d’ici 2050-2070 par l’Accord de Paris « technologiquement impossible » et appelle à renoncer à ces « illusions » au profit de mesures de sobriété, de décroissance et de redistribution (qu’il ne détaille pas). Hélas, sa thèse souffre elle-même de nombreux biais.

Méthodologie sémantique indigente

Pour mettre en évidence cette supposée technophilie historique, l’historien a compté les occurrences de différents termes dans les six rapports du groupe III, certains identifiés comme technologiques, d’autres évoquant des actions de réduction de la demande. Dans le dernier rapport paru en 2022, il a ainsi compté 1 096 fois le mot « hydrogène », 1 667 fois « innovation » ou 2 111 fois « technologie », mais seulement 232 fois le terme « sufficiency » (sobriété) et 29 fois « décroissance » ! Pour l’auteur, le déséquilibre est probant, même s’il admet qu’il est moins prononcé que dans les précédents opus. Et de fait, le groupe III a, pour la première fois en 2022, consacré un chapitre aux changements de modes de vie et d’usages et à la sobriété, estimant que ces stratégies pourraient réduire les émissions de 40 à 70 % selon les secteurs. Un virage applaudi par toute la sphère de l’écologie politique. « Le GIEC enterre la stratégie de la croissance verte », s’est notamment réjoui l’économiste décroissant Timothée Parrique.

Le politologue François Gemenne, co-auteur du sixième rapport du GIEC, et confronté à l’historien sur France Inter, a moqué « l’extraordinaire faiblesse d’une méthodologie basée sur le nombre d’occurrences de mots », rappelant que le rapport du GIEC n’était pas, comme le prétendait JB Fressoz, « un guide pour nous aider à sortir du carbone », mais l’état des connaissances scientifiques à un moment précis. « On évalue à la fois l’abondance et la convergence de la littérature sur le sujet. Il est donc logique que les rapports parlent davantage d’énergie solaire ».

De plus, remarque le journaliste scientifique Sylvestre Huet sur son blog Sciences au carré hébergé par Le Monde, « Jean-Baptiste Fressoz confond “beaucoup” et “bien”. Il nous dit que le GIEC est obnubilé par les CSC (capture et stockage du carbone), alors que le GIEC nous alerte surtout sur l’extrême difficulté d’une éventuelle mise en œuvre de cette technologie. Mais pour le savoir, il ne faut pas se contenter de faire compter des mots par un logiciel, il faut lire le texte (qui est long) ». Bim.

In fine, ce comptage de mots ne prouve rien. JB Fressoz démonte même sa propre démonstration en admettant, au détour d’un paragraphe, que « la fréquence d’un terme n’implique pas son approbation », citant le cas de l’hydrogène, très critiqué dans le dernier rapport.

Opposition stérile entre technologies et mesures socio-économiques

Résumer le débat à un affrontement entre techno-solutionnistes et décroissants relève du pur sophisme (voir encart « Le coût, principal frein des technologies de décarbonation »). « Ce n’est pas une technologie générique qui permet de réaliser le potentiel de réduction, c’est une synergie entre des changements techniques précis et des modes de vie et de consommation nécessaires », affirme Sylvestre Huet. D’autant que les leviers socio-économiques d’atténuation du changement climatique sont tout aussi complexes à mettre en œuvre que les techniques de décarbonation — sans même parler de la décroissance, qui fait l’objet d’un profond rejet des populations en plus de reposer sur une littérature imprécise et peu aboutie (voir encart ci-dessous).

La décroissance, une théorie scientifique ?

J’approfondis

Confusion entre faisabilité technique et coût économique

JB Fressoz juge les technologies de décarbonation « spéculatives » et « irréalistes ». « Est-ce que l’on sait faire de l’acier, du ciment, des engrais sans émettre de CO₂ ? Non ! Est-ce que l’on sait faire voler des avions ou faire naviguer des porte-conteneurs sans émettre de CO₂ ? Non. Tous les modélisateurs le savent ! », s’est-il emporté sur France Inter.

Sauf qu’en fait, bien souvent, on sait le faire et on le fait déjà, comme peuvent en témoigner de nombreuses entreprises, tels le fabricant d’engrais bas-carbone FertigHy, le cimentier Lafarge Holcim ou, dans le domaine des CSC, le méga-projet norvégien Northern Lights (TotalEnergies, Equinor et Shell). Les technologies bas carbone existent. Le problème, c’est leur coût, encore nettement plus élevé que pour leurs équivalentes plus émettrices. Ainsi, remplacer toutes les chaudières au gaz d’une collectivité par des pompes à chaleur est techniquement facile mais l’investissement nécessaire est encore dissuasif.

« Le GIEC met parfois en avant des solutions peu ou pas matures, admet le physicien-climatologue et co-auteur du cinquième rapport du GIEC François-Marie Bréon. Mais le solaire ou les batteries ne l’étaient pas il y a vingt ans. Or, on voit aujourd’hui les ruptures technologiques réalisées ». Avec, à la clé, des baisses de coûts spectaculaires et la massification des procédés.

Le coût, principal frein des technologies de décarbonation 

J’approfondis

JB Fressoz se montre particulièrement critique envers la mise en avant par le GIEC des techniques d’émissions négatives comme les CSC (consistant à capturer le carbone rejeté dans l’atmosphère par les centrales thermiques et les usines, puis à l’injecter dans le sous-sol). Le scénario misant sur l’injection, à terme, de 10 milliards de tonnes de CO₂ par an, est-il absurde, comme il le soutient ? Non, répond François-Marie Bréon. Pour lui, la limite à l’essor de ces procédés n’est pas technique, mais politique et économique : « Les CSC coûtent environ 100 euros la tonne. Aucun État n’a un intérêt politique à y consacrer des ressources significatives, car sa population n’en bénéficiera pas directement à court terme, même si la planète en a besoin. Seul un accord international pourra résoudre cette difficulté ».

Un biais « socio-solutionniste » ?

Derrière l’importance que le GIEC accorde à ces techniques, JB Fressoz voit la main des multinationales et de leurs lobbies. Il souligne que le groupe III a, dès sa création, impliqué « de nombreux experts affiliés à l’industrie des combustibles fossiles », citant Total, Exxon, ENI, Mobil Oil, Saudi Aramco, DuPont, Volvo, le World Coal Institute, etc. Et on comprend clairement qu’il le condamne. Selon lui, la participation de ces experts du privé comme co-auteurs « a contribué à façonner le contenu des rapports, notamment en valorisant le rôle des CSC dans les scénarios de neutralité carbone du GIEC ». Une assertion qu’il illustre par une série de retours historiques, insistant sur l’influence exercée par les États-Unis dès 1988. On retrouve ici l’accusation classique de « néolibéralisme » portée par des écologistes radicaux à l’encontre du GIEC, initiée lors d’une réunion du G7 en 1988, sous l’impulsion notable de Margaret Thatcher et de Ronald Reagan.

L’intérêt du GIEC se traduit par un rapport spécial sur les CSC publié en 2005. « Plusieurs auteurs principaux ou réviseurs de ce rapport étaient également employés par des compagnies de charbon, de pétrole, de gaz ou d’électricité », dénonce Fressoz. « De nombreuses références provenaient soit des conférences GHGT (Global Energy Technology Strategy), soit du programme GES de l’AIE, tous deux étroitement liés aux majors pétrolières ». Et alors ? pourrait-on lui répondre, puisqu’il reconnaît lui-même que le groupe III est « majoritairement composé d’experts de la recherche publique ni naïfs ni influençables ».

Le sous-entendu de mise sous influence du groupe III est patent. Il ne cache d’ailleurs pas son rejet viscéral de l’entreprise : « Parfois, écrit-il, le rapport du GIEC ressemble davantage à des brochures de marketing industriel qu’à une évaluation scientifique ». Pour Alexandre Baumann, auteur et créateur d’un blog sur la pseudo-écologie, « le présupposé de Fressoz est que les chercheurs qui travaillent pour une entreprise privée sont forcément inféodés à leurs employeurs, forcément corrompus, et que la recherche privée ne peut traduire que les intérêts capitalistes en présence. Ce double standard sur la science s’inscrit selon moi dans une logique partisane ».

Même si, rappelons-le, le GIEC n’a aucun rôle prescripteur, il doit présenter des solutions jugées crédibles et réalisables. Et comme il fait autorité auprès des gouvernements (et de la communauté internationale en général), on ne peut certes exclure que des groupes d’intérêt cherchent à influencer ses conclusions. Mais face aux risques de pression, sa force réside dans le recours à des centaines d’experts aux opinions et sensibilités différentes, qui évaluent et synthétisent des milliers de travaux (278 auteurs pour 18 000 articles scientifiques en 2022). C’est ainsi que se construit et s’ajuste au fil des années le consensus scientifique le plus complet et le plus rigoureux actuellement disponible sur le climat. Personne ne peut envisager sérieusement d’en exclure les ingénieurs et les chercheurs du secteur privé, qui élaborent et développent ces technologies. Ni de bannir ces dernières au profit d’une hypothétique sobriété. À moins de souffrir d’un regrettable biais « socio-solutionniste » sans fondement scientifique.

L’article Le GIEC est-il techno-optimiste ? est apparu en premier sur Les Électrons Libres.

  •  

Le mythe de l’huile aux hydrocarbures

Des solvants pétroliers dans nos huiles de cuisine ?
Sorti hier, le livre du journaliste Guillaume Coudray, De l’essence dans nos assiettes, dénonce une « contamination générale ». Qu’en est-il vraiment ?

C’est l’histoire d’une salade tranquille. Un peu de vinaigre, une pointe de moutarde, une giclée d’huile de tournesol. Et puis, soudain, la politique et les médias s’invitent dans votre assiette. En plus du journaliste, un député surgit et vous annonce que votre vinaigrette contient… des hydrocarbures. Panique ! Vous imaginez déjà un jerrican de sans-plomb 95 planqué dans votre cuisine. La faute à un mot : l’hexane.

Comment fabrique-t-on une huile ?

Reprenons au début. Extraire l’huile d’une graine, ce n’est pas comme presser une orange. On peut bien sûr l’écraser mécaniquement, mais ça laisse pas mal de gras coincé dedans. Entre 20 et 40 % selon les procédés et les types de produits. Ce qui n’est pas négligeable. Alors, depuis des décennies, l’industrie utilise un solvant, l’hexane, pour « laver » les graines et en récupérer quasiment toute l’huile. Car celle-ci est contenue dans des cellules végétales rigides, ce qui rend son extraction mécanique (par pression) moins efficace que pour des fruits à pulpe aqueuse. Notre hexane est d’ailleurs également présent dans d’autres aliments oléagineux, comme la margarine. Bref.

Une fois le travail effectué, on chauffe, on distille, on évapore.
Résultat : le solvant s’en va, l’huile reste. Dans le jargon, on appelle ça un auxiliaire technologique, à savoir un produit utilisé pendant la fabrication, mais qui n’est pas censé se retrouver dans l’aliment fini. Et si jamais il en reste une trace, c’est en quantité infinitésimale — de l’ordre du milligramme par kilo d’huile, autrement dit l’équivalent d’un grain de sable dans un seau entier.

Et le législateur veille. En Europe, une huile ne doit pas contenir plus d’1 mg d’hexane par kilo. Autrement dit, un litre d’huile — soit près d’un kilo — contient moins d’un milligramme de résidu possible. Pas plus. Mais cela ne suffit pas pour le député MoDem Richard Ramos, habitué de ce genre de combats, tout comme Guillaume Coudray, aperçu dans l’émission Cash Investigation et les colonnes de… Reporterre, médias alarmistes et sensationnalistes. Au printemps dernier, il a déposé une proposition de loi pour faire interdire le suspect, également dans le viseur d’une commission parlementaire. La raison, comme le rappelait Le Point en avril dernier, est que « ces seuils, établis en 1996, sont considérés comme insuffisants par l’Autorité européenne de sécurité des aliments (EFSA), qui alertait, dans une note publiée en septembre 2024, sur la nécessité de réévaluer le produit et ses autorisations. En cause, l’usage par les industriels d’un ‘’hexane technique’’, qui, par opposition à l’hexane pur utilisé en laboratoire, pourrait contenir d’autres produits dangereux. »

Le chiffre qui calme

Entrons dans le vif du sujet : la toxicologie. Les scientifiques s’appuient sur une mesure clé, le NOAEL (No Observed Adverse Effect Level), soit la dose à laquelle aucun effet nocif n’est observé. Pour l’hexane, ce seuil est aujourd’hui estimé à environ 23 mg par kilo de poids corporel par jour, avant son éventuelle réévaluation.

Faisons le calcul ensemble :

  • Pour une personne de 70 kg, ça fait 1 610 mg par jour.
  • Dans une huile conforme à la loi, il y a ≤ 1 mg par litre.
  • Conclusion : pour atteindre le seuil toxique, il faudrait boire plus de 1 600 litres d’huile par jour.

Ce qui nécessiterait une très sérieuse réévaluation du NOAEL pour que la toxicité de votre salade soit établie. Rappelons qu’ingérer plus de 8 litres d’eau pure par jour peut vous conduire rapidement à une sérieuse insuffisance rénale, sans que personne n’envisage l’interdiction de cette source essentielle de vie.

Néanmoins, arrêtons-nous un instant. Cette comparaison, bien que frappante, simplifie la réalité. La toxicologie ne se résume pas à un seuil unique. Par exemple, les effets de l’hexane à long terme, même à très faible dose, sont encore étudiés, notamment pour des expositions répétées via l’alimentation. L’EFSA n’a pas classé l’hexane comme un danger immédiat dans les huiles alimentaires, mais elle recommande une surveillance continue et des données supplémentaires pour mieux évaluer les risques. C’est une démarche scientifique classique : on ne conclut pas sans preuves solides, mais on reste vigilant.

La peur plutôt que les faits

Pourtant, agiter le spectre d’une présence morbide « d’hydrocarbures » dans votre cuisine est davantage le reflet de l’époque que d’un danger certain. Cette idée peut sembler séduisante pour alerter le public, mais elle risque de semer la confusion.

Imaginez un instant : faudrait-il indiquer que les moules ont été nettoyées avec un détergent ? Ou préciser que l’eau du robinet contient des traces de chlore utilisé pour la purifier ?

La présence d’un auxiliaire technologique comme l’hexane ne signifie pas forcément que le produit final est dangereux. Mais il y a un gros bémol : les travailleurs des usines de production d’huile, eux, peuvent être exposés à des vapeurs d’hexane en quantités bien plus significatives. Or, cette exposition prolongée par inhalation peut entraîner des effets neurologiques, comme des maux de tête ou, dans des cas extrêmes, des troubles nerveux. C’est pourquoi les normes de sécurité au travail sont cruciales, et les syndicats comme les ONG soulignent régulièrement l’importance de protéger ces ouvriers. Ce débat-là, moins médiatisé, mérite pourtant autant d’attention que celui sur les étiquettes des bouteilles d’huile.

Le vrai débat

L’hexane n’est pas une fatalité. Il existe des alternatives, comme l’éthanol, le CO₂ supercritique ou des solvants biosourcés comme le 2-méthyloxolane, fabriqué à partir de résidus agricoles. Ces options sont prometteuses, mais elles ne sont pas une baguette magique. Elles impliquent des coûts plus élevés, une consommation énergétique parfois importante et des adaptations complexes des chaînes de production. Par exemple, le CO₂ supercritique nécessite des équipements sous haute pression, ce qui représente un investissement lourd pour les industriels. De plus, ces alternatives doivent être évaluées sur leur cycle de vie. Sont-elles vraiment plus écologiques si elles consomment plus d’énergie ou génèrent d’autres déchets ?

Le défi est donc double : encourager l’innovation vers des procédés plus durables tout en maintenant des prix accessibles pour les consommateurs. Car n’oublions pas un détail : l’huile alimentaire, qu’elle soit de tournesol, de colza ou de soja (l’huile d’olive n’est pas concernée), reste un produit de première nécessité. Une hausse des coûts pourrait peser sur les ménages modestes et fragiliser la souveraineté alimentaire, surtout dans un contexte où les filières agricoles sont déjà sous pression. Ajoutons à cela que l’hexane, malgré son image peu flatteuse, permet de maximiser l’extraction d’huile, réduisant ainsi le gaspillage de ressources. Toute transition devra donc être mûrement réfléchie.

En conclusion

Donc non, votre vinaigrette n’est pas un cocktail toxique explosif ! Mais cela ne signifie pas qu’il faut s’endormir sur ses lauriers. La science évolue, les attentes sociétales aussi. Les consommateurs veulent des produits perçus comme plus « naturels » — même si cela n’a pas toujours de sens — et des industries plus transparentes. Malheureusement, les médias contribuent de plus en plus à brouiller les pistes en amplifiant les craintes, comme nous l’analysons à longueur de temps dans ces colonnes. Alertes sans fondement, chiffres plus symboliques que réels (tels les 211 milliards aux entreprises que nous avons traités hier), idées véhiculées sans analyse de leurs conséquences (comme la taxe Zucman)… les exemples sont légion de dramatisations lucratives mais dangereuses. Un titre accrocheur sur les « hydrocarbures dans votre huile » fait plus cliquer qu’une explication nuancée sur les seuils toxicologiques. Cette fabrique de la peur, souvent alimentée par des raccourcis ou des mots anxiogènes, détourne l’attention des vrais enjeux. Plutôt que de céder à la panique ou de diaboliser une molécule, le vrai défi est de soutenir la recherche et l’innovation pour des procédés plus durables, tout en protégeant les travailleurs exposés.

Alors, la prochaine fois que vous arrosez votre salade d’un filet d’huile de tournesol, pensez-y : ce n’est pas un jerrican d’essence que vous versez dessus, mais le fruit d’un équilibre complexe entre science, industrie et réglementation à un instant T. En espérant que le prochain soit source de progrès.

L’article Le mythe de l’huile aux hydrocarbures est apparu en premier sur Les Électrons Libres.

  •  

Le thon des cantines : faut-il en faire une salade ?

Paris, Lyon, Marseille… Dans plusieurs grandes villes françaises, le thon ne passe plus le portail des écoles. Trop de mercure dans les boîtes, selon deux ONG. Nouvel excès de précaution, ou vrai risque pour la santé des enfants ?

Cette semaine, Nice, Cagnes-sur-Mer et Marseille ont rejoint un collectif de huit villes (Bègles, Grenoble, Lille, Lyon, Montpellier, Mouans‑Sartoux, Paris et Rennes) qui ont décidé de bannir temporairement ce poisson du menu des enfants. Une décision motivée par une enquête publiée en 2024 par les ONG Foodwatch et Bloom, qui révèle des niveaux élevés de mercure dans les conserves analysées. 

Alors, faut-il vraiment bannir un ingrédient aussi banal qu’une boîte de thon ? Un énième excès de zèle a-t-il succédé à un nouvel emballement médiatique ?  Ou l’histoire est-elle un peu plus subtile ?

La mauvaise note du thon en conserve

Aujourd’hui, dans le thon frais, la concentration en mercure est fixée par l’Union européenne à 1 mg par kilo, comme pour d’autres grands prédateurs marins tels que l’espadon, le marlin ou le flétan. Pour les poissons plus petits, comme la sardine, le maquereau ou le merlan, la limite est beaucoup plus stricte : 0,3 mg/kg. Pourquoi une telle différence ? Parce que le thon ne peut pas, et n’a jamais pu, respecter ce chiffre. Au sommet de la chaîne alimentaire, le mercure présent chez ses proies s’accumule dans son organisme. Avec une norme trop stricte, il disparaîtrait purement et simplement des étals. Le chiffre retenu est donc plus politique que sanitaire.

Dans les boîtes de conserve, le problème s’aggrave : la chair perd de l’eau et concentre davantage le mercure. Une boîte peut contenir l’équivalent de 2 à 3 mg/kg, parfois plus. Lors des tests réalisés par les ONG, certaines affichaient jusqu’à 3,9 mg/kg. Près de 13 fois la limite tolérée pour d’autres poissons de consommation courante !

Le phénomène n’est pas nouveau. Une étude américaine a analysé les concentrations en mercure de spécimens de musées capturés il y a près d’un siècle. Celles-ci sont du même ordre qu’aujourd’hui.

Un enfant, une boîte, cas d’école

Prenons le cas extrême d’un enfant de 40 kg qui mange une boîte entière de 150 g de thon, avec une teneur de 3,9 mg/kg (le maximum mesuré). Cela représente environ 0,585 mg de mercure ingéré.

Or, la dose hebdomadaire tolérable (DHT) fixée par l’Autorité européenne de sécurité des aliments (EFSA) est de 1,3 microgramme de mercure par kilo de poids corporel. Pour un enfant de 40 kg, cela correspond à 0,052 mg par semaine.

Une seule boîte suffit pour que cet enfant dépasse la limite… d’un facteur 11.

Le principe de précaution à la rescousse

Face à ce décalage entre normes et réalité, certaines municipalités ont décidé de jouer la carte du principe de précaution. Pour elles, tant que les seuils européens ne tiennent pas compte des conserves, mieux vaut éviter d’exposer inutilement les enfants.

Elles n’ont pas tout à fait tort. Le mercure, et plus encore le méthylmercure qui s’accumule dans les chairs des gros poissons, est un neurotoxique puissant. Chez l’enfant, une exposition élevée ou prolongée peut affecter le développement du cerveau et du système nerveux, ralentir l’acquisition du langage, altérer la mémoire ou la motricité fine. Chez l’adulte, une consommation excessive et répétée peut aussi fragiliser le système cardiovasculaire ou les reins. 

Faut-il s’inquiéter dans nos cuisines ?

Soyons clairs : manger un pan bagnat ou une salade niçoise un dimanche d’été ne met personne en danger immédiat. Le mercure est un contaminant chronique : il s’accumule au fil du temps, surtout si l’on en consomme souvent. Les vrais risques concernent les enfants, les femmes enceintes et les gros consommateurs réguliers de thon.

Pour un adulte qui en mange de temps en temps, le risque reste faible. Mais pour un enfant qui en mange plusieurs fois par mois à la cantine, faire preuve de prudence peut se comprendre.

Ne pas jeter le bébé avec l’eau du bain… ni le poisson avec la boîte

Attention toutefois à ne pas tomber dans l’excès inverse. Tous les poissons ne sont pas logés à la même enseigne. Beaucoup – sardines, maquereaux, saumons, truites – sont à la fois riches en oméga-3 et pauvres en contaminants et jouent un rôle essentiel dans notre équilibre alimentaire.

Ce n’est bien sûr pas parce qu’il y a potentiellement un problème avec le thon en conserve que toute la mer est à proscrire. Priver la population de poissons bénéfiques serait même une grave erreur sanitaire.
L’action des maires est un coup de projecteur politique qui peut pousser Bruxelles à revoir des normes manifestement insuffisantes. Le thon, comme beaucoup d’aliments, doit se consommer avec modération. Mais en attendant une éventuelle révision des règles, rien n’empêche de profiter d’un pan bagnat ou d’une salade niçoise, contrairement à la petite musique que l’on commence à entendre cette semaine.

L’article Le thon des cantines : faut-il en faire une salade ? est apparu en premier sur Les Électrons Libres.

  •  

Ces croyances qui envoient la France dans le mur de la dette

« La France est trop importante, elle ne peut pas faire défaut », « la dette ne se rembourse pas », « il suffit de supprimer les 211 milliards d’aides aux entreprises »… Autant de clichés qui pourrissent le débat et empêchent de regarder la réalité des finances publiques françaises. Débunk.

La première chose qui vous est demandée lorsque vous rejoignez les Alcooliques Anonymes, c’est d’admettre votre problème avec l’alcool. Sans cet aveu, rien n’est possible. À maints égards, il en va de même concernant la réalité de la crise de la dette française : tant que le pays ne reconnaîtra pas qu’elle constitue un sérieux problème, nul salut n’est envisageable pour ses finances. Et l’illusion dangereuse dans laquelle nous vivons se perpétuera…

Car, de cette reconnaissance, nous sommes encore très éloignés. Notamment parce qu’il persiste au sujet de la dette un certain nombre de fausses croyances, abondamment entretenues par le personnel politique et certaines sphères militantes. Soit par manque de culture économique, soit par pur cynisme, parfois pour les deux raisons. Hélas, ces fantasmes délétères rendent impossible l’établissement d’un diagnostic lucide de la situation économique du pays. Si nous persistons à croire qu’il n’y a pas de problème, il est impossible d’y remédier.

Raison pour laquelle nous allons nous atteler à examiner un certain nombre de ces croyances et tenter de débusquer les mensonges qu’elles recèlent.

1 – « Il est impossible que les marchés financiers refusent de prêter à la France tant elle est importante dans la zone euro. »

Ou, dans le même ordre d’idée :

« La France ne peut pas faire défaut, comme ce fut le cas de la Grèce en 2012. »

Ici, la croyance – quelque peu prétentieuse – est dans la singularité d’une France capable de s’affranchir des lois de l’économie. Parce que nous sommes « un grand pays », « l’un des deux principaux moteurs de l’Europe », nous serions à l’abri de la faillite. C’est oublier que d’autres grandes nations, comme le Canada ou la Nouvelle-Zélande, ont connu de violentes crises de la dette auparavant. Mais aussi, plus près de nous, l’Italie, troisième économie de la zone euro, avec des marqueurs assez proches des nôtres au moment du désastre, en 2011*.

Si le défaut de paiement fut loin d’être atteint dans ces trois pays, et d’autres ayant connu des situations analogues, la potion qui leur a été infligée pour résoudre la crise fut extrêmement violente. Nous l’avons déjà montré à partir de plusieurs infographies – que nous reproduisons ici – rappelant les conséquences des mesures prises pour les fonctionnaires, les retraités, les salaires, l’emploi et les entreprises, dont nombre furent confrontées à la faillite.

*Italie 2011 : Dette publique : 116,5 % du PIB (France 113 %) – Déficit budgétaire 2011 : -3,7 % (France -5,7 % en 2024) – Croissance 2011 : +0,6 % (France prévision 2025 : +0,7 %) – Taux de chômage 2011 : 8,4 % (France 7,5 % et 8,5 % prévu en 2026) – Taux d’inflation 2,9 % (France entre 0,9 et 1,5 % selon les sources pour 2025).

Certes, la France est une économie clé de la zone euro. Mais les marchés financiers évaluent le risque sur la base de ratios comme la dette publique (113 % du PIB en 2024 selon l’INSEE) et le déficit budgétaire (5,8 % du PIB). Une dégradation de la solvabilité ou une perte de confiance, comme lors de la crise des dettes souveraines de 2010-2012, pourrait entraîner des hausses de taux d’intérêt (ce qui est déjà le cas) ou un rationnement du crédit, y compris pour la France.

Même si un « scénario à la grecque » est encore lointain, aucun État n’est immunisé contre un défaut souverain. Si la France bénéficie encore d’un large accès aux marchés et conserve le soutien de la Banque centrale européenne (BCE), la montée des taux (passés de 1,6 % pour les remboursements actuels à 3,4 %, voire 3,6 %), couplée à la crise des liquidités que nous connaissons, est franchement de mauvais augure. Et ce, de manière encore plus évidente au regard de l’incapacité du Parlement à s’accorder sur l’adoption d’un budget, dans un contexte d’instabilité politique et de fortes tensions sociales.

2 – « La dette n’aura aucun impact sur moi ! »

Encore raté ! Une crise de la dette a un impact sur tous les citoyens. Nous l’avons vu plus haut, en prenant les exemples du Canada, de la Nouvelle-Zélande et de l’Italie. Nous pourrions aussi évoquer la crise espagnole de 2012, même si celle-ci est autant liée à l’explosion de la bulle immobilière locale qu’à un dérapage des finances publiques. Elle a entraîné une explosion du chômage qui a touché 1 actif sur 4 et un jeune sur 2. Un prélèvement obligatoire de 2 % sur tous les salaires a été imposé pour financer les retraites. Quant aux fonctionnaires, ils ont perdu 8 % de leur pouvoir d’achat. Enfin, les 35 heures des fonctionnaires ont été jetées aux orties, voyant le temps de travail augmenter de deux heures et demie.

Concernant l’Italie, à partir de 2011, un dixième des emplois de la fonction publique a été sabré, tandis que le pouvoir d’achat des fonctionnaires a baissé de 10 % et celui des retraités de 5 %, tandis que l’âge de départ a été repoussé de 4 ans pour atteindre celui de 66.

Les fonctionnaires et les retraités ne sont pas les seuls touchés. Durant les crises financières suédoise de 1992 et canadienne de 1995, les entreprises ont été soumises à rude épreuve, les faillites s’étant accumulées de manière effrayante. Chemin que la France semble désormais emprunter depuis 2024, avec 66 422 dépôts de bilan, selon la BPCE, soit une hausse de 64,5 % par rapport à 2022 et de 18 % par rapport à 2023.

Certes, la dette publique française n’est pas la cause unique de ces faillites. Mais, couplée à l’incertitude politico-économique, elle aggrave les possibilités de financement par la limitation des aides publiques et la hausse des taux d’intérêt, faisant particulièrement souffrir les sociétés ayant contracté des prêts garantis par l’État (PGE), non encore remboursés lors de la pandémie de Covid. Chacun – particulier, entreprise, fonctionnaire – est donc bien impacté par une crise de la dette.

“La notation des agences n’a pas d’impact”, vraiment ?

J’approfondis

3 – « Cela fait 30 ans qu’on nous dit la même chose et regardez, nous sommes toujours en vie ! »

Ici, la croyance est le produit de ce qu’en psychologie on appelle le biais de normalité. Il consiste à nier ou minimiser des avertissements relatifs à un danger, donc à sous-estimer la probabilité d’une catastrophe. En suivant la logique d’un tel raisonnement, toute personne vivante peut se croire immortelle. On retrouve là le fameux « jusque-là tout va bien », popularisé par le film La Haine, faisant le récit des considérations d’un homme chutant d’un précipice sans avoir encore touché le sol.

Certes, la France est toujours « en vie », mais sa dette va progressivement lui coûter très cher, après une période pré-Covid où les taux étaient particulièrement avantageux. Par ailleurs, n’oublions pas que l’histoire progresse par paliers et que les facteurs de crise mettent longtemps à produire leurs effets. Mais lorsque le drame se présente, c’est de manière soudaine et brutale. Cela n’est pas sans rappeler la fameuse citation d’Hemingway : « Comment avez-vous fait faillite ? De deux façons. Progressivement, puis soudainement. » Or, si la France continue patiemment à courir à sa perte, sans changer de trajectoire, elle risque d’y parvenir brutalement.

Particulièrement dans un moment où la charge de la dette atteint un seuil très inquiétant (près de 70 milliards d’euros annuels prévus pour 2026) et ne cesse d’augmenter, tout comme les taux d’intérêt. Ceux de l’obligation française à 30 ans viennent d’ailleurs de franchir les 4,5 %, ce qui est très inquiétant et n’était pas arrivé depuis 2011, date de la crise de la zone euro.

4 – « Pas d’inquiétude, la dette ne se rembourse jamais ! »

Cette croyance, encore reprise dans une tribune publiée dans Le Monde il y a quelques jours, sous la plume d’économistes d’Attac et de la Fondation Copernic, est dangereuse, tant elle est couramment diffusée. Car si la dette totale semble effectivement se perpétuer sans être remboursée, ce n’est qu’une impression. Les États comme la France ne remboursent généralement pas le principal de leur dette de manière massive. Mais ils le font concernant les anciens emprunts arrivés à échéance et en contractent de nouveaux de manière continue.

Cette pratique est standard en économie publique, permettant de maintenir la liquidité sans choc budgétaire immédiat. Problème : plus les taux d’intérêt montent, plus ces échéances et les intérêts à rembourser obligatoirement augmentent. Tant que les taux restaient sous les 2 %, cela semblait soutenable. Mais avec la dynamique actuelle de remontée des taux, conjuguée à un montant de dette global sidérant, cela change la donne en profondeur et grève considérablement les finances publiques et les marges budgétaires.

En résumé : on rembourse les anciens emprunts à taux faible, mais on contracte les nouveaux à des taux plus élevés. Pire, cette situation peut conduire à l’introduction d’une spirale auto-réalisatrice si les marchés financiers perdent confiance, comme l’a illustré la crise italienne de 2011. À l’époque, l’Italie, avec une dette publique autour de 120 % du PIB et une croissance atone, a vu ses taux d’emprunt à 10 ans bondir à plus de 7 %, en raison d’une contagion depuis la Grèce, d’un déficit budgétaire persistant et d’une forte instabilité politique.

Pour la France, un tel épisode pourrait survenir si le ratio dette / PIB dépasse durablement 115 % (projeté à 116 % fin 2025), entraînant une hausse des spreads obligataires (différentiel avec l’Allemagne), qui obligerait l’État à pratiquer des ajustements brutaux. C’est ce que rappellent les avertissements de la Cour des comptes, soulignant notre vulnérabilité accrue aux chocs externes.

Seulement 3 % de déficit ? N’est-ce pas insignifiant ?

J’approfondis

5 – « La dette ne pèse pas sur les enfants, mais finance un patrimoine bénéfique. »

Cette autre croyance, figurant dans la tribune du Monde précitée, est séduisante, car la dette peut financer des actifs productifs. Mais, en réalité, elle sert surtout à couvrir des dépenses courantes. Elle ignore aussi les coûts d’opportunité : des intérêts élevés absorbent des fonds qui pourraient aller à l’éducation ou à la transition écologique.

Avec une durée moyenne de la dette de 8 à 9 ans, les remboursements futurs (via les impôts ou de nouvelles coupes budgétaires) affecteront bien les générations futures. Surtout, les prêts que nous contractons ne financent pas des investissements, mais des dépenses de fonctionnement. En 2023, le manque à gagner de notre système de retraite, évalué à 70 milliards, a ainsi représenté quasiment la moitié du déficit public.

6 – « Avec 211 milliards de cadeaux aux entreprises ces dernières années, on sait où trouver les économies budgétaires ! »

Problème : le chiffre de 211 milliards – soit trois fois le budget de l’Éducation nationale – régulièrement avancé est faux. Il inclut de nombreux financements qui ne vont pas aux entreprises privées ou dépendent de politiques vertueuses. Par exemple, les aides à l’audiovisuel public, aux affaires maritimes, à l’agriculture, aux territoires ultramarins ou aux emplois aidés. Mais aussi des subventions environnementales, et bien d’autres.

Ce chiffre provient d’un rapport du Sénat qui recense plus de 2 200 dispositifs en faveur des entreprises pour l’année 2023. Son montant diverge d’ailleurs d’autres évaluations officielles, comme celle du Haut-Commissariat au Plan, qui trouve 111,9 milliards en adoptant un périmètre plus précis.

Comme l’a expliqué Benjamin Dard dans Franc-Tireur, sans ces aides, « notre économie ne résisterait pas dans la compétition internationale. Depuis les années 1990, l’État tente d’amortir le coût du travail. Pas par idéologie néolibérale, mais parce que, pour financer un modèle social à part, les entreprises françaises ploient sous les charges. C’est même le pays où le coût du travail est le plus élevé, selon l’OCDE. […] Supprimez ce dopage et bon courage pour rester compétitif face à la Chine ou à l’Allemagne. »

Et pourtant, ces aides ne suffisent pas à « remédier aux déséquilibres mondiaux entre puissances », comme l’écrit un rapport de Rexecode (Centre de recherches pour l’expansion de l’économie et le développement des entreprises). D’autant que d’autres grandes nations utilisent les mêmes méthodes avec des montants variables : environ 202 milliards pour l’Allemagne, 181 milliards pour les États-Unis, 335 milliards pour la Chine, qui n’ont pourtant pas les mêmes contraintes liées aux cotisations sociales.

Il n’est donc pas question de cadeaux, mais de dispositifs indispensables pour limiter l’impact de notre modèle social par rapport à celui des autres grandes puissances. La suppression de ces aides viendrait immédiatement renchérir le coût de fonctionnement des entreprises bénéficiaires, ce qui aurait un impact négatif sur leurs résultats et réduirait leur contribution aux finances publiques.

Ainsi, en supprimant ces aides, l’État et les finances publiques seraient sans doute finalement perdants.

Conclusion

Tant que la question de la dette sera publiquement abordée sur le fondement de ces fausses croyances – et d’autres, voir encarts abonnés –, la France continuera à se rapprocher d’une crise majeure dont les remèdes pèseront lourdement sur le portefeuille de chacun de ses citoyens. Et cela, ni les institutions, ni les entreprises, ni les citoyens ne peuvent se le permettre.

L’article Ces croyances qui envoient la France dans le mur de la dette est apparu en premier sur Les Électrons Libres.

  •  

Solaire : l’éclipse espagnole

Le 28 avril 2025, l’Espagne et le Portugal ont basculé dans l’obscurité. En quelques secondes, près de 60 millions d’habitants ont été plongés dans un black-out massif. Transports figés, communications coupées, hôpitaux sous tension : une panne d’une ampleur inédite, qui a mis en lumière les fragilités de réseaux électriques de plus en plus dépendants des énergies renouvelables.

Alors que l’Espagne est un pionnier dans l’adoption des énergies vertes, cet incident a relancé une interrogation brûlante : le photovoltaïque, jadis célébré comme une solution miracle pour la transition énergétique, est-il en train de perdre de son éclat ?

Le black-out ibérique : une crise révélatrice

Ce 28 avril 2025, à 12 h 33, le réseau ibérique s’effondre. Selon Red Eléctrica de España (REE), le gestionnaire du réseau espagnol, une perte soudaine de 15 GW de production, principalement d’origine solaire, a été enregistrée, représentant environ 60 % de la demande nationale à ce moment précis. Elle fait chuter la fréquence à 49,2 hertz (au lieu de 50 hertz). Une série d’arrêts automatiques se déclenche, les interconnexions avec la France et le Maroc se coupent. L’Espagne et le Portugal entrent alors dans une nuit artificielle qui durera de dix à vingt heures selon les régions.

Très vite, une suspicion se porte sur la centrale solaire Nuñez de Balboa, exploitée par Iberdrola. Selon plusieurs fuites relayées par la presse, des anomalies auraient déstabilisé le réseau, provoquant une réaction en chaîne, amplifiée par la forte proportion de sources renouvelables (70 % de l’électricité provenait du solaire et de l’éolien au moment de l’incident). Mais la ministre de la Transition écologique, Sara Aagesen, tempère. Ce ne serait pas un site isolé qui aurait plongé le pays dans le noir, mais bien un enchaînement de défaillances – erreurs de pilotage de Red Eléctrica de España (REE), manque de capacités de secours disponibles, fragilité structurelle d’un réseau saturé d’énergies intermittentes.

Ce black-out a révélé une réalité technique fondamentale : les énergies renouvelables, bien qu’essentielles à la transition énergétique, posent des défis majeurs en termes de stabilité. Contrairement aux centrales thermiques ou nucléaires, les installations solaires et éoliennes n’apportent pas l’inertie électromécanique indispensable au réseau. Dans un système classique, cette inertie vient des masses en rotation – turbines, alternateurs – qui, comme la roue d’un vélo, permettent de continuer à avancer malgré une secousse ou une variation de cadence. Sans elle, la moindre oscillation de fréquence se transforme en choc violent.

Les panneaux solaires produisent du courant continu à partir de la lumière du soleil, ensuite converti en courant alternatif par des onduleurs. Or, ces équipements électroniques n’apportent aucune inertie. Les éoliennes modernes, pour la plupart connectées via des convertisseurs, ne transmettent pas non plus directement l’énergie cinétique de leurs pales au réseau. Résultat : au moment où l’Espagne fonctionnait avec près de 70 % de renouvelables, la moindre anomalie locale a suffi à faire vaciller l’ensemble du système.

Photovoltaïque : de l’euphorie au désenchantement

L’Espagne s’est longtemps enorgueillie d’être championne européenne du solaire. En 2024, les renouvelables représentaient déjà 56 % de son mix électrique, et le pays vise 81 % en 2030. À certaines heures, le photovoltaïque couvre plus de 60 % de la demande nationale. Mais cette réussite est aussi une fragilité.

Le 28 avril, la surproduction solaire atteignait 32 000 MW pour une demande limitée à 25 000 MW. Face à ce déséquilibre, les systèmes automatiques ont déconnecté en cascade des centrales entières, dès que la fréquence sortait de la plage tolérée. Ce n’est pas tant le solaire lui-même qui est en cause que l’incapacité du réseau à absorber des flux aussi massifs et variables. Sans stockage suffisant, sans mécanismes de régulation modernes, la solution du photovoltaïque se mue en problème.

Une panne aussitôt instrumentalisée

À peine les lumières revenues sur la péninsule ibérique, le débat politique s’est enflammé. En Europe, des figures de l’extrême droite comme l’Allemande Alice Weidel (AfD) ou l’Italien Antonio Tajani (Fratelli d’Italia) ont saisi l’occasion pour accuser le Pacte vert d’affaiblir la sécurité énergétique. En Espagne, l’opposition a réclamé le retour du nucléaire comme garantie de stabilité. Le Premier ministre Pedro Sánchez a répondu que les centrales nucléaires s’étaient elles-mêmes arrêtées lors du black-out, et que seules les centrales hydroélectriques et à gaz avaient permis le redémarrage.

Sur le terrain industriel, le jeu des responsabilités a vite tourné à la passe d’armes en mode renvoi de la patate chaude. Iberdrola s’est exemptée de toute faute, REE a incriminé la proportion excessive de renouvelables, tandis que la fédération patronale Aelec a dénoncé l’absence de centrales synchrones pour assurer la stabilité du réseau. La panne a ainsi révélé une évidence. La transition énergétique n’est pas qu’un enjeu technique, c’est aussi un champ de bataille politique et économique.

Le solaire : un pilier indispensable des ENR

Malgré ce désenchantement, nul ne peut se passer du photovoltaïque. Son association avec les batteries lui confère un rôle potentiel dans le lissage de la demande, dont ne peut se targuer l’éolien, à l’intermittence bien moins cyclique et plus imprévisible. Il s’installe vite, nécessite peu d’investissements lourds, ne présente pas de risque industriel majeur et affiche des progrès constants en matière de rendement et de recyclage. Aujourd’hui, les taux de récupération des matériaux (verre, aluminium, silicium) peuvent aller jusqu’à 95 %. Quant aux batteries, elles gagnent en compacité et en durabilité, en plus d’être moins onéreuses et de voir leurs matériaux (lithium, cobalt, nickel) être recyclables à près de 90 % contre moins de 50 % il y a encore dix ans.

Solaire : la France contre-attaque

J’approfondis

Mais l’intégration efficace et sûre du photovoltaïque aux réseaux exige une transformation profonde de ces derniers. L’Agence internationale de l’énergie estime qu’il faudra ajouter ou remplacer 80 millions de kilomètres de lignes électriques dans le monde d’ici 2040 pour atteindre les objectifs climatiques. Et l’Espagne, enclavée derrière les Pyrénées, doit renforcer ses interconnexions avec le reste de l’Europe pour éviter que de futures perturbations locales ne tournent au désastre continental.

Les pistes existent, comme le développement du stockage hydraulique par stations de pompage-turbinage, la production de batteries de grande capacité, mais aussi les innovations technologiques comme l’inertie virtuelle. Ces convertisseurs électroniques de nouvelle génération permettraient aux installations solaires d’imiter le comportement stabilisateur des centrales conventionnelles. Des équipes de recherche, notamment à l’IMDEA Energía, travaillent déjà sur ces solutions, qui nécessiteront des incitations économiques et des réformes réglementaires pour se déployer à grande échelle.

L’Europe en première ligne

L’Union européenne a lancé une enquête indépendante, confiée à l’ENTSO-E et à l’ACER, pour tirer toutes les leçons du black-out ibérique. Les priorités relevées pointent la nécessité de renforcer la résilience des réseaux, d’améliorer la coordination transfrontalière et d’intégrer les renouvelables dans une architecture plus robuste.

Pour l’instant, la France, protégée par son parc nucléaire et ses dispositifs de protection réseau, a échappé à ce genre de pannes. Mais ce répit ne doit pas masquer une tendance de fond : l’Europe entière est confrontée au défi d’une intégration massive des renouvelables sans fragiliser ses systèmes. Le solaire, par son ampleur et son développement rapide, est au cœur de cette équation.

L’avenir de l’énergie française au cœur d’une guerre de chapelles

J’approfondis

Une transition sous tension

L’éclipse espagnole ne signe pas l’échec du photovoltaïque. Elle rappelle que la transition énergétique ne peut se résumer à déployer toujours plus de panneaux ou d’éoliennes sans investissements massifs sur les réseaux, ses mécanismes de régulation et l’innovation technologique.

Si le solaire reste une pièce maîtresse du mix énergétique, il n’a rien d’un miracle au maniement aisé. Le 28 avril en a témoigné. À l’heure actuelle, un simple excès de production peut plonger une large partie d’un continent dans la nuit.

L’article Solaire : l’éclipse espagnole est apparu en premier sur Les Électrons Libres.

  •  

Micro-plastiques, maxi-peurs

« Microplastiques, mégapollution » (Sciences et avenir), « à la maison ou en voiture, vous êtes cernés » (Libération)… Dès qu’une nouvelle étude paraît sur les microplastiques, les titres de presse anxiogènes fleurissent. Pourtant, aujourd’hui, nos connaissances sur le sujet sont bien plus limitées que ne le suggèrent nos confrères.

Ces derniers mois, deux publications parues dans les plus prestigieuses revues médicales mondiales — le New England Journal of Medicine et Nature Medicine — ont relancé les débats. Elles suggèrent que les micros (de 1 µm à 5 mm) et nanoplastiques (< 1 µm) peuvent s’accumuler dans les tissus humains, de nos artères à notre cerveau, et être associés à un excès d’événements cardiovasculaires ou à des atteintes neurologiques. Elles s’ajoutent aux études évoquant des risques au niveau respiratoire en raison d’un possible stress oxydatif, une inflammation chronique, des déséquilibres du microbiote respiratoire et ainsi une possible aggravation de pathologies telles que l’asthme, la bronchite chronique, la fibrose pulmonaire. En France, une étude de l’Université de Toulouse alerte sur la pollution de nos voitures et de nos intérieurs. Idem pour certaines eaux en bouteille, selon l’Office français de la biodiversité (OFB). Qu’en est-il réellement ?

Microplastiques : l’échec politique face à une pollution invisible

J’approfondis

Les microplastiques causent-ils des AVC ?

Dans le New England Journal of Medicine (NEJM), des chirurgiens vasculaires ont analysé des plaques carotidiennes prélevées chez des patients opérés. Ces dépôts, généralement composés d’un mélange de graisses (cholestérol), de cellules inflammatoires, de tissus fibreux et de calcaire, se forment à l’intérieur des deux grosses artères situées de chaque côté du cou. Avec le temps, ils peuvent les rétrécir, réduisant le flux sanguin vers le cerveau, ou se rompre, provoquant un accident vasculaire cérébral.

En analysant ces plaques, les scientifiques ont parfois détecté des micros et nanoplastiques, surtout du polyéthylène et, plus rarement, du PVC. Quand c’était le cas, les patients présentaient, sur trente-quatre mois de suivi, un excès marqué d’événements cardiovasculaires majeurs, avec un risque relatif environ 4,5 fois plus élevé. Mais il s’agit d’une étude observationnelle, qui ne prouve pas la causalité. Surtout, comme le rappellent les auteurs, l’absence de groupe témoin empêche toute conclusion définitive. Les particules observées, de même type, quel que soit le sujet, peuvent aussi provenir de la salle d’opération ou du matériel chirurgical lui-même, souvent en plastique.

Nos cerveaux infiltrés ?

Dans Nature Medicine, des neuropathologistes de l’Université du Nouveau-Mexique ont, pour la première fois, détecté des nanoplastiques dans le cerveau humain post-mortem. Du polyéthylène, dans les trois quarts des cas, mais aussi du polypropylène, du PVC et du polystyrène. Les concentrations mesurées y sont très élevées, 7 à 30 fois plus que dans le foie ou les reins, et elles auraient augmenté de 50 % entre 2016 et 2024 ! Pire, chez les personnes atteintes de démence (Alzheimer ou démence vasculaire), les niveaux cérébraux sont cinq fois supérieurs aux autres !

Mais l’étude présente aussi des limites majeures. Les contrôles destinés à repérer d’éventuelles contaminations sont incomplets : l’eau et les planches à découper en polyéthylène utilisées pourraient constituer des sources de particules, tout comme les lavages des tissus — réalisés différemment pour les cerveaux sains et ceux atteints de démence. La forte proportion de polyéthylène pourrait ainsi refléter une contamination liée à l’utilisation d’une planche à découper en plastique plutôt qu’une accumulation réelle. L’uniformité des types de polymères détectés, quel que soit l’âge ou l’exposition supposée, ne plaide pas non plus en faveur d’une bioaccumulation progressive.

En résumé, si cette étude met en évidence la possible présence de microplastiques dans le cerveau, elle ne permet pas de confirmer ni leur origine, ni un lien causal avec la démence ou d’autres pathologies. Les auteurs eux-mêmes rappellent qu’il faudra des protocoles plus robustes pour lever ces incertitudes.

L’eau en bouteille, la source du mal ?

Reste à comprendre d’où viennent ces particules et dans quelle mesure elles franchissent nos barrières de protection. Début janvier, Le Monde accusait sans nuance l’eau en bouteille, « massivement polluée par des nanoparticules de plastique ». Problème, l’étude à laquelle le journal se réfère, si elle constitue une nouvelle approche prometteuse pour identifier et quantifier les nanoplastiques, est loin d’être sans faille. L’eau de référence utilisée comme témoin contenait d’ailleurs plus de particules que l’eau en bouteille testée !

Le nettoyage du matériel avec cette eau de laboratoire contaminée pouvait par ailleurs augmenter artificiellement la concentration mesurée dans l’eau en bouteille… Difficile, dans ces conditions, de savoir quelle part des particules en proviennent… et de ne pas s’interroger sur la proportionnalité de l’emballement médiatique.

Emballement qui refait surface ces derniers jours avec la mise en cause de Contrex et Hépar par Médiapart, qui dénonce la contamination aux microplastiques de leurs eaux par les décharges sauvages de Nestlé. Laisser du plastique se dégrader dans l’environnement peut effectivement polluer les sols et la nappe phréatique, même si ce processus, très lent, a peu de chances d’avoir lieu en quelques décennies seulement. Il faudra attendre la parution du rapport de l’OFB, sur lequel se fonde l’article, pour en juger.

D’autres sources bien identifiées

Souligner les limites des articles scientifiques et la façon dont ils sont relayés dans les médias ne remet pas en cause la réalité de la présence de ces microparticules dans l’environnement. Un rapport de référence de l’institut néerlandais RIVM pointe trois contributeurs majeurs : l’usure des pneus sur la route (pour le moment augmentée par les voitures électriques, au poids moyen supérieur à celui des voitures thermiques), les granulés industriels qui servent de matière première, et la fragmentation des déchets plastiques. Viennent ensuite les peintures, les textiles et quelques autres usages. Réduire ces flux en amont a des bénéfices documentés pour l’environnement et, possiblement, pour la santé, même si cela reste à prouver. Ces mesures peuvent guider l’action publique, en attendant une évaluation plus précise des risques pour la santé humaine, même si les coûts inhérents à ces décisions doivent être évalués.

Comment freiner les émissions des pneus ?

J’approfondis

Moins médiatisée que l’eau en bouteille, l’inhalation est pourtant une voie d’exposition probable. Les particules et fibres issues des textiles, des matériaux domestiques et des poussières intérieures composent un cocktail auquel nous sommes exposés en continu, notamment dans les espaces clos. Une « revue systématique » parue en 2024 — et plus récemment un article publié en juillet 2025 par une équipe de recherche française —, souligne les larges incertitudes sur les doses réellement inhalées et déposées dans les voies respiratoires, mais confirme que la pollution de l’air intérieur n’est pas à négliger. Là encore, la priorité est de standardiser les méthodes et d’évaluer les risques associés à cette exposition, en fonction des sources de contamination.

C’est également ce que souligne l’OMS dans son dernier rapport sur les expositions par inhalation et par l’alimentation, estimant que les données actuelles sont trop limitées et disparates pour évaluer clairement les risques. Elle appelle à mieux mesurer les expositions réelles, à harmoniser les méthodes d’analyse et à poursuivre l’amélioration des procédés de production d’eau potable, où les enjeux microbiologiques restent prioritaires. Une position de prudence : l’incertitude ne signifie pas l’innocuité, mais elle invite à éviter les conclusions hâtives et alarmistes.

Un air de moins en moins pollué ?

J’approfondis

Des gestes simples, plutôt que des discours alarmistes

Informer sans jouer sur la peur, c’est rappeler qu’un contaminant détecté dans un tissu ne prouve pas qu’il provoque une maladie. Mais aussi qu’on ne peut pas déduire d’un simple comptage de particules dans une bouteille d’eau qu’elles finiront dans notre cerveau. C’est aussi hiérarchiser les priorités. Oui, la pollution plastique exige des mesures fortes pour l’environnement et l’industrie ; oui, les soupçons d’impact sur la santé justifient d’accélérer la recherche et le suivi médical ; mais non, on ne peut pas, à ce stade, établir un lien avec la démence ou donner des conseils médicaux précis. 

Aujourd’hui, hormis une norme « d’attente » trop généraliste et peu pertinente, il n’existe toujours pas de méthode standardisée pour extraire, mesurer et identifier les microplastiques, ce qui rend les études difficilement comparables entre elles. Ce travail est en cours au niveau européen et international, mais il prendra du temps. Or pour informer, il faut s’appuyer sur des études solides, capables de détecter les microplastiques avec rigueur et de limiter les erreurs. Puis expliquer clairement ce que l’on ne sait pas encore — comme la relation dose-effet chez l’humain, l’importance des nanoplastiques par rapport aux microplastiques, ou le rôle des additifs et des autres polluants présents dans le matériau. 

Enfin, mettre en avant les actions qui font consensus. En avril, l’Europe a ainsi adopté un accord pour réduire les fuites de granulés industriels. Elle a également imposé des restrictions dans l’utilisation de microplastiques intentionnellement ajoutés. Reste à essayer de réduire les particules liées à l’usure des pneus et à faire la promotion de gestes simples du quotidien, comme éviter de chauffer des aliments dans des plastiques non prévus à cet usage, privilégier la réutilisation plutôt que le jetable, et si c’est le cas, trier ses déchets. Par contre, privilégier l’eau du robinet ne limite pas forcément l’exposition aux microplastiques, puisqu’elle passe dans des tuyaux qui en sont constitués. 

Tout ceci est moins spectaculaire qu’un titre alarmiste, plus utile pour la santé publique, et plus fidèle à l’état réel des connaissances. Malheureusement, nous assistons à un cercle vicieux. Les médias mettent en lumière les études les plus anxiogènes, au risque d’influencer négativement le comportement des consommateurs et d’alimenter la défiance envers la science, en entretenant la confusion entre hypothèse et certitude. Pour avancer, celle-ci a besoin de temps, de transparence et de sérénité. Surtout pas de frénésie médiatique.

L’article Micro-plastiques, maxi-peurs est apparu en premier sur Les Électrons Libres.

  •  

Pseudo-alternatives à l’acétamipride : le naufrage d’une partie de la presse française

Ces derniers jours, la rengaine tourne en boucle : la réautorisation de l’acétamipride serait un non-sens, car — tenez-vous bien — les rendements en betteraves ne se sont pas effondrés depuis l’interdiction des néonicotinoïdes (NNI). En plus, l’ANSES aurait dévoilé plein d’alternatives à ces poisons ! Hélas, c’est faux.

« Loi Duplomb : les alternatives à l’acétamipride existent” (Reporterre), « aucune alternative à l’acétamipride ? (…) C’est en grande partie faux. » (L’Alsace), « Insectes prédateurs… des alternatives aux néonicotinoïdes existent » (Ouest France)… Cette semaine, une volée d’articles aux titres accrocheurs laisse croire à l’existence de solutions miraculeuses. La palme revenant probablement au journal Le Monde, qui laisse sous-entendre que les conclusions de l’agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail sont sans appel : « Loi Duplomb : des « solutions alternatives efficaces et opérationnelles » à l’acétamipride existent depuis des années, selon l’Anses ».

Une manière de prétendre que les agriculteurs exagèrent. Non contents de nous empoisonner, ils ne font aucun effort pour adopter ces solutions de remplacement ! Mais est-ce si facile de se débarrasser de ces NNI ?

Alternatives ? Vraiment ?

En 2018, l’ANSES a produit un rapport explorant les alternatives aux néonicotinoïdes. Concernant la betterave, la désillusion est réelle :

« Pour lutter contre les ravageurs des parties aériennes, dont les pucerons, sur betterave industrielle et fourragère, aucune alternative non chimique suffisamment efficace et opérationnelle n’a été identifiée. »

Plusieurs pistes sont envisagées : le paillage (le fait de couvrir le sol avec de la paille), dont l’efficacité reste modérée et la mise en œuvre très contraignante ; les rotations culturales, qui ont un impact limité ; ou encore l’association avec des plantes « compagnes », intercalées avec les plants cultivés, et capables de limiter la propagation des ravageurs… Mais au prix d’une concurrence avec la betterave. D’autres options non homologuées sont également évoquées, comme les lâchers de prédateurs des pucerons, les champignons entomopathogènes (capables d’émettre des toxines létales pour les insectes), ou les substances répulsives.

Du côté de la chimie, deux molécules de remplacement sont mises en avant : le flonicamide et le spirotétramate. Le premier est jugé efficace en conditions normales, mais insuffisant face à des infestations massives comme en 2020 ; le second, d’une efficacité plus modérée, nécessite des méthodes complémentaires — et son fabricant n’a pas demandé le renouvellement de son autorisation en 2024.

La conclusion du rapport est d’ailleurs sans appel :
« Cette synthèse conclut qu’il n’y a pas d’alternative réelle à l’enrobage [non réintroduit par la loi Duplomb, NDLR] des semences de betterave avec des néonicotinoïdes, alors que les ravageurs semblent déjà montrer des résistances aux principaux insecticides de substitution par traitement foliaire. »

La mise à jour dudit rapport, en 2021, confirme les limites des ces solutions de remplacement, notamment lorsqu’elles sont utilisées isolément. Les auteurs proposent une approche dite « intégrée » : une combinaison de leviers agronomiques associée à un usage ciblé du flonicamide et du spirotétramate, déjà évoqués en 2018. Mais sa mise en œuvre est complexe, et ces deux molécules sont déjà confrontées à l’émergence de résistances préoccupantes chez les pucerons. Le spirotétramate n’étant d’ailleurs, on l’a vu, plus autorisé en Europe. Vous avez dit « alternatives » ?

Et les rendements dans tout ça ?

Les opposants à la loi Duplomb brandissent un histogramme : depuis la fin des dérogations en 2023, les rendements ne se sont pas effondrés. Preuve que les NNI ne servaient à rien ? Pas si vite.

D’abord, les rendements varient fortement selon les années, en fonction de la météo ou de la pression des pucerons. Par exemple, en 2020, après l’interdiction des NNI (2018), mais avant la fameuse « dérogation betterave » (qui les réautorisa de façon exceptionnelle en 2021 et en 2022), les rendements se sont effondrés à cause notamment d’une véritable invasion de pucerons — coïncidence ? Pas sûr.

Certes, les autres années sans NNI (2019, 2023, 2024) n’ont pas été aussi désastreuses que 2020, mais sur l’ensemble des quatre années sans traitement de semences, les rendements restent nettement en retrait : en moyenne, on perd environ 13 % par rapport aux années avec NNI.

Pour minorer les effets climatiques, on peut comparer avec l’Allemagne, où l’acétamipride est resté autorisé. Résultat : alors que les rendements d’outre-Rhin sont généralement inférieurs aux nôtres (climat oblige), en 2020 et 2024, ils ont dépassé ceux de la France — deux années sans NNI chez nous, mais avec NNI chez eux.

Sources : Zuckerverbaende (Allemagne) et Cultures Sucre (France)

Le cas de la noisette est encore plus radical : depuis l’interdiction des NNI en 2018, les rendements s’écroulent, victimes du balanin, un insecte ravageur contre lequel les alternatives peinent à convaincre.

Que faire alors ?

Les NNI ne sont pas sans défauts. Mais dans certains cas, ils restent les seules solutions réellement efficaces. À terme, la sélection génétique pourrait changer la donne, avec des betteraves résistantes aux virus. Mais la diversité des virus en jeu rend la tâche ardue. Peut-être que les nouvelles techniques d’édition génomique (NGT) offriront une voie de sortie ?

En attendant, prétendre que les NNI ne servent à rien relève plus du slogan militant que de l’analyse technique. Retrouver cette idée exposée sans nuance dans de grands quotidiens français est d’autant plus troublant. Ce parti-pris fait tache, alors qu’ils se posent en garants de la rationalité face à la désinformation parfois colportée par les réseaux sociaux. On imagine aisément qu’au sein des rédactions, le cœur de certains journalistes saigne de voir la réputation de leur institution écornée par de tels raccourcis.

Il y a bien, à ce jour, une alternative à l’acétamipride… l’importation.

L’article Pseudo-alternatives à l’acétamipride : le naufrage d’une partie de la presse française est apparu en premier sur Les Électrons Libres.

  •