Vue normale

Reçu aujourd’hui — 10 octobre 2025

Scanners pédiatriques, pas d’affolement ! 

10 octobre 2025 à 05:22

Faut-il avoir peur des rayons X ? Une vaste enquête nord-américaine relance le débat sur les radiations médicales, évoquant jusqu’à un cancer pédiatrique sur dix lié aux scanners. Radioscopie de conclusions à relativiser.

Il est 22 h à l’hôpital. Un enfant fiévreux et anémié arrive aux urgences, ses parents inquiets redoutent une infection grave. Pour lever le doute, les médecins réalisent un scanner en urgence. L’examen est normal, soulagement général. Mais ce soulagement a un revers invisible : une dose de rayons X administrée à l’enfant. L’utilisation de la tomodensitométrie, plus connue sous le nom de scanner, s’est répandue de manière fulgurante, passant d’environ trois millions d’examens en 1980 à soixante-deux millions au milieu des années 2000 aux États-Unis. En France, on estime qu’environ onze millions de ces examens sont réalisés chaque année. Face à cette explosion, la question des risques liés aux rayonnements refait surface. Une nouvelle étude parue dans The New England Journal of Medicine vient justement de quantifier ce « coût caché » : elle suggère qu’un cas de cancer sur dix chez l’enfant pourrait être attribuable aux radiations mentionnées. Faut-il s’inquiéter d’un chiffre aussi important ? Comment ce risque se compare-t-il aux autres sources de radiation, et que faire pour le réduire sans renoncer aux outils favorisant le diagnostic ?

Des risques réels, mais très relatifs

L’étude nord-américaine a suivi 3,7 millions d’enfants nés entre 1996 et 2016 sur son continent. Les chercheurs ont mesuré la dose de rayonnement reçue par la moelle osseuse, exprimée en milligrays (mGy), qui quantifient l’énergie déposée dans un tissu, et analysé la survenue de cancers hématologiques comme les leucémies et les lymphomes. Leur constat : plus la dose cumulée est élevée, plus le risque croît. Les enfants ayant reçu entre 50 et 100 mGy voyaient leur risque relatif multiplié par environ 3,6. Selon les auteurs, environ 10 % des cancers du sang observés dans cette cohorte pourraient être attribués à l’imagerie. En termes de risque absolu, cela correspondait à une incidence cumulée de 55,1 cancers hématologiques pour 10 000 enfants exposés, contre 14,3 pour 10 000 chez les non exposés, soit un excès de 40,8 cas pour 10 000 enfants (environ 0,4 % supplémentaires). Ces chiffres frappent les esprits, mais ils reflètent un passé révolu : l’étude s’arrête en 2017 et repose sur des scanners souvent installés dans les années 2000, bien plus irradiants que les machines utilisées aujourd’hui. De plus, les grandes études épidémiologiques sont sujettes à des biais, notamment de sélection : les enfants subissant plusieurs scanners sont souvent déjà atteints de maladies graves, ce qui peut exagérer statistiquement le lien entre exposition et cancer.

Ce surrisque n’est pas une réelle découverte. Une étude européenne EPI-CT a déjà analysé plus de 658 000 enfants ayant subi des scanners de la tête, avec une dose moyenne de 38 mGy au cerveau par examen. Elle a recensé 165 tumeurs cérébrales malignes et estime qu’un seul de ces examens pourrait induire, pour 10 000 enfants, un cas supplémentaire de tumeur dans les cinq à quinze années suivantes. L’ASNR indique aussi qu’en France, environ 100 000 ces scanners sont réalisés chaque année chez les enfants de 0 à 15 ans. Si les doses pouvaient être réduites de moitié, l’excès de risque attendu serait très limité (quelques cas supplémentaires sur une décennie), dans un contexte global de milliers de tumeurs survenant spontanément. De quoi relativiser et rassurer les parents inquiets face à des titres parfois sensationnalistes et sans nuance.

Comparer pour comprendre

Pour mieux situer les doses, rappelons que l’exposition naturelle aux rayonnements est en moyenne de 2 à 4 mSv 1 par an, principalement liée au radon présent dans l’air des habitations et aux roches granitiques dans certaines régions comme la Bretagne, où l’irradiation naturelle peut atteindre localement 5 à 7 mSv par an. Les rayons cosmiques contribuent aussi, surtout en altitude ou lors des vols aériens. À titre de comparaison, un vol Nice–New York de six heures représente environ 0,02 mSv, une dose proche de ce que délivre une radiographie pulmonaire. Les aliments comme les fruits de mer apportent une dose très faible et le tabac expose également, mais ces apports restent mineurs comparés au radon. Une radiographie de l’abdomen correspond à environ 0,7 mSv, soit trois à quatre mois d’irradiation naturelle. Un scanner de la tête délivre en moyenne 1,6 à 2 mSv, l’équivalent de huit à dix mois de rayonnement naturel ou 100 longs courriers. Un scanner thoracique adulte est plutôt autour de 6 mSv, soit environ deux ans et demi d’exposition naturelle. Une tomodensitométrie de l’abdomen ou de la colonne lombaire atteint 7 à 8 mSv, soit environ trois années de rayonnement naturel.

La révolution des “basses doses”

La bonne nouvelle, c’est que les machines de 2025 n’ont plus rien à voir avec celles d’il y a vingt ans. On parle désormais de scanners dits « basse dose ». Les innovations permettent de réduire l’irradiation tout en maintenant, voire en améliorant, la qualité des images. On utilise la modulation automatique du faisceau, des filtres adaptatifs, des détecteurs plus sensibles, et des reconstructions d’image assistées par algorithmes ou intelligence artificielle. Certains hôpitaux disposent déjà de scanners à comptage photonique capables de diminuer la dose d’environ 50 % tout en offrant une excellente résolution. Les autorités sanitaires françaises constatent une baisse continue des niveaux de référence diagnostiques entre 2016 et 2021 et encouragent des valeurs encore plus basses pour les enfants.

Malgré tout, pour que les progrès technologiques se traduisent concrètement par une réduction des doses, il est essentiel de renouveler régulièrement les appareils, idéalement tous les cinq à sept ans. Si la tarification des actes techniques est trop compressée, par exemple avec la réduction envisagée de 11 % dans la loi de financement de la Sécurité sociale, cela pourrait ralentir l’investissement dans du matériel moderne et compromettre l’effort de diminution des doses reçues par les patients.

Rassurer sans banaliser

En conclusion pour les parents, le message est rassurant mais demande de rester attentif : un scanner bien paramétré sur une machine récente délivre une dose faible, souvent inférieure ou comparable à l’irradiation naturelle annuelle. Lorsqu’un médecin prescrit un scanner, c’est parce qu’il attend un bénéfice diagnostique majeur. Plutôt que de craindre l’examen, il vaut mieux questionner son utilité, vérifier s’il existe une alternative sans rayons comme avec une échographie ou une IRM et s’assurer que l’appareil est moderne et adapté à l’enfant. Le principe ALARA (« As Low As Reasonably Achievable » ou aussi bas que raisonnablement possible) doit toujours guider la pratique. L’histoire de l’imagerie médicale n’est pas celle de la peur, mais celle du progrès réfléchi. Les scanners d’hier irradiaient beaucoup plus ; ceux d’aujourd’hui, bien utilisés, protègent tout en permettant de voir encore mieux.

  1. Pour interpréter les chiffres, rappelons que le gray (mGy) mesure l’énergie déposée, tandis que le sievert (mSv) intègre la sensibilité biologique des tissus exposés. Le discours public emploie plutôt souvent les mSv pour exprimer le risque de cancer. ↩

L’article Scanners pédiatriques, pas d’affolement !  est apparu en premier sur Les Électrons Libres.

Reçu hier — 9 octobre 2025
Reçu avant avant-hier

Emploi : la nouvelle jeunesse des séniors !

8 octobre 2025 à 19:41

Des boomers de plus en plus geeks, qui dament le pion aux jeunes sur le marché du travail ? Nous n’en sommes pas encore là. Mais un réel progrès en faveur de l’emploi des seniors dans le tertiaire se confirme, notamment grâce à l’entrée dans cette catégorie des premières générations ayant frayé avec les ordinateurs.

Faire du neuf avec du vieux

Imaginez une génération qui a grandi en découvrant, incrédule, les prémices de l’informatique personnelle. Des quinquas qui, enfants, bavaient devant les publicités pour la première console de jeux offrant la possibilité de se démener, manette en main, face au préhistorique « Pong » ; puis, adolescents, ont vu les cafés commencer à se débarrasser de leurs flippers au profit de jeux d’arcade comme Space Invaders, Asteroids, puis Pac-Man et Tetris. La même qui a appris le CD-ROM, puis les délices de ces ordinateurs dépourvus d’O.S., dont il fallait programmer chaque pixel d’action en Basic, puis en Pascal, tel le Sinclair ZX 81. Et ce avant l’arrivée du fameux Atari 520 ST et du premier Mac, avec leur processeur Motorola cadencé à 7,8 MHz et leur RAM figée à… 128 Ko, pour le second.

Deux révolutions qui ont forgé l’avenir de ces ancêtres du travail face aux écrans, alimenté par la navigation sur les logiciels des années 1980 et 1990, et qui, aujourd’hui, apporte une touche d’expérience unique dans un monde boosté par l’intelligence artificielle. En France comme en Europe, les seniors (55-64 ans) redessinent le paysage du travail, particulièrement dans le secteur tertiaire. Leur maîtrise pionnière des outils numériques et leur savoir-être affûté par des décennies d’expérience en font des acteurs précieux pour les entreprises. Bien plus qu’un simple atout, ils incarnent un pont entre tradition et innovation, contribuant à une économie plus équilibrée face au vieillissement démographique.

En France : une vitalité record et un élan numérique

Même si notre pays reste à la traîne par rapport à nos voisins, l’emploi des seniors atteint des sommets historiques : 60,4 % des 55-64 ans étaient actifs en 2024. Un bond de 2 points en un an et de plus de 12,4 points en dix ans ! Le secteur tertiaire, qui regroupe 70 % de ces travailleurs, est leur terrain de prédilection.

Pourquoi un tel engouement ? Cette génération, née entre 1965 et 1975, s’adapte avec aisance aux technologies modernes, y compris l’IA. Comme le souligne France Travail, « L’expertise de ces salariés, dépositaires des savoirs de l’entreprise, se caractérise par une certaine vision stratégique et une capacité de prise de recul forgées au fil des années. »

Mais ce n’est pas tout. Les réformes des retraites et les incitations fiscales encouragent cette dynamique, tout comme le désir des seniors de transmettre leur expertise. Dans les métiers du conseil, de la formation ou des services numériques, 80 % d’entre eux se disent motivés à partager leur savoir. Et ça fonctionne dans les deux sens : les jeunes forment leurs aînés aux dernières innovations technologiques, tandis que les seconds leur offrent fiabilité et sens de la collaboration. Résultat : 63 % des actifs estiment que ce mélange générationnel booste l’innovation tout en renforçant la cohésion des équipes. Un véritable cercle vertueux.

Europe : aussi des promesses

À l’échelle européenne, les seniors ne sont pas en reste. Avec un taux d’emploi dépassant les 75 % (pour les 55-64 ans), des pays comme la Suède et l’Allemagne sont en tête de peloton. Sans doute l’une des raisons ayant conduit la ministre de l’Économie d’outre-Rhin, Katherina Reiche, à envisager de repousser l’âge de départ à la retraite de ses concitoyens à 70 ans, même si ce sont essentiellement des préoccupations budgétaires qui dictent cette volonté.

Là encore, l’exposition précoce à l’informatique joue un rôle clé. Depuis 2010, le nombre de seniors actifs en Europe est passé de 23,8 millions à près de 40 millions en 2023. Dans des pays comme les Pays-Bas, des programmes de mentorat inversé permettent même aux concernés n’ayant pas immédiatement pris le virage du numérique de partager leur expérience tout en se formant aux outils modernes, compensant ainsi les limites de l’IA par leur intuition et leur recul. Car prompter est essentiellement un art du questionnement, dont l’âge est souvent la clé de la maîtrise.

Une idée confirmée par une large étude publiée par le FMI en avril dernier, qui stipule : « Cela suggère que, pour un niveau d’éducation donné, les travailleurs plus âgés peuvent bénéficier davantage de l’adoption de l’IA que les cohortes plus jeunes, car les premiers sont relativement plus concentrés dans les occupations à forte exposition et forte complémentarité. »

C’était… moins bien avant

Contrairement aux salariés nés entre 1940 et 1950, dont le taux d’emploi jusqu’aux années 2010 stagnait entre 40 % et 45 % en raison d’une exposition limitée à l’informatique et de politiques de préretraites massives, la cohorte actuelle gagne de 15 à 20 points.

Cette génération antérieure, souvent perçue comme réfractaire au numérique, subissait une exclusion structurelle, avec peu d’accès aux outils bureautiques émergents. Une analyse confirmée par David Autor et David Dorn, en 2009, dans l’American Economic Review, montrant que les études pointaient cette révolution comme un obstacle soudain à l’adaptation technologique des plus de 55 ans : un âge se présentant, en France, comme une barrière quasi infranchissable dans la quête d’un nouvel emploi après la perte du précédent.

Aujourd’hui, l’entrée précoce sur le marché durant le boom du PC permet une adaptation plus fluide, transformant les seniors en atouts pour l’IA, où leur vision humaine complète l’automatisation. Surtout, comme le précise aussi l’étude du FMI déjà citée : « Plusieurs caractéristiques des emplois à forte exposition à l’IA correspondent aux préférences des travailleurs plus âgés. Au cours des trois dernières décennies, il y a eu une augmentation générale des emplois adaptés à ces personnes, caractérisés par une activité physique moins exigeante, des niveaux de danger au travail plus faibles et un rythme d’activité modéré […] Ces caractéristiques sont attrayantes pour les travailleurs visés et s’alignent avec les gains positifs de leurs capacités cognitives dans le cadre d’un vieillissement en meilleure santé […], d’autant plus que ces emplois exposés à l’IA offrent généralement des revenus plus élevés. »

Ce shift générationnel réduit les discriminations et valorise l’expérience, avec 90 % des seniors engagés dans le transfert de compétences.

Mais tout n’est pas encore rose. Assez logiquement, seul le secteur tertiaire est touché par cette grâce en faveur des grands aînés. Selon la DARES, dans l’agriculture et le secondaire (industrie, construction), la situation de l’emploi des seniors reste très dégradée en France, avec une stagnation ou une baisse relative des effectifs depuis les années 2010. Une tendance observée dans la plupart des pays de l’OCDE. Les travailleurs âgés y sont sous-représentés en raison de la pénibilité physique accrue et des exigences en mobilité, limitant les embauches à moins de 10 % des postes. Cette disparité persiste en 2024-2025 et s’accompagne, dans tous les secteurs, de la subsistance de freins culturels à l’emploi, malgré l’embellie décrite dans cet article. France Travail note d’ailleurs : « Encore trop peu d’entreprises déploient une culture senior friendly. »

Et demain ?

D’ici 2030, l’emploi des seniors dans le tertiaire pourrait atteindre 75 % en France et 80 % en Europe, porté par l’IA et des formations adaptées. Dans des secteurs comme la cybersécurité ou le conseil digital, leur expérience historique devient un atout pour anticiper les disruptions. Les initiatives gouvernementales, comme la valorisation des salariés expérimentés lancée en 2025, promettent de réduire le chômage senior à moins de 5 %, tout en boostant le PIB de 2 à 3 % grâce à une productivité intergénérationnelle.

À voir, tout de même…
Il n’en demeure pas moins que cette génération, pionnière du numérique, ouvre la voie à une économie où l’expérience et l’innovation se nourrissent mutuellement. En créant des espaces de collaboration, comme des comités mixtes, les entreprises peuvent tirer le meilleur de chaque époque.

Les seniors ne sont pas seulement dans le coup. Ils sont au cœur de la transformation, prêts à façonner un avenir où chacun peut trouver sa place sur le marché de l’emploi.*

(Ce qui arrange votre rédacteur en chef, né en 1968, et ayant l’éternelle nostalgie de ses parties de Pong…)

L’article Emploi : la nouvelle jeunesse des séniors ! est apparu en premier sur Les Électrons Libres.

Moustique : sus au tueur né

5 octobre 2025 à 06:04

Paludisme, dengue, chikungunya, Zika… quatre terribles maladies transmises par un même tueur. Grâce aux vaccins, aux biotechnologies ou aux moustiques modifiés, l’humanité peut enfin espérer les éradiquer. Juste à temps, car ce minuscule meurtrier envahit progressivement la France.

Si l’on vous demandait quel est l’animal le plus dangereux pour l’homme, vous penseriez peut-être au requin, au serpent ou au chien. En réalité, l’ennemi public numéro un est minuscule, léger comme une plume et se glisse discrètement dans nos nuits : le moustique.

Derrière son bourdonnement agaçant se cache un tueur de masse. Au cours du dernier siècle, les maladies qu’il transmet — paludisme, dengue, chikungunya, Zika, fièvre jaune — ont causé des dizaines de millions de morts. Aujourd’hui encore, près de 800 000 personnes meurent chaque année après une simple piqûre. C’est deux fois plus que les morts causées… par l’homme lui-même. À chaque lever de soleil, plus de mille familles dans le monde perdent un proche à cause d’un moustique.

Le paludisme : le plus vieux fléau de l’humanité

De toutes ces maladies, le paludisme reste le plus meurtrier. Selon l’OMS, en 2023 on comptait plus de 249 millions de cas dans 85 pays et plus de 600 000 décès, dont près de 80 % d’enfants de moins de cinq ans. Rien qu’en Afrique subsaharienne, toutes les deux minutes, un enfant meurt de cette infection. En Asie du Sud-Est, dans certaines régions d’Amérique latine et en Guyane, le parasite reste endémique, c’est-à-dire qu’il circule en permanence dans la population locale, avec des cas toute l’année ou qui reviennent à chaque saison des pluies, sans jamais disparaître complètement.

Dossier réservé à nos abonnés.

S'abonner dès 5€/mois

ou

Acheter ce dossier pour 1,50€

L’article Moustique : sus au tueur né est apparu en premier sur Les Électrons Libres.

💾

Quand votre équilibre vacille : le mystère des vertiges, de l’oreille interne et du cerveau

4 octobre 2025 à 13:25

chute équilibre vertige

Avec 15 à 30 % de la population concernée en France, les vertiges et les troubles de l’équilibre sont un enjeu de santé publique qui nécessite d’investir dans l’enseignement et dans la recherche.

Interhop, des logiciels libres pour la recherche en santé - « Libre à vous ! » du 16 septembre 2025

254e émission « Libre à vous ! » de l’April. Podcast et programme :

  • sujet principal : InterHop, l’association qui promeut, développe et met à disposition des logiciels libres pour la recherche en santé
  • Jean-Christophe Becquet nous présente une Pépite Libre : « Des données fraîches sur la canicule »
  • Une nouvelle Humeur de Gee : « L’inertie du clavier »

Rendez‐vous en direct chaque mardi de 15 h 30 à 17 h sur 93,1 FM en Île‐de‐France. L’émission est diffusée simultanément sur le site Web de la radio Cause Commune.

Commentaires : voir le flux Atom ouvrir dans le navigateur

Le secteur de la santé devient le nouveau terrain de jeu des faux travailleurs nord-coréens

1 octobre 2025 à 13:47

Selon une étude publiée par l'équipe de recherche d'Okta Threat Intelligence, les travailleurs nord-coréens infiltrés dans les organismes occidentaux ont élargi leur champ d'action. Le secteur de la santé est désormais largement touché par le phénomène.

Soigner en une seule injection ? La révolution CRISPR

30 septembre 2025 à 03:30

Bientôt, plus de cholestérol et même… de VIH ? Après une seule perfusion ? Avec CRISPR, la médecine ne sera plus jamais comme avant.

À l’origine, CRISPR est un mécanisme que les bactéries utilisent pour se défendre contre les virus, en coupant leur ADN. Des chercheurs, dont Emmanuelle Charpentier et Jennifer Doudna, récompensées par le prix Nobel de chimie en 2020, ont adapté ce système pour modifier notre propre ADN avec une précision incroyable. En seulement dix ans, cette technologie est passée des laboratoires aux hôpitaux, en offrant une formidable perspective : celle qui permet de traiter des maladies graves de manière définitive avec… parfois une seule injection. Et ce, en corrigeant directement leur cause dans nos gènes. C’est un espoir immense pour des maladies jusqu’ici jugées incurables. Ce mécanisme fonctionne comme des ciseaux moléculaires guidés par une carte ultra-précise. Ils peuvent couper, remplacer ou ajuster une partie de l’ADN pour réparer un gène défectueux ou en désactiver un qui pose problème.

Cette technologie suit deux grandes approches. La première, dite édition « ex vivo », où l’on prélève des cellules du patient avant de les modifier en laboratoire et de les réinjecter. La seconde est « in vivo » : tout le processus se déroule directement dans le corps, souvent grâce à de minuscules transporteurs appelés nanoparticules lipidiques. Ils livrent l’outil CRISPR là où il faut, comme dans le foie ou d’autres organes. Des versions plus avancées, comme le « base editing » ou le « prime editing », permettent même de faire des modifications ultra-fines sans abîmer l’ADN, réduisant ainsi les risques d’erreurs.

CRISPR, un kaléidoscope de technologies

J’approfondis

Pour mesurer véritablement la portée de cette révolution, rien de plus éloquent que de jeter un œil sur différents essais cliniques ayant éprouvé le principe.

La foire aux essais cliniques !

Il y a encore quelques années, les premiers essais avec CRISPR faisaient la une des journaux comme des exploits rares. Aujourd’hui, le paysage a changé. Environ 250 essais cliniques sur l’édition génétique ont vu le jour, dont 150 sont en cours. Et près de la moitié utilisent CRISPR ! Depuis le tout premier, en 2016, seulement quatre ans après la découverte majeure de Charpentier et Doudna, la technologie a fait un bond incroyable. Ces essais ciblent des maladies variées : cancers, troubles du sang, pathologies cardiovasculaires, infections comme le VIH et maladies rares. L’objectif commun ? Un traitement en une seule fois qui corrige la cause profonde d’un problème, plutôt que de soigner ses symptômes à répétition.

Mais des questions subsistent. Le mécanisme est-il réellement efficace ? Quelle est la durée de ses effets ? Est-ce sans danger ? Et surtout, pourra-t-on rendre ces traitements accessibles à tous ? Des interrogations qui se dissipent au fur et à mesure que les essais cliniques livrent leurs vérités.

En Verve pour réduire le cholestérol

L’essai VERVE-102, mené par Verve Therapeutics, veut révolutionner la lutte contre le « mauvais » cholestérol (LDL), qui bouche les artères et cause des crises cardiaques. En une seule injection, CRISPR désactive un gène appelé PCSK9 dans le foie, ce qui réduit fortement le problème. Les premiers résultats de 2025 montrent une baisse moyenne de 53 % du LDL, et jusqu’à 69 % pour certains patients, sans effets secondaires graves. Si la durabilité des résultats est au rendez-vous, comme l’espèrent les chercheurs, cela pourrait remplacer les médicaments quotidiens pour les personnes à risque, telles celles ayant un cholestérol élevé héréditaire. Prochaines étapes : confirmer que cela reste sûr et efficace sur le long terme, pour en faire un traitement courant.

VIH caché… dévoilé

Le VIH est un virus malin. Même avec des traitements, il se dissimule dans l’ADN de certaines cellules et peut revenir si l’on arrête les médicaments. L’essai EBT-101 d’Excision BioTherapeutics utilise CRISPR pour couper et éliminer ces morceaux de virus cachés. Les premières données montrent une bonne tolérance au traitement, sans rebond important du virus. Mais le vrai défi est de prouver que les patients peuvent arrêter leurs médicaments sans que le VIH revienne. Si cet essai réussit, ce serait une avancée majeure contre une maladie qui touche des millions de personnes. Les chercheurs planchent déjà sur des moyens de rendre le traitement plus puissant et plus facile à produire à grande échelle.

Sus à la drépanocytose

La drépanocytose est une maladie génétique qui déforme les globules rouges, provoquant des douleurs intenses et des complications graves. Avec BEAM-101, Beam Therapeutics propose une solution : prélever les cellules souches du patient, puis utiliser CRISPR pour réactiver un gène qui produit une hémoglobine saine (comme celle des bébés), avant de réinjecter ces cellules. Les résultats de 2025 sur 17 patients montrent une forte hausse de cette hémoglobine (plus de 60 %), moins de complications et une meilleure qualité de vie, sans crises douloureuses. Mais le traitement est complexe et coûteux, nécessitant des hôpitaux spécialisés. L’objectif à long terme est de simplifier le processus pour le rendre accessible à plus de patients, notamment dans les régions où la maladie est courante.

Dire stop à l’amylose

L’amylose à transthyrétine (ATTR) est une maladie où une protéine toxique s’accumule dans le cœur, les yeux, le système nerveux ou les reins, causant de graves problèmes, notamment cardiaques. L’essai NTLA-2001 d’Intellia Therapeutics utilise CRISPR pour désactiver le gène responsable de cette protéine, avec une seule perfusion. Les résultats montrent une chute durable de l’intrus toxique, et l’essai de phase 3, en cours en 2025, vérifie si cela améliore la vie des patients. Moins d’hospitalisations, une meilleure santé cardiaque, une vie plus longue ? Si les réponses sont positives, ce traitement pourrait devenir une référence pour cette maladie grave.

Une statue pour Emmanuelle Charpentier et Jennifer Doudna ?

CRISPR ouvre une nouvelle ère pour la médecine, avec des traitements qui semblaient autrefois de la science-fiction. Des maladies du cœur au VIH, en passant par des troubles génétiques rares, cette technologie promet des solutions durables, souvent en une seule intervention. Si les défis de sécurité, d’efficacité et d’accessibilité sont relevés, elle pourrait changer des millions de vies. L’avenir s’écrit aujourd’hui, et CRISPR en est l’une des plumes les plus prometteuses. De quoi bientôt ériger une statue à la gloire d’Emmanuelle Charpentier et Jennifer Doudna ?

L’article Soigner en une seule injection ? La révolution CRISPR est apparu en premier sur Les Électrons Libres.

Pourquoi les animaux nous rendent-ils heureux ?

28 septembre 2025 à 15:30

Vous aimez les animaux ? Leurs bienfaits sur la santé humaine sont avérés et étudiés depuis longtemps. Améliorant l'humeur et réduisant le stress, la compagnie de nos boules de poils préférées a de multiples bienfaits physiques, mentaux et cognitifs, autant sur les enfants que les personnes âgées.

La science a peut-être craqué le code pour devenir centenaire

26 septembre 2025 à 10:00

Une étude venant de paraître a examiné, pour la première fois, la vieillesse séparément de la maladie. L’étude a porté sur la plus âgée des supercentenaires, une Catalane décédée fin 2024 à l’âge honorable de 117 ans. Un premier pas vers le prolongement, encore, de la longévité de la vie ?

Le nombre de morts dus au cancer devrait fortement s’alourdir d’ici à 2050

Malgré les progrès des traitements et les efforts pour limiter les facteurs de risques, le nombre de nouveaux cas de cancer a plus que doublé depuis 1990, selon une nouvelle étude parue dans The Lancet.

© Isabel Infantes / REUTERS

Pour 2023, les scientifiques donnent une fourchette d’environ 16,4 à 20,7 millions de nouveaux cas.

«Derrière chaque blouse il y a une dignité» : une marche blanche à Paris le 4 octobre pour «défendre la santé publique»

Une trentaine de syndicats et associations appellent à une marche blanche samedi 4 octobre à Paris, pour dénoncer la dégradation du système de santé. Ils réclament notamment la sanctuarisation des budgets.

© Jeff PACHOUD / AFP

Les soignants se sont déjà mobilisés à plusieurs reprises, comme ici en 2021 à l’appel des syndicats. 

Légionellose : trois décès en Haute-Savoie et en Haute-Saône, plusieurs hospitalisations

L’Agence régionale de santé Bourgogne-Franche-Comté a annoncé deux décès dus à la légionellose, au lendemain de la mort d’une personne en Haute-Savoie, où 45 cas ont été détectés.

© Nicolas MAETERLINCK / AFP

Une culture de la bactérie Legionella pneumophila à l’hôpital UZ Gent en Belgique.

Inondations à Marseille : pourquoi marcher dans l’eau est bien plus dangereux qu’on le pense

24 septembre 2025 à 09:57

L'eau a inondé les rues de Marseille, entre le dimanche 21 et lundi 22 septembre 2025. Des habitants ont été filmés en train de prendre toutes les précautions pour ne pas patauger dans l'eau des inondations. Voici pourquoi ils ont eu raison de ne pas patauger dans cette eau, même si le niveau de l'inondation restait près du sol.

Autisme : le Doliprane plonge Trump dans l’effervescence

24 septembre 2025 à 04:27

« N’en prenez pas, n’en prenez pas ! » Pour Donald Trump et son inénarrable Secrétaire d’État à la Santé, Robert F. Kennedy Jr., la prise de paracétamol pendant la grossesse est responsable de l’autisme. Une annonce spectaculaire… et une fake news de plus ?

La crainte ne date pas d’hier. Elle remonte à 2008, quand une première étude suggère un lien possible entre exposition prénatale au paracétamol1 et troubles du spectre autistique. Si l’échantillon — 83 cas et 80 témoins — est trop limité pour en tirer des conclusions solides, la question revient régulièrement depuis. En août 2025, une méta-analyse regroupant 46 études évoque un sur-risque très modeste d’autisme. Mais entre données autodéclarées, mémoire maternelle incertaine aboutissant à des oublis ou des erreurs de déclaration et faibles effectifs, les limites méthodologiques sont nombreuses. Surtout, l’analyse ne permet pas de distinguer l’effet du médicament de celui des fièvres ou des infections qui ont motivé son usage. Or ces infections sont elles-mêmes associées à un risque accru de troubles neurodéveloppementaux.

Vaccins et autisme : la persistance d’un mythe

J’approfondis

L’Association américaine des obstétriciens-gynécologues a immédiatement rappelé que ce type d’étude, entaché de biais majeurs, ne permet en aucun cas d’affirmer une causalité. La littérature scientifique reste limitée et contradictoire, avec moins d’une centaine de travaux. Certaines publications concluent à un sur-risque très faible, d’autres ne trouvent aucun lien. Quelques-unes vont même jusqu’à suggérer un effet protecteur.

Pourtant, une étude de grande ampleur existe. Menée en Suède sur près de 2,5 millions d’enfants, elle montre que les femmes ayant pris du paracétamol n’ont pas plus d’enfants autistes que les autres. Sa force tient à sa taille exceptionnelle, à la qualité des registres nationaux de santé et à l’ajustement possible par de nombreux facteurs familiaux et médicaux. Bien plus solide que les plus petits travaux, elle tend à écarter l’hypothèse d’un lien direct entre paracétamol et autisme.

Toutes ces interrogations sont aussi motivées par l’apparente explosion des cas, puisqu’il y aurait aujourd’hui dix fois plus d’enfants concernés que dans les années soixante-dix. Une hausse qui s’explique par l’élargissement progressif des critères de diagnostic. Des profils autrefois exclus sont désormais intégrés dans le spectre de l’autisme. Grâce à une meilleure sensibilisation des familles et des professionnels, les signes sont plus facilement repérés, le dépistage est plus précoce et plus systématique. Enfin, des formes légères, longtemps passées inaperçues, sont aujourd’hui reconnues. S’y ajoutent des évolutions démographiques, comme l’âge plus avancé des parents et l’amélioration de la survie des enfants à risque. Autrement dit, il y a davantage d’autistes diagnostiqués, mais pas nécessairement plus de chances de l’être.

La fake news du paracétamol contaminé par un virus mortel

J’approfondis

Il importe de garder une rigueur scientifique irréprochable, sans se laisser guider par des biais cognitifs. Que Donald Trump ait instrumentalisé le sujet ne doit pas conduire à écarter toute hypothèse d’emblée. La recherche doit se poursuivre méthodiquement, loin des emballements médiatiques. Mais aujourd’hui, ses déclarations n’ont aucune base scientifique solide.

Le paracétamol reste l’antalgique de référence pendant la grossesse, à condition de l’utiliser à la dose minimale efficace et sur une durée limitée. Certaines femmes enceintes pourraient être tentées, par sécurité, de se passer de médication. Mais l’inaction n’est pas sans risques : une fièvre maternelle non traitée représente un danger bien réel pour la mère et son enfant. C’est toute la tragédie de ce chimérique combat trumpien, qui pourrait engendrer des drames bien réels.

Aucun lien d’intérêt à déclarer en lien avec cet article.

1    Le médicament est appelé acétaminophène en Amérique du Nord et vendu sous le nom de Tylenol®, équivalent du Doliprane® ou de l’Efferalgan®.

L’article Autisme : le Doliprane plonge Trump dans l’effervescence est apparu en premier sur Les Électrons Libres.

Vrai ou faux : le paracétamol est-il vraiment dangereux pour les femmes enceintes, comme l’affirme Trump ?

23 septembre 2025 à 13:20

Ce 22 septembre 2025, le président américain a affirmé haut et fort à la télévision que le Tylénol, l'équivalent du paracétamol en France, était dangereux pour les femmes enceintes. Mais, qu'en est-il réellement selon les scientifiques ?

Les PFAS, des polluants moins « éternels »

22 septembre 2025 à 04:29

Êtes-vous en danger à cause des boîtes à pizza ou des pailles en papier ?
Dans le collimateur de l’Europe et de la France, les PFAS, dits « polluants éternels », sont partout, ou presque. Quels sont vraiment les risques ? Et quelles solutions pour demain ?

Les PFAS constituent une vaste famille de composés synthétiques – entre 4 000 et 10 000 molécules distinctes – caractérisée par une extrême stabilité chimique. Cette persistance, qui peut atteindre plusieurs centaines d’années pour certains composés, s’explique par la solidité de la liaison carbone-fluor qui les caractérise, l’une des plus fortes en chimie organique, capable de résister aux rayonnements UV et aux conditions naturelles. Cette architecture crée une liaison très stable, qui confère aux PFAS de nombreux atouts. Ils présentent une grande stabilité dans le temps, un fort pouvoir antiadhérent, une excellente résistance à la chaleur et aux produits chimiques, et une rare capacité à repousser l’eau comme les graisses. Ce rôle transversal explique leur succès… et la difficulté de s’en passer trop brutalement.

Hélas, ils se dispersent facilement dans l’air, les sols et les eaux, ce qui accroît leur potentiel de contamination. Logique, puisque leur caractère bioaccumulable favorise leur concentration dans les écosystèmes et leur transfert dans la chaîne alimentaire.

À titre d’exemple, les PFAS utilisés comme agents d’imperméabilisation ou antitaches pour les textiles sont progressivement libérés lors des lavages et rejoignent les eaux usées. Ils peuvent également exposer l’utilisateur par contact cutané. Les emballages alimentaires constituent une autre source d’exposition. De nombreux produits en papier/carton, tels que les boîtes à pizza, les pailles en papier ou certains contenants jetables, peuvent être traités aux PFAS afin de résister à l’eau, aux graisses et à la chaleur. Cette utilisation favorise leur migration vers les aliments, en particulier lorsque ceux-ci sont chauds ou gras, ce qui entraîne une exposition du consommateur.

Dans le cas des PFAS utilisés pour fabriquer des matériaux polymères, comme le Téflon, la dispersion dans l’environnement se produit principalement au moment de la production des molécules qui les constituent, plutôt qu’au cours de leur utilisation. Votre poêle Tefal n’est donc pas dangereuse à l’usage, mais lors de sa fabrication, contrairement à l’idée reçue qui entoure cet outil de cuisine. Les modes de rejet et de pollution de l’environnement dépendent donc fortement de l’utilisation des PFAS.

Leur formidable stabilité chimique a toutefois un revers de taille. Les éliminer est un vrai casse-tête lorsqu’ils se retrouvent disséminés dans l’environnement. La raison en est simple : ces molécules n’existent pas dans la nature, d’où l’absence d’enzymes en capacité de les dégrader…

Pendant longtemps, les seules solutions pour en limiter la dissémination ont consisté à les filtrer ou à les confiner, sans pouvoir les faire disparaître. Aujourd’hui, si nul remède miracle et facile à mettre en œuvre n’existe encore, industriels, entrepreneurs et chercheurs explorent ensemble des issues technologiques capables de détruire, voire de recycler, ces molécules.

PFAS : une pollution persistante et préoccupante pour l’environnement et la santé

J’approfondis

Oxyle : rompre l’indestructible liaison !

Parmi les start-up européennes qui s’attaquent de front aux résidus de PFAS, Oxyle fait figure de pionnière. Née à Zurich (Suisse), elle développe une technologie de destruction basée sur un catalyseur nanoporeux piézoélectrique. Le principe est aussi élégant que redoutable : lorsque de l’eau contaminée passe sur ce matériau, simultanément soumis à une stimulation mécanique, le catalyseur génère des charges électriques transitoires, des micro-impulsions qui suffisent à rompre la fameuse liaison carbone-fluor, pourtant réputée indestructible.

Résultat : les PFAS sont progressivement décomposés en molécules minérales, comme du dioxyde de carbone et du fluorure. Selon la jeune entreprise, sa technologie en élimine « plus de 99 % ». Mieux encore : cette solution aurait une consommation énergétique « jusqu’à 15 fois inférieure » aux procédés traditionnels, affirme Oxyle.
La société indique pouvoir équiper aussi bien des unités industrielles que des installations de traitement d’eaux souterraines ou rejetées par les municipalités. Elle a déjà mené plusieurs expériences pilotes en Suisse et en Europe, avec l’ambition de traiter au moins 100 millions de mètres cubes dans les cinq prochaines années.

Prometteuse, la solution d’Oxyle est en voie d’industrialisation, même si des écueils demeurent. Son efficacité varie sensiblement selon la qualité de l’eau, comme le reconnaît volontiers l’entreprise. Car la présence de matières organiques et de co-polluants peut altérer la performance. Et sur des rejets très dilués, une étape de préconcentration en amont s’avère souvent nécessaire. À suivre.

Haemers Technologies : détruire les PFAS dans les sols

Quand on parle de PFAS, on pense souvent à leur présence dans l’eau. Mais une part importante du problème se cache dans les sols, les boues et les sédiments. C’est sur ce terrain que veut s’imposer Haemers Technologies, une start-up belge spécialiste du procédé thermique de dépollution. Son approche repose sur un principe simple : chauffer le sol par conduction thermique pour faire migrer les polluants, puis les détruire aussitôt dans une unité de traitement couplée, sans générer de « résidus secondaires ».

Concrètement, l’entreprise déploie sur site des électrodes ou des puits chauffants qui élèvent la température du sol, entraînant la désorption des PFAS. Les composés volatilisés sont ensuite aspirés et dirigés vers un dispositif de post-traitement à haute température, où ils sont oxydés. Haemers revendique une destruction totale de ces molécules, aussi bien in situ (sans devoir faire d’excavation) qu’ex situ (après extraction du sol pollué).

Cette technologie se distingue par sa capacité à traiter efficacement les PFAS directement sur les sites contaminés, ce qui en fait une solution plug-and-play pour la dépollution des sols. Des essais pilotes ont déjà été réalisés, au Danemark notamment.

La voie thermique de Haemers n’est toutefois pas sans contraintes. Chauffer des volumes de sol importants reste un processus énergivore et coûteux. Par exemple, pour l’in situ, la société indique que la consommation d’énergie « descendrait aux alentours de 200 kWh par tonne de sol ». Quant à l’ex situ, il est nettement plus onéreux. Se pose aussi la question du bilan carbone de ces opérations de dépollution, qui dépend beaucoup de la qualité du mix énergétique des pays dans lesquels elles seront envisagées.

Oxford : et si on recyclait le fluor ?

Du côté de l’Université d’Oxford, une autre approche est proposée : le recyclage en amont des PFAS, au lieu de les détruire. Une solution qui permettrait de les traiter « à la source », en intervenant avant leur dispersion dans l’environnement, pour en récupérer le fluor sous la forme de sels réutilisables. Un dispositif pouvant s’avérer complémentaire des deux technologies précédentes dites « de dépollution ».

Les équipes de chimistes du campus ont mis au point, au printemps 2025, une méthode inédite reposant sur la mécanochimie. Au lieu d’utiliser de la chaleur ou des solvants, elles détruisent les PFAS solides, en présence de sels de phosphate de potassium, dans un simple broyeur à billes. Ce processus mécanique génère l’énergie nécessaire pour rompre les liaisons carbone-fluor, décidément de moins en moins « indestructibles ».

Le fluor libéré est capté sous forme de sels inorganiques (fluorure de potassium et fluorophosphate), directement réutilisables dans l’industrie chimique. Le phosphate servant d’agent réactif est lui aussi recyclé, ce qui rend le procédé circulaire. Il ne se contente pas d’éliminer la pollution, il revalorise une ressource stratégique, en transformant des déchets solides contenant des PFAS en une nouvelle source de fluor pour l’économie.

Selon les chercheurs d’Oxford, la méthode est applicable à une large gamme de PFAS : les acides (comme le PFOA), les sulfonates (PFOS), mais aussi les polymères fluorés un peu plus complexes tels que le PTFE ou le PVDF. L’expérience se déroule à température et pression ambiantes, avec un équipement simple et non énergivore.

Cette solution reste néanmoins au stade de l’expérimentation, avec des essais réalisés sur de petits lots de PFAS. Quant au potentiel passage au niveau industriel, il doit encore être démontré. En outre, le procédé vise surtout des flux solides et concentrés. Pour des PFAS de type résines, mousses ou polymères, il sera préalablement nécessaire de les capter et de les sécher avant de les passer au broyage.

PFAS : un encadrement qui se durcit en France et en Europe

J’approfondis

Si pour certains les PFAS auront marqué notre époque comme la chimie du progrès, et pour d’autres comme celle de l’empreinte « indélébile » des activités humaines, la science, l’ingénierie et l’imagination refusent de se laisser enfermer dans une quelconque fatalité. Même si elles ne couvrent pas tous les cas de figure et ne sont pas des « baguettes magiques », les pistes présentées ouvrent des portes et autorisent à penser que l’éternité des PFAS n’a pas forcément vocation à durer…

La sortie par le haut passera donc par un mix entre une réduction à la source et une substitution lorsque c’est possible. Mais aussi par le traitement des flux de production, la destruction ou le recyclage lorsque c’est pertinent, et bien sûr par la transparence et le suivi des résultats.

L’article Les PFAS, des polluants moins « éternels » est apparu en premier sur Les Électrons Libres.

Pourquoi le sens de l’orientation déraille chez certaines personnes

21 septembre 2025 à 11:32

sens de l'orientation

Vous êtes plutôt du genre à vous repérer partout dès la première fois, ou à encore sortir le GPS après plusieurs années dans le même quartier ? Ah ! le fameux « sens de l’orientation » ! On entend souvent que les femmes en manqueraient, tandis que les hommes posséderaient « un GPS intégré ». Mais la réalité est beaucoup plus subtile… Alors, d’où vient ce « sens de l’orientation », et pourquoi diffère-t-il tant d’une personne à l’autre ?

Le mythe de l’huile aux hydrocarbures

19 septembre 2025 à 04:09

Des solvants pétroliers dans nos huiles de cuisine ?
Sorti hier, le livre du journaliste Guillaume Coudray, De l’essence dans nos assiettes, dénonce une « contamination générale ». Qu’en est-il vraiment ?

C’est l’histoire d’une salade tranquille. Un peu de vinaigre, une pointe de moutarde, une giclée d’huile de tournesol. Et puis, soudain, la politique et les médias s’invitent dans votre assiette. En plus du journaliste, un député surgit et vous annonce que votre vinaigrette contient… des hydrocarbures. Panique ! Vous imaginez déjà un jerrican de sans-plomb 95 planqué dans votre cuisine. La faute à un mot : l’hexane.

Comment fabrique-t-on une huile ?

Reprenons au début. Extraire l’huile d’une graine, ce n’est pas comme presser une orange. On peut bien sûr l’écraser mécaniquement, mais ça laisse pas mal de gras coincé dedans. Entre 20 et 40 % selon les procédés et les types de produits. Ce qui n’est pas négligeable. Alors, depuis des décennies, l’industrie utilise un solvant, l’hexane, pour « laver » les graines et en récupérer quasiment toute l’huile. Car celle-ci est contenue dans des cellules végétales rigides, ce qui rend son extraction mécanique (par pression) moins efficace que pour des fruits à pulpe aqueuse. Notre hexane est d’ailleurs également présent dans d’autres aliments oléagineux, comme la margarine. Bref.

Une fois le travail effectué, on chauffe, on distille, on évapore.
Résultat : le solvant s’en va, l’huile reste. Dans le jargon, on appelle ça un auxiliaire technologique, à savoir un produit utilisé pendant la fabrication, mais qui n’est pas censé se retrouver dans l’aliment fini. Et si jamais il en reste une trace, c’est en quantité infinitésimale — de l’ordre du milligramme par kilo d’huile, autrement dit l’équivalent d’un grain de sable dans un seau entier.

Et le législateur veille. En Europe, une huile ne doit pas contenir plus d’1 mg d’hexane par kilo. Autrement dit, un litre d’huile — soit près d’un kilo — contient moins d’un milligramme de résidu possible. Pas plus. Mais cela ne suffit pas pour le député MoDem Richard Ramos, habitué de ce genre de combats, tout comme Guillaume Coudray, aperçu dans l’émission Cash Investigation et les colonnes de… Reporterre, médias alarmistes et sensationnalistes. Au printemps dernier, il a déposé une proposition de loi pour faire interdire le suspect, également dans le viseur d’une commission parlementaire. La raison, comme le rappelait Le Point en avril dernier, est que « ces seuils, établis en 1996, sont considérés comme insuffisants par l’Autorité européenne de sécurité des aliments (EFSA), qui alertait, dans une note publiée en septembre 2024, sur la nécessité de réévaluer le produit et ses autorisations. En cause, l’usage par les industriels d’un ‘’hexane technique’’, qui, par opposition à l’hexane pur utilisé en laboratoire, pourrait contenir d’autres produits dangereux. »

Le chiffre qui calme

Entrons dans le vif du sujet : la toxicologie. Les scientifiques s’appuient sur une mesure clé, le NOAEL (No Observed Adverse Effect Level), soit la dose à laquelle aucun effet nocif n’est observé. Pour l’hexane, ce seuil est aujourd’hui estimé à environ 23 mg par kilo de poids corporel par jour, avant son éventuelle réévaluation.

Faisons le calcul ensemble :

  • Pour une personne de 70 kg, ça fait 1 610 mg par jour.
  • Dans une huile conforme à la loi, il y a ≤ 1 mg par litre.
  • Conclusion : pour atteindre le seuil toxique, il faudrait boire plus de 1 600 litres d’huile par jour.

Ce qui nécessiterait une très sérieuse réévaluation du NOAEL pour que la toxicité de votre salade soit établie. Rappelons qu’ingérer plus de 8 litres d’eau pure par jour peut vous conduire rapidement à une sérieuse insuffisance rénale, sans que personne n’envisage l’interdiction de cette source essentielle de vie.

Néanmoins, arrêtons-nous un instant. Cette comparaison, bien que frappante, simplifie la réalité. La toxicologie ne se résume pas à un seuil unique. Par exemple, les effets de l’hexane à long terme, même à très faible dose, sont encore étudiés, notamment pour des expositions répétées via l’alimentation. L’EFSA n’a pas classé l’hexane comme un danger immédiat dans les huiles alimentaires, mais elle recommande une surveillance continue et des données supplémentaires pour mieux évaluer les risques. C’est une démarche scientifique classique : on ne conclut pas sans preuves solides, mais on reste vigilant.

La peur plutôt que les faits

Pourtant, agiter le spectre d’une présence morbide « d’hydrocarbures » dans votre cuisine est davantage le reflet de l’époque que d’un danger certain. Cette idée peut sembler séduisante pour alerter le public, mais elle risque de semer la confusion.

Imaginez un instant : faudrait-il indiquer que les moules ont été nettoyées avec un détergent ? Ou préciser que l’eau du robinet contient des traces de chlore utilisé pour la purifier ?

La présence d’un auxiliaire technologique comme l’hexane ne signifie pas forcément que le produit final est dangereux. Mais il y a un gros bémol : les travailleurs des usines de production d’huile, eux, peuvent être exposés à des vapeurs d’hexane en quantités bien plus significatives. Or, cette exposition prolongée par inhalation peut entraîner des effets neurologiques, comme des maux de tête ou, dans des cas extrêmes, des troubles nerveux. C’est pourquoi les normes de sécurité au travail sont cruciales, et les syndicats comme les ONG soulignent régulièrement l’importance de protéger ces ouvriers. Ce débat-là, moins médiatisé, mérite pourtant autant d’attention que celui sur les étiquettes des bouteilles d’huile.

Le vrai débat

L’hexane n’est pas une fatalité. Il existe des alternatives, comme l’éthanol, le CO₂ supercritique ou des solvants biosourcés comme le 2-méthyloxolane, fabriqué à partir de résidus agricoles. Ces options sont prometteuses, mais elles ne sont pas une baguette magique. Elles impliquent des coûts plus élevés, une consommation énergétique parfois importante et des adaptations complexes des chaînes de production. Par exemple, le CO₂ supercritique nécessite des équipements sous haute pression, ce qui représente un investissement lourd pour les industriels. De plus, ces alternatives doivent être évaluées sur leur cycle de vie. Sont-elles vraiment plus écologiques si elles consomment plus d’énergie ou génèrent d’autres déchets ?

Le défi est donc double : encourager l’innovation vers des procédés plus durables tout en maintenant des prix accessibles pour les consommateurs. Car n’oublions pas un détail : l’huile alimentaire, qu’elle soit de tournesol, de colza ou de soja (l’huile d’olive n’est pas concernée), reste un produit de première nécessité. Une hausse des coûts pourrait peser sur les ménages modestes et fragiliser la souveraineté alimentaire, surtout dans un contexte où les filières agricoles sont déjà sous pression. Ajoutons à cela que l’hexane, malgré son image peu flatteuse, permet de maximiser l’extraction d’huile, réduisant ainsi le gaspillage de ressources. Toute transition devra donc être mûrement réfléchie.

En conclusion

Donc non, votre vinaigrette n’est pas un cocktail toxique explosif ! Mais cela ne signifie pas qu’il faut s’endormir sur ses lauriers. La science évolue, les attentes sociétales aussi. Les consommateurs veulent des produits perçus comme plus « naturels » — même si cela n’a pas toujours de sens — et des industries plus transparentes. Malheureusement, les médias contribuent de plus en plus à brouiller les pistes en amplifiant les craintes, comme nous l’analysons à longueur de temps dans ces colonnes. Alertes sans fondement, chiffres plus symboliques que réels (tels les 211 milliards aux entreprises que nous avons traités hier), idées véhiculées sans analyse de leurs conséquences (comme la taxe Zucman)… les exemples sont légion de dramatisations lucratives mais dangereuses. Un titre accrocheur sur les « hydrocarbures dans votre huile » fait plus cliquer qu’une explication nuancée sur les seuils toxicologiques. Cette fabrique de la peur, souvent alimentée par des raccourcis ou des mots anxiogènes, détourne l’attention des vrais enjeux. Plutôt que de céder à la panique ou de diaboliser une molécule, le vrai défi est de soutenir la recherche et l’innovation pour des procédés plus durables, tout en protégeant les travailleurs exposés.

Alors, la prochaine fois que vous arrosez votre salade d’un filet d’huile de tournesol, pensez-y : ce n’est pas un jerrican d’essence que vous versez dessus, mais le fruit d’un équilibre complexe entre science, industrie et réglementation à un instant T. En espérant que le prochain soit source de progrès.

L’article Le mythe de l’huile aux hydrocarbures est apparu en premier sur Les Électrons Libres.

La startup Orchid Health promet le bébé idéal grâce à l’IA et la génomique

16 septembre 2025 à 07:20

L'économie de la génétique a le vent en poupe dans la Silicon Valley. La startup Orchid Health permet ainsi de trier ses embryons pour faire des bébés « parfaits ».

❌