Dans un article publié le 29 septembre 2025 dans la revue PNAS, des scientifiques dévoilent des preuves chimiques datant de plusieurs millions d'années qui signeraient la présence d'éponges sur Terre bien avant le développement d'autres formes de vie complexes.
Chaque année, au moins un « lauréat des citations », une sélection de chercheurs annoncée quelques semaines avant les Nobel, décroche la récompense suprême. Trois Français figuraient parmi ces 22 noms.
En 1888, les journaux français confondent l’inventeur de la dynamite avec son frère, décédé à Cannes. Mais cet épisode a-t-il vraiment incité l’entrepreneur de génie à léguer sa fortune pour récompenser chaque année des bienfaiteurs de l’humanité ?
Il reçoit la récompense avec le Britannique John Clarke et l’Américain John Martinis, pour des travaux qui permettent de mettre au point des puces innovantes pour de futurs ordinateurs quantiques.
Décédée à l'âge de 91 ans le mercredi 1ᵉʳ octobre 2025, Jane Goodall a bouleversé notre compréhension de l'humanité en 1960 après une découverte majeure sur les chimpanzés. Retour sur un parcours surprenant d'une femme scientifique engagée et inspirante.
PORTRAIT - L’éthologue et anthropologue, décédée à 91 ans, a révolutionné notre vision des chimpanzés dès les années 1960. Depuis, la scientifique n'a eu de cesse de se battre pour imposer la défense de l'environnement dans les hautes sphères de ce monde, et pour éduquer les nouvelles générations qui prendront sa relève.
Éthologue et anthropologue mondialement connue pour ses recherches sur les chimpanzés en Tanzanie, la Britannique est décédée de causes naturelles, annonce son institut.
Le 21 septembre 2025, la Chine a testé avec succès une éolienne volante géante capable de produire un mégawatt d’électricité en altitude. Une innovation qui pourrait accélérer ses ambitions de devenir leader mondial des énergies renouvelables.
le Réseau des relevés glaciologiques suisse (Glamos) a de nouveau observé une «fonte considérable» des glaciers, proche du record de 2022 en raison d’un hiver avec peu de neige et de fortes vagues de chaleur en été.
Un phénomène rare a été aperçu dans le ciel du sud-ouest de la France ce 27 septembre 2025. Nommée « trou de virga » ou « cavum », cette espèce de trou dans un nuage, long d'environ une cinquantaine de kilomètres, a fasciné autant qu'intrigué. Quel est ce phénomène très photogénique ?
Au printemps 2001, la Somme est en crue. Tandis que l’eau monte inexorablement, inondant terres et villages, une idée folle émerge… Et si c’était de la faute… des Parisiens ?
Quand, le 9 avril, Lionel Jospin débarque à Abbeville, il est déjà trop tard. Le Premier ministre, attendu de pied ferme, est violemment pris à partie par des riverains furieux. Sur la défensive, il tente maladroitement de balayer la rumeur : « Vous pouvez imaginer que quelqu’un décide, à Paris, d’aller noyer la Somme ? Ça n’a pas de sens ! » Dans la foule, une femme réplique aussitôt : « Il y a sûrement quelque chose qui participe… », exprimant la conviction des sinistrés : Abbeville a payé le prix fort pour que Paris reste au sec.
Car des crues, la Somme en a connues, mais jamais d’identiques. Les anciens l’assurent : « Une telle intensité, on n’avait jamais vu. » Et ce détail qui rend tout suspect : l’eau continue de monter… alors qu’il ne pleut plus. Mystère ? Ou plutôt évidence. Pour les habitants, le scénario est clair. Les politiciens parisiens, paniqués à l’idée de voir la capitale sous l’eau, auraient détourné les flots vers la vallée picarde. Après tout, ce ne serait pas la première fois que la province servirait de variable d’ajustement, non ?
REPORTAGE - La vallée de Chamonix a vu augmenter le nombre de chercheurs de cristaux. Face aux dérives qui entourent la pratique, la mairie de Chamonix tente de réglementer cette tradition ancestrale.
Depuis le 17 septembre, la tempête Gabrielle prend de l'ampleur et se dirige d'Ouest en Est. Après être passée en catégorie 4, autour du 22 septembre, elle se dirige maintenant vers les Açores -- les îles portugaises. Les images vues du ciel de ce phénomène sont à couper le souffle.
L'eau a inondé les rues de Marseille, entre le dimanche 21 et lundi 22 septembre 2025. Des habitants ont été filmés en train de prendre toutes les précautions pour ne pas patauger dans l'eau des inondations. Voici pourquoi ils ont eu raison de ne pas patauger dans cette eau, même si le niveau de l'inondation restait près du sol.
Autrefois considérées comme exotiques, les bactéries «cauchemardesques» se sont aujourd’hui multipliées: le nombre de cas recensés aux États-Unis a été multiplié par plus de cinq ces dernières années, selon une étude.
Selon l’observatoire météorologique de Hongkong, Ragasa générait des vents d’une vitesse maximale de 205 km/h en son centre alors qu’il traversait la mer de Chine méridionale mardi en direction de l’ouest.
Êtes-vous en danger à cause des boîtes à pizza ou des pailles en papier ? Dans le collimateur de l’Europe et de la France, les PFAS, dits « polluants éternels », sont partout, ou presque. Quels sont vraiment les risques ? Et quelles solutions pour demain ?
Les PFAS constituent une vaste famille de composés synthétiques – entre 4 000 et 10 000 molécules distinctes – caractérisée par une extrême stabilité chimique. Cette persistance, qui peut atteindre plusieurs centaines d’années pour certains composés, s’explique par la solidité de la liaison carbone-fluor qui les caractérise, l’une des plus fortes en chimie organique, capable de résister aux rayonnements UV et aux conditions naturelles. Cette architecture crée une liaison très stable, qui confère aux PFAS de nombreux atouts. Ils présentent une grande stabilité dans le temps, un fort pouvoir antiadhérent, une excellente résistance à la chaleur et aux produits chimiques, et une rare capacité à repousser l’eau comme les graisses. Ce rôle transversal explique leur succès… et la difficulté de s’en passer trop brutalement.
Hélas, ils se dispersent facilement dans l’air, les sols et les eaux, ce qui accroît leur potentiel de contamination. Logique, puisque leur caractère bioaccumulable favorise leur concentration dans les écosystèmes et leur transfert dans la chaîne alimentaire.
À titre d’exemple, les PFAS utilisés comme agents d’imperméabilisation ou antitaches pour les textiles sont progressivement libérés lors des lavages et rejoignent les eaux usées. Ils peuvent également exposer l’utilisateur par contact cutané. Les emballages alimentaires constituent une autre source d’exposition. De nombreux produits en papier/carton, tels que les boîtes à pizza, les pailles en papier ou certains contenants jetables, peuvent être traités aux PFAS afin de résister à l’eau, aux graisses et à la chaleur. Cette utilisation favorise leur migration vers les aliments, en particulier lorsque ceux-ci sont chauds ou gras, ce qui entraîne une exposition du consommateur.
Dans le cas des PFAS utilisés pour fabriquer des matériaux polymères, comme le Téflon, la dispersion dans l’environnement se produit principalement au moment de la production des molécules qui les constituent, plutôt qu’au cours de leur utilisation. Votre poêle Tefal n’est donc pas dangereuse à l’usage, mais lors de sa fabrication, contrairement à l’idée reçue qui entoure cet outil de cuisine. Les modes de rejet et de pollution de l’environnement dépendent donc fortement de l’utilisation des PFAS.
Leur formidable stabilité chimique a toutefois un revers de taille. Les éliminer est un vrai casse-tête lorsqu’ils se retrouvent disséminés dans l’environnement. La raison en est simple : ces molécules n’existent pas dans la nature, d’où l’absence d’enzymes en capacité de les dégrader…
Pendant longtemps, les seules solutions pour en limiter la dissémination ont consisté à les filtrer ou à les confiner, sans pouvoir les faire disparaître. Aujourd’hui, si nul remède miracle et facile à mettre en œuvre n’existe encore, industriels, entrepreneurs et chercheurs explorent ensemble des issues technologiques capables de détruire, voire de recycler, ces molécules.
PFAS : une pollution persistante et préoccupante pour l’environnement et la santé
Parmi les start-up européennes qui s’attaquent de front aux résidus de PFAS, Oxyle fait figure de pionnière. Née à Zurich (Suisse), elle développe une technologie de destruction basée sur un catalyseur nanoporeux piézoélectrique. Le principe est aussi élégant que redoutable : lorsque de l’eau contaminée passe sur ce matériau, simultanément soumis à une stimulation mécanique, le catalyseur génère des charges électriques transitoires, des micro-impulsions qui suffisent à rompre la fameuse liaison carbone-fluor, pourtant réputée indestructible.
Résultat : les PFAS sont progressivement décomposés en molécules minérales, comme du dioxyde de carbone et du fluorure. Selon la jeune entreprise, sa technologie en élimine « plus de 99 % ». Mieux encore : cette solution aurait une consommation énergétique « jusqu’à 15 fois inférieure » aux procédés traditionnels, affirme Oxyle. La société indique pouvoir équiper aussi bien des unités industrielles que des installations de traitement d’eaux souterraines ou rejetées par les municipalités. Elle a déjà mené plusieurs expériences pilotes en Suisse et en Europe, avec l’ambition de traiter au moins 100 millions de mètres cubes dans les cinq prochaines années.
Prometteuse, la solution d’Oxyle est en voie d’industrialisation, même si des écueils demeurent. Son efficacité varie sensiblement selon la qualité de l’eau, comme le reconnaît volontiers l’entreprise. Car la présence de matières organiques et de co-polluants peut altérer la performance. Et sur des rejets très dilués, une étape de préconcentration en amont s’avère souvent nécessaire. À suivre.
Haemers Technologies : détruire les PFAS dans les sols
Quand on parle de PFAS, on pense souvent à leur présence dans l’eau. Mais une part importante du problème se cache dans les sols, les boues et les sédiments. C’est sur ce terrain que veut s’imposer Haemers Technologies, une start-up belge spécialiste du procédé thermique de dépollution. Son approche repose sur un principe simple : chauffer le sol par conduction thermique pour faire migrer les polluants, puis les détruire aussitôt dans une unité de traitement couplée, sans générer de « résidus secondaires ».
Concrètement, l’entreprise déploie sur site des électrodes ou des puits chauffants qui élèvent la température du sol, entraînant la désorption des PFAS. Les composés volatilisés sont ensuite aspirés et dirigés vers un dispositif de post-traitement à haute température, où ils sont oxydés. Haemers revendique une destruction totale de ces molécules, aussi bien in situ (sans devoir faire d’excavation) qu’ex situ (après extraction du sol pollué).
Cette technologie se distingue par sa capacité à traiter efficacement les PFAS directement sur les sites contaminés, ce qui en fait une solution plug-and-play pour la dépollution des sols. Des essais pilotes ont déjà été réalisés, au Danemark notamment.
La voie thermique de Haemers n’est toutefois pas sans contraintes. Chauffer des volumes de sol importants reste un processus énergivore et coûteux. Par exemple, pour l’in situ, la société indique que la consommation d’énergie « descendrait aux alentours de 200 kWh par tonne de sol ». Quant à l’ex situ, il est nettement plus onéreux. Se pose aussi la question du bilan carbone de ces opérations de dépollution, qui dépend beaucoup de la qualité du mix énergétique des pays dans lesquels elles seront envisagées.
Oxford : et si on recyclait le fluor ?
Du côté de l’Université d’Oxford, une autre approche est proposée : le recyclage en amont des PFAS, au lieu de les détruire. Une solution qui permettrait de les traiter « à la source », en intervenant avant leur dispersion dans l’environnement, pour en récupérer le fluor sous la forme de sels réutilisables. Un dispositif pouvant s’avérer complémentaire des deux technologies précédentes dites « de dépollution ».
Les équipes de chimistes du campus ont mis au point, au printemps 2025, une méthode inédite reposant sur la mécanochimie. Au lieu d’utiliser de la chaleur ou des solvants, elles détruisent les PFAS solides, en présence de sels de phosphate de potassium, dans un simple broyeur à billes. Ce processus mécanique génère l’énergie nécessaire pour rompre les liaisons carbone-fluor, décidément de moins en moins « indestructibles ».
Le fluor libéré est capté sous forme de sels inorganiques (fluorure de potassium et fluorophosphate), directement réutilisables dans l’industrie chimique. Le phosphate servant d’agent réactif est lui aussi recyclé, ce qui rend le procédé circulaire. Il ne se contente pas d’éliminer la pollution, il revalorise une ressource stratégique, en transformant des déchets solides contenant des PFAS en une nouvelle source de fluor pour l’économie.
Selon les chercheurs d’Oxford, la méthode est applicable à une large gamme de PFAS : les acides (comme le PFOA), les sulfonates (PFOS), mais aussi les polymères fluorés un peu plus complexes tels que le PTFE ou le PVDF. L’expérience se déroule à température et pression ambiantes, avec un équipement simple et non énergivore.
Cette solution reste néanmoins au stade de l’expérimentation, avec des essais réalisés sur de petits lots de PFAS. Quant au potentiel passage au niveau industriel, il doit encore être démontré. En outre, le procédé vise surtout des flux solides et concentrés. Pour des PFAS de type résines, mousses ou polymères, il sera préalablement nécessaire de les capter et de les sécher avant de les passer au broyage.
PFAS : un encadrement qui se durcit en France et en Europe
Si pour certains les PFAS auront marqué notre époque comme la chimie du progrès, et pour d’autres comme celle de l’empreinte « indélébile » des activités humaines, la science, l’ingénierie et l’imagination refusent de se laisser enfermer dans une quelconque fatalité. Même si elles ne couvrent pas tous les cas de figure et ne sont pas des « baguettes magiques », les pistes présentées ouvrent des portes et autorisent à penser que l’éternité des PFAS n’a pas forcément vocation à durer…
La sortie par le haut passera donc par un mix entre une réduction à la source et une substitution lorsque c’est possible. Mais aussi par le traitement des flux de production, la destruction ou le recyclage lorsque c’est pertinent, et bien sûr par la transparence et le suivi des résultats.
Non, ce n’était pas « mieux avant ». En réalité, le monde n’a jamais été durable. Mais, pour la première fois dans l’histoire de l’humanité, des technologies changent la donne. Et si la neutralité carbone n’était plus une question de « si », mais de « quand » ?
À en croire l’historien Jean-Baptiste Fressoz, le groupe III du GIEC, qui évalue les moyens d’atténuer le réchauffement climatique, serait trop « technophile » et sous-estimerait les mesures de sobriété. Un procès à côté de la plaque.
Dans un article récemment paru dans la revue Energy Research & Social Science et dûment relayé par Le Monde du 30 août, l’historien des sciences et chercheur au CNRS Jean-Baptiste Fressoz entend mettre en évidence le biais « technocentrique » qui, selon lui, imprègne tous les rapports du groupe III du GIEC depuis ses débuts en 1990. Ce groupe de travail est chargé de recenser et d’évaluer les solutions d’atténuation du changement climatique qui doivent permettre de réduire les émissions de gaz à effet de serre (GES) et donc limiter autour de 2 degrés la hausse de la température planétaire par rapport aux périodes préindustrielles.
L’auteur estime que ce biais « nourrit un faux optimisme, légitime le soutien aux technologies spéculatives, réduit l’éventail des options politiques viables et retarde les transformations structurelles ». Il juge l’objectif de neutralité carbone visé d’ici 2050-2070 par l’Accord de Paris « technologiquement impossible » et appelle à renoncer à ces « illusions » au profit de mesures de sobriété, de décroissance et de redistribution (qu’il ne détaille pas). Hélas, sa thèse souffre elle-même de nombreux biais.
Méthodologie sémantique indigente
Pour mettre en évidence cette supposée technophilie historique, l’historien a compté les occurrences de différents termes dans les six rapports du groupe III, certains identifiés comme technologiques, d’autres évoquant des actions de réduction de la demande. Dans le dernier rapport paru en 2022, il a ainsi compté 1 096 fois le mot « hydrogène », 1 667 fois « innovation » ou 2 111 fois « technologie », mais seulement 232 fois le terme « sufficiency » (sobriété) et 29 fois « décroissance » ! Pour l’auteur, le déséquilibre est probant, même s’il admet qu’il est moins prononcé que dans les précédents opus. Et de fait, le groupe III a, pour la première fois en 2022, consacré un chapitre aux changements de modes de vie et d’usages et à la sobriété, estimant que ces stratégies pourraient réduire les émissions de 40 à 70 % selon les secteurs. Un virage applaudi par toute la sphère de l’écologie politique. « Le GIEC enterre la stratégie de la croissance verte », s’est notamment réjoui l’économiste décroissant Timothée Parrique.
Le politologue François Gemenne, co-auteur du sixième rapport du GIEC, et confronté à l’historien sur France Inter, a moqué « l’extraordinaire faiblesse d’une méthodologie basée sur le nombre d’occurrences de mots », rappelant que le rapport du GIEC n’était pas, comme le prétendait JB Fressoz, « un guide pour nous aider à sortir du carbone », mais l’état des connaissances scientifiques à un moment précis. « On évalue à la fois l’abondance et la convergence de la littérature sur le sujet. Il est donc logique que les rapports parlent davantage d’énergie solaire ».
De plus, remarque le journaliste scientifique Sylvestre Huet sur son blog Sciences au carré hébergé par Le Monde, « Jean-Baptiste Fressoz confond “beaucoup” et “bien”. Il nous dit que le GIEC est obnubilé par les CSC (capture et stockage du carbone), alors que le GIEC nous alerte surtout sur l’extrême difficulté d’une éventuelle mise en œuvre de cette technologie. Mais pour le savoir, il ne faut pas se contenter de faire compter des mots par un logiciel, il faut lire le texte (qui est long) ». Bim.
In fine, ce comptage de mots ne prouve rien. JB Fressoz démonte même sa propre démonstration en admettant, au détour d’un paragraphe, que « la fréquence d’un terme n’implique pas son approbation », citant le cas de l’hydrogène, très critiqué dans le dernier rapport.
Opposition stérile entre technologies et mesures socio-économiques
Résumer le débat à un affrontement entre techno-solutionnistes et décroissants relève du pur sophisme (voir encart « Le coût, principal frein des technologies de décarbonation »). « Ce n’est pas une technologie générique qui permet de réaliser le potentiel de réduction, c’est une synergie entre des changements techniques précis et des modes de vie et de consommation nécessaires », affirme Sylvestre Huet. D’autant que les leviers socio-économiques d’atténuation du changement climatique sont tout aussi complexes à mettre en œuvre que les techniques de décarbonation — sans même parler de la décroissance, qui fait l’objet d’un profond rejet des populations en plus de reposer sur une littérature imprécise et peu aboutie (voir encart ci-dessous).
Confusion entre faisabilité technique et coût économique
JB Fressoz juge les technologies de décarbonation « spéculatives » et « irréalistes ». « Est-ce que l’on sait faire de l’acier, du ciment, des engrais sans émettre de CO₂ ? Non ! Est-ce que l’on sait faire voler des avions ou faire naviguer des porte-conteneurs sans émettre de CO₂ ? Non. Tous les modélisateurs le savent ! », s’est-il emporté sur France Inter.
Sauf qu’en fait, bien souvent, on sait le faire et on le fait déjà, comme peuvent en témoigner de nombreuses entreprises, tels le fabricant d’engrais bas-carbone FertigHy, le cimentier Lafarge Holcim ou, dans le domaine des CSC, le méga-projet norvégien Northern Lights (TotalEnergies, Equinor et Shell). Les technologies bas carbone existent. Le problème, c’est leur coût, encore nettement plus élevé que pour leurs équivalentes plus émettrices. Ainsi, remplacer toutes les chaudières au gaz d’une collectivité par des pompes à chaleur est techniquement facile mais l’investissement nécessaire est encore dissuasif.
« Le GIEC met parfois en avant des solutions peu ou pas matures, admet le physicien-climatologue et co-auteur du cinquième rapport du GIEC François-Marie Bréon. Mais le solaire ou les batteries ne l’étaient pas il y a vingt ans. Or, on voit aujourd’hui les ruptures technologiques réalisées ». Avec, à la clé, des baisses de coûts spectaculaires et la massification des procédés.
Le coût, principal frein des technologies de décarbonation
JB Fressoz se montre particulièrement critique envers la mise en avant par le GIEC des techniques d’émissions négatives comme les CSC (consistant à capturer le carbone rejeté dans l’atmosphère par les centrales thermiques et les usines, puis à l’injecter dans le sous-sol). Le scénario misant sur l’injection, à terme, de 10 milliards de tonnes de CO₂ par an, est-il absurde, comme il le soutient ? Non, répond François-Marie Bréon. Pour lui, la limite à l’essor de ces procédés n’est pas technique, mais politique et économique : « Les CSC coûtent environ 100 euros la tonne. Aucun État n’a un intérêt politique à y consacrer des ressources significatives, car sa population n’en bénéficiera pas directement à court terme, même si la planète en a besoin. Seul un accord international pourra résoudre cette difficulté ».
Un biais « socio-solutionniste » ?
Derrière l’importance que le GIEC accorde à ces techniques, JB Fressoz voit la main des multinationales et de leurs lobbies. Il souligne que le groupe III a, dès sa création, impliqué « de nombreux experts affiliés à l’industrie des combustibles fossiles », citant Total, Exxon, ENI, Mobil Oil, Saudi Aramco, DuPont, Volvo, le World Coal Institute, etc. Et on comprend clairement qu’il le condamne. Selon lui, la participation de ces experts du privé comme co-auteurs « a contribué à façonner le contenu des rapports, notamment en valorisant le rôle des CSC dans les scénarios de neutralité carbone du GIEC ». Une assertion qu’il illustre par une série de retours historiques, insistant sur l’influence exercée par les États-Unis dès 1988. On retrouve ici l’accusation classique de « néolibéralisme » portée par des écologistes radicaux à l’encontre du GIEC, initiée lors d’une réunion du G7 en 1988, sous l’impulsion notable de Margaret Thatcher et de Ronald Reagan.
L’intérêt du GIEC se traduit par un rapport spécial sur les CSC publié en 2005. « Plusieurs auteurs principaux ou réviseurs de ce rapport étaient également employés par des compagnies de charbon, de pétrole, de gaz ou d’électricité », dénonce Fressoz. « De nombreuses références provenaient soit des conférences GHGT (Global Energy Technology Strategy), soit du programme GES de l’AIE, tous deux étroitement liés aux majors pétrolières ». Et alors ? pourrait-on lui répondre, puisqu’il reconnaît lui-même que le groupe III est « majoritairement composé d’experts de la recherche publique ni naïfs ni influençables ».
Le sous-entendu de mise sous influence du groupe III est patent. Il ne cache d’ailleurs pas son rejet viscéral de l’entreprise : « Parfois, écrit-il, le rapport du GIEC ressemble davantage à des brochures de marketing industriel qu’à une évaluation scientifique ». Pour Alexandre Baumann, auteur et créateur d’un blog sur la pseudo-écologie, « le présupposé de Fressoz est que les chercheurs qui travaillent pour une entreprise privée sont forcément inféodés à leurs employeurs, forcément corrompus, et que la recherche privée ne peut traduire que les intérêts capitalistes en présence. Ce double standard sur la science s’inscrit selon moi dans une logique partisane ».
Même si, rappelons-le, le GIEC n’a aucun rôle prescripteur, il doit présenter des solutions jugées crédibles et réalisables. Et comme il fait autorité auprès des gouvernements (et de la communauté internationale en général), on ne peut certes exclure que des groupes d’intérêt cherchent à influencer ses conclusions. Mais face aux risques de pression, sa force réside dans le recours à des centaines d’experts aux opinions et sensibilités différentes, qui évaluent et synthétisent des milliers de travaux (278 auteurs pour 18 000 articles scientifiques en 2022). C’est ainsi que se construit et s’ajuste au fil des années le consensus scientifique le plus complet et le plus rigoureux actuellement disponible sur le climat. Personne ne peut envisager sérieusement d’en exclure les ingénieurs et les chercheurs du secteur privé, qui élaborent et développent ces technologies. Ni de bannir ces dernières au profit d’une hypothétique sobriété. À moins de souffrir d’un regrettable biais « socio-solutionniste » sans fondement scientifique.