J'sais pas, chuis qu'ingénieur, pas sorcière.
Tristan K. @tristankamin.bsky.social replied:
J'sais pas, chuis qu'ingénieur, pas sorcière.
Tristan K. @tristankamin.bsky.social replied:
J'sais pas, chuis qu'ingénieur, pas sorcière.
Tristan K. @tristankamin.bsky.social replied:
Alors ouais, ptèt qu'il faudrait se poser les bonnes questions.
Ptèt que le problème c'est d'avoir construit et entretenu l'image d'un mouvement antinucléaire, certainement pas écologiste. D'assumer préférer les énergies fossiles au nucléaire, depuis le début.
Tristan K. @tristankamin.bsky.social replied:
Énergies bas-carbone, mobilités douce, sensibilité écologique encore bien implantée...
C'est un territoire de rêve pour un projet @lesecologistes.fr.
Malgré tout, il est évident qu'il vaut mieux qu'ils se fassent discrets.
Tristan K. @tristankamin.bsky.social replied:
Les alentours, notamment la Hague, sont très naturels, la côte est très sauvage, et les locaux sont attachés à cet état de fait.
Tristan K. @tristankamin.bsky.social replied:
De plus, tant grâce aux efforts de la ville et la communauté d'agglo qu'à la bonne volonté des habitant·e·s, les déplacements en vélo et en transports en commun paraissent augmenter en proportion à vue d'œil.
Tristan K. @tristankamin.bsky.social replied:
Cherbourg en particulier, en plus de ses activités industrielles, centralise pas mal d'efforts autour de l'écologie marine : recherche, laboratoire, associations...
Tristan K. @tristankamin.bsky.social posted:
Ouais. Les écologistes mal vus dans un territoire majeur de l'énergie bas-carbone (électronucléaire, traitement-recyclage des matières nucléaires, industries de l'éolien offshore, territoire pilote de l'hydrolien marin).
Ptèt penser à se poser les bonnes questions ?
Quoted post from Reporterre 🌍 | Le média de l'écologie @reporterre.net:
Les listes des Écologistes se font rares pour les municipales dans le Cotentin.
Dans ce territoire centré sur le nucléaire et les industries, qui promettent des emplois, « il devient beaucoup plus difficile d’être élu écologiste ».
➡️ https://l.reporterre.net/YZx
« Manger ne devrait pas nous exposer à des substances dangereuses. » C’est le mantra de l’association écologiste Générations Futures, devenue ces dernières années la vigie autoproclamée des résidus de pesticides dans nos assiettes. Dans son dernier rapport, on peut ainsi lire que « plus de 6 fruits et légumes non bio sur 10 contiennent au moins un résidu de pesticide détecté ». Des chiffres chocs, calibrés pour frapper les esprits. Peu importe que ces résidus soient mesurés à l’état de traces infinitésimales, parfois des milliers de fois en dessous des seuils sanitaires : leur simple détection suffit à installer le soupçon. Certains médias et responsables politiques vont plus loin encore, établissant un lien direct entre une prétendue « explosion » des cancers et l’exposition à ces résidus.
Peu importe que l’augmentation du nombre de cancers s’explique d’abord par le vieillissement de la population et de meilleurs dépistages, le message est limpide : il faudrait interdire toujours plus de pesticides, promouvoir l’agriculture biologique et tourner la page du modèle agro-industriel. Un retour rêvé à un âge d’or paysan, fait de petites exploitations, de récoltes à la main et d’une nature supposément pure, préservée des vilains produits chimiques et des apports de la technologie — cette suspecte fille du capitalisme, lui-même accusé de tous les maux.
Ce récit oublie pourtant un élément essentiel : avant d’être des substances potentiellement dangereuses pour l’homme, les pesticides sont d’abord des outils de défense des plantes. Et la nature, elle, n’a pas attendu l’humanité pour les inventer.
Glucosinolates, terpènes, indoles, isothiocyanates, cyanures, phénols… Toutes ces molécules chimiques, vous les avalez en mangeant du chou. Même du chou bio. Et pour cause : c’est le chou lui-même qui les fabrique.
Héritées de millions d’années d’évolution, ces substances sont de véritables pesticides naturels. Elles ont permis au chou sauvage — l’ancêtre rustique de celui de nos potagers — de se défendre, et donc de survivre face à ses prédateurs, herbivores de tous horizons.
Et le chou est loin d’être une exception. En réalité, presque tous les fruits, légumes et aromates que nous consommons produisent leurs propres armes chimiques :
Autant de molécules biologiquement actives, et toxiques pour les animaux.

À ce stade, on entend déjà les objections : « Oui, mais ce n’est pas pareil ! Ces molécules naturelles, nous y sommes adaptés. Cela fait des millénaires qu’elles font partie de notre environnement. Alors que les pesticides de synthèse, eux, sont récents. Notre organisme n’est pas prêt. »
L’argument est séduisant. Il est pourtant erroné. Et ce pour au moins trois raisons.
D’abord, nos mécanismes de défense contre les substances toxiques ne font pas la différence entre naturel et synthétique. Ils sont généralistes. Barrières physiques (peau, muqueuses), enzymes de détoxification capables de neutraliser des familles entières de molécules étrangères, systèmes de réparation de l’ADN : notre organisme traite tous les composés chimiques étrangers (et leurs conséquences) de la même manière, et leur origine importe peu.
Ensuite, l’idée d’un « équilibre toxique » stable entre l’humain et son environnement végétal obtenu avec le temps relève du mythe. Les végétaux évoluent en permanence. Depuis des millions d’années, ils participent à une véritable course à l’armement évolutive, affinant sans cesse leurs arsenaux chimiques pour déjouer les stratégies de leurs prédateurs.
Enfin, notre alimentation actuelle est extrêmement récente à l’échelle de l’évolution. L’agriculture ne date que d’environ 10 000 ans, et les plantes que nous consommons aujourd’hui diffèrent profondément de leurs ancêtres sauvages. D’autant que nombre de nos aliments — café, cacao, thé, pomme de terre, tomate, maïs, kiwi, épices… — proviennent de régions du monde que nos ancêtres européens n’ont découvertes que très tardivement. Ainsi, l’évolution humaine est bien trop lente pour avoir produit une résistance spécifique aux toxines des plantes qui nous nourrissent.
Reste une question : ces pesticides naturels ne seraient-ils pas marginaux face aux substances pulvérisées dans les champs ?
1989 : l’année où la chimiophobie explose aux États-Unis. Un rapport alarmiste d’une ONG sur un régulateur de croissance utilisé sur les pommes, amplifié par une caisse de résonance médiatique, déclenche une véritable panique nationale. Plateaux télé, unes catastrophistes, inquiétude des parents… Le cocktail est familier, et rappelle étrangement certains emballements très contemporains.
C’est dans ce climat anxiogène que deux chercheurs décident de reprendre la polémique sur des bases scientifiques : Bruce Ames, professeur de biochimie à l’université de Berkeley, et sa collègue Lois Swirsky Gold. Leur intuition est simple — et dérangeante : les substances synthétiques utilisées en agriculture ne seraient pas intrinsèquement plus susceptibles de provoquer des cancers que les toxines naturellement présentes dans les fruits et légumes.
Plutôt que de débattre à coups de slogans, ils décident de compter.
Leur première conclusion est spectaculaire. Selon leurs calculs, un Américain ingère chaque jour environ 1,5 gramme de toxines naturelles produites par les plantes. En face ? Environ 0,09 milligramme de résidus de pesticides synthétiques. Autrement dit : 15 000 fois moins.
Conclusion arithmétique : 99,99 % des pesticides que nous consommons sont… naturels.
Mais quantité ne signifie pas danger. Encore faut-il comparer la toxicité. C’est là que Lois Swirsky Gold joue un rôle clé. Avec son équipe, elle compile des milliers d’études toxicologiques menées à travers le monde : tous les tests de cancérogénicité réalisés sur rats et souris, qu’ils concernent des produits chimiques industriels… ou des substances naturelles. Ce travail titanesque donne naissance à une véritable cathédrale de données : la Carcinogenic Potency Database (CPDB).
L’analyse révèle un constat : qu’une molécule provienne d’une usine ou d’une plante, le résultat est statistiquement similaire. Administrée à forte dose à un rongeur, environ une substance sur deux finit par provoquer un cancer. Autrement dit : aucun passe-droit pour les substances naturelles.
Pour comparer plus rigoureusement les risques réels, Ames et Gold créent alors un indicateur universel : l’indice HERP (Human Exposure / Rodent Potency). Le principe est limpide. On prend la dose réellement consommée par un humain, et on la rapporte à la dose qui provoque un cancer chez 50 % des rats de laboratoire. On obtient ainsi un pourcentage, un indicateur très concret qui répond à la question suivante : à quelle fraction de la dose cancérogène expérimentale correspond mon exposition réelle ?
Munis de cet outil, ils classent tout. Sans distinction d’origine. Polluants industriels, résidus agricoles, composés naturels des aliments les plus ordinaires. Le résultat surprend.

Le constat est troublant : une seule tasse de café contient, en masse, davantage de composés naturels classés cancérogènes chez le rongeur que la totalité des résidus de pesticides synthétiques ingérés en une année. De quoi bousculer quelques certitudes.
En prenant le contre-pied de l’anxiété chimique des années 1990, les travaux d’Ames et Gold ont provoqué une véritable déflagration dans le monde de la toxicologie. Mais ces recherches, désormais anciennes, seraient-elles devenues obsolètes ?
Au contraire, leur apport a profondément transformé la discipline. Ils ont contribué à faire passer la toxicologie d’une logique de « chasse au coupable » — traquer la molécule synthétique suspecte — à une approche de rationalité quantitative : comparer les doses, hiérarchiser les risques, gérer les priorités. En somme, comparer ce qui est comparable.
L’indice HERP n’est plus utilisé aujourd’hui, mais son esprit perdure. Il a largement inspiré la mise en place du MoE (Margin of Exposure), indice désormais employé par les agences sanitaires du monde entier pour évaluer les risques cancérogènes. La logique est similaire, la formule inversée : là où l’indice HERP rapportait l’exposition humaine à la dose toxique animale, le MoE divise la dose toxique par l’exposition réelle. Ainsi, plus le chiffre du MoE est élevé, plus la marge de sécurité est importante.
Autre évolution majeure : le seuil retenu. Ames travaillait avec la dose provoquant un cancer chez 50 % des rats. Les toxicologues actuels utilisent des seuils beaucoup plus bas, correspondant à la plus faible dose produisant un effet mesurable par rapport aux animaux témoins.
La discipline a également intégré des paramètres absents des débats des années 1990, notamment l’« effet cocktail » : l’idée que l’exposition simultanée à plusieurs substances pourrait amplifier le risque. Contrairement à ce que laissent entendre certains discours militants — qui en font un argument d’ignorance justifiant un principe de précaution maximal — cet effet est aujourd’hui intégré aux évaluations réglementaires. Les agences additionnent les expositions lorsque plusieurs substances partagent le même mécanisme d’action cellulaire. Dans les faits, cela change rarement l’évaluation finale, les expositions réelles étant généralement deux à trois ordres de grandeur en dessous des seuils de toxicité. Et par ailleurs, pourquoi cet effet cocktail ne s’appliquerait-il qu’aux molécules de synthèse, et pas aux dizaines de toxines naturelles que nous consommons quotidiennement ?
Les travaux d’Ames et Gold trouvent davantage leurs limites dans une autre découverte majeure de la toxicologie moderne : les perturbateurs endocriniens, capables d’interagir avec notre système hormonal à des concentrations très faibles. Pour ce cas précis, le célèbre principe de Paracelse — « C’est la dose qui fait le poison » — semble moins linéaire qu’on ne le pensait.
Mais là encore, pas de panique. Les perturbateurs endocriniens avérés sont désormais interdits ou strictement encadrés. Quant aux substances encore suspectées, les évaluations sont en cours, et rien n’indique que le risque soit intrinsèquement plus élevé pour les molécules synthétiques que pour les molécules naturelles. Ironie supplémentaire : l’une des familles d’insecticides les plus souvent évoquées pour de possibles effets endocriniens, les pyréthrinoïdes, est issue… de la fleur de chrysanthème. Quant au soja, il produit naturellement des isoflavones, des composés capables de moduler l’action hormonale humaine.
En réalité, rien dans la toxicologie post-années 2000 n’invalide le cœur de l’intuition d’Ames et Gold. Au contraire, leurs conclusions ont été confirmées par des travaux plus récents : l’origine naturelle ou synthétique d’une molécule ne dit presque rien de sa dangerosité. Ce qui compte, encore et toujours, c’est la structure chimique, la dose, et l’exposition réelle. Et cela change profondément la manière de penser le risque.
Oui, nos fruits et légumes contiennent des substances naturelles toxiques. Oui, certaines sont cancérogènes chez l’animal ou présentent des propriétés perturbatrices endocriniennes. Et oui, leurs concentrations sont souvent bien supérieures aux traces résiduelles de pesticides de synthèse que l’on traque avec tant d’ardeur.
Faut-il pour autant se détourner des fruits et légumes ? Évidemment non. Car les bénéfices nutritionnels — fibres, vitamines, antioxydants — dépassent très largement les risques théoriques liés à ces composés naturels. Nous les consommons chaque jour sans que cela ne se traduise par une hécatombe sanitaire.
La leçon est ailleurs. Elle concerne notre manière collective d’appréhender le risque. Si nous acceptons sans trembler d’ingérer des cancérogènes naturels à des niveaux bien supérieurs, pourquoi concentrer autant d’attention et d’angoisse sur des résidus synthétiques dont l’exposition réelle est mille fois plus faible ?
C’est précisément le message que portaient Ames et Gold : la priorité des politiques publiques ne devrait pas être la traque obsessionnelle de risques infinitésimaux, mais la lutte contre les causes majeures du cancer — tabagisme, alcool, déséquilibres alimentaires, sédentarité, infections.
Quant aux pesticides agricoles, leur impact sanitaire pour la population générale apparaît, à la lumière des données disponibles, extrêmement faible. Leur utilité en matière de rendement, de sécurité alimentaire et d’autonomie agricole est, elle, bien tangible. Leur véritable point faible se situe ailleurs : dans leur empreinte environnementale. C’est sur ce terrain — biodiversité, qualité des sols, contamination des eaux — que le débat doit se concentrer.
Mais instrumentaliser le cancer, jouer sur les peurs, suggérer des catastrophes sanitaires sans hiérarchiser les risques, pour orienter l’opinion ou imposer un agenda politique, ce n’est pas de la science. C’est de la manipulation.
Et une société rationnelle mérite mieux que cela.
L’article Les pesticides de Dame Nature est apparu en premier sur Les Électrons Libres.
See https://curl.haxx.se/libcurl/c/libcurl-errors.html for description of the curl error code.
#0 index.php(73): RssBridge->main()
#1 lib/RssBridge.php(39): RssBridge->{closure:RssBridge::main():37}()
#2 lib/RssBridge.php(37): BasicAuthMiddleware->__invoke()
#3 middlewares/BasicAuthMiddleware.php(13): RssBridge->{closure:RssBridge::main():37}()
#4 lib/RssBridge.php(37): CacheMiddleware->__invoke()
#5 middlewares/CacheMiddleware.php(44): RssBridge->{closure:RssBridge::main():37}()
#6 lib/RssBridge.php(37): ExceptionMiddleware->__invoke()
#7 middlewares/ExceptionMiddleware.php(17): RssBridge->{closure:RssBridge::main():37}()
#8 lib/RssBridge.php(37): SecurityMiddleware->__invoke()
#9 middlewares/SecurityMiddleware.php(19): RssBridge->{closure:RssBridge::main():37}()
#10 lib/RssBridge.php(37): MaintenanceMiddleware->__invoke()
#11 middlewares/MaintenanceMiddleware.php(10): RssBridge->{closure:RssBridge::main():37}()
#12 lib/RssBridge.php(37): TokenAuthenticationMiddleware->__invoke()
#13 middlewares/TokenAuthenticationMiddleware.php(10): RssBridge->{closure:RssBridge::main():33}()
#14 lib/RssBridge.php(34): DisplayAction->__invoke()
#15 actions/DisplayAction.php(54): DisplayAction->createResponse()
#16 actions/DisplayAction.php(89): BlueskyBridge->collectData()
#17 bridges/BlueskyBridge.php(164): BlueskyBridge->getAuthorFeed()
#18 bridges/BlueskyBridge.php(633): getContents()
#19 lib/contents.php(104): CurlHttpClient->request()
#20 lib/http.php(185)
mruac
Trente-sept jours de pluie consécutifs. En ce début d’année, la France connaît la plus longue séquence pluvieuse enregistrée depuis le début des relevés, en 1959. Et pourtant, malgré les inondations, météorologues comme agriculteurs en sont convaincus : cet épisode n’hypothèque en rien le risque de sécheresse estivale.
D’où cette petite musique qui tourne en boucle ces derniers jours, mi-ironique, mi-provocatrice : « Toute cette eau… On ne pourrait pas la stocker quelque part pour l’été ? Dans de grands bacs, des baignoires géantes ? Quelque chose comme ça ? » Une allusion à peine déguisée aux mégabassines, dont la controverse agite le débat public depuis des années.
Une ironie qui fait écho au catastrophisme de 2022 : après une sécheresse record, certains annonçaient une succession inéluctable d’épisodes pluriannuels, supposément incompatibles avec toute idée de stockage.
Mais peut-on sérieusement fonder une position de long terme sur un hiver exceptionnel — qu’il soit dramatiquement sec ou spectaculairement pluvieux ? La question mérite mieux qu’un effet de manche.
Depuis début janvier, il est tombé dans la zone concernée par les retenues de Sainte-Soline l’équivalent de 100 fois le volume nécessaire pour remplir l’ensemble des bassines du projet. À ce stade, difficile d’imaginer que l’eau puisse manquer à qui que ce soit.
Mais cette eau qui ruisselle, déborde et inonde, comment la capter concrètement ? La question est moins simple qu’il n’y paraît.
Dans les régions de relief, les retenues collinaires remplissent précisément ce rôle : elles interceptent les eaux de ruissellement. Mais encore faut-il avoir des collines. En plaine, comme en Vendée ou dans les Deux-Sèvres, cette option n’existe pas. Il faut donc pomper.
Pomper l’eau de surface ? Sur le papier, l’idée est séduisante. En pratique, elle se heurte à plusieurs limites. D’abord, les capacités de pompage étant limitées, on ne peut pas se contenter d’aspirer l’eau uniquement lorsqu’elle déborde, car les périodes d’inondation ne suffiraient pas à remplir les ouvrages. Ensuite, l’eau de crue est chargée en sédiments et en débris, susceptibles de poser des problèmes au matériel de pompage. Et enfin, les volumes en jeu considérables rendent difficile tout transport : capter l’eau dans un cours d’eau supposerait que les réserves — et donc les terres agricoles à irriguer — se trouvent à proximité immédiate, ce qui est rarement le cas.
C’est pourquoi les prélèvements se font le plus souvent dans les nappes phréatiques. Présentes sous nos pieds presque partout, elles permettent de pomper là où le besoin existe. Et l’eau, filtrée naturellement par les sols, est directement utilisable sans traitement lourd.
Mais l’abondance en surface ne garantit en rien l’abondance en profondeur. Une grande partie de l’eau peut ruisseler vers les rivières puis la mer sans jamais recharger la nappe. Et même lorsqu’elle s’infiltre, le délai avant qu’elle n’atteigne les aquifères peut être long : jusqu’à plusieurs milliers d’années pour les nappes les plus profondes.
Dans ce contexte, une interrogation centrale subsiste : prélever dans la nappe en hiver, même en période d’abondance, peut-il compromettre les réserves disponibles pour l’été suivant ? Voilà le vrai nœud du débat.
Un grand lac souterrain, immobile, comme une citerne géante sous nos pieds : voilà l’image que beaucoup associent à la « nappe phréatique ». Elle est, dans la majorité des cas, largement fausse.
D’abord parce que l’eau n’est presque jamais libre dans une cavité. Elle est stockée dans les pores et fissures de la roche : l’aquifère. Ensuite, et surtout, parce qu’elle n’est pas immobile. Comme un fleuve invisible, elle s’écoule vers l’aval, à des vitesses très variables selon le contexte.
Une nappe n’est donc pas automatiquement une réserve capable de stocker l’eau d’une saison à l’autre. Tout dépend de la géologie.
On distingue généralement deux grands types de nappes : les nappes inertielles, vastes réservoirs où l’eau circule lentement et peut se stocker durablement, et les nappes réactives, beaucoup moins capacitives, où l’eau transite rapidement sans véritable stockage d’une saison à l’autre.
Pomper dans une nappe inertielle pour remplir une bassine serait effectivement absurde. Pourquoi déplacer en surface une eau que le sous-sol conserve déjà efficacement ? C’est par exemple le cas en Picardie, où l’aquifère crayeux, immense, joue naturellement le rôle de réservoir. Il déborde rarement et les écoulements y sont lents.
Mais les projets de mégabassines ne concernent pas ces contextes-là. Ils se situent précisément dans des zones où les nappes sont limitées en volume et très réactives. Dans les Deux-Sèvres ou en Vendée, par exemple, elles débordent presque chaque hiver, et l’eau qui s’y trouve n’y reste, en moyenne, qu’un mois.
Dans un tel cadre géologique, prélever en hiver ne pénalise donc pas le niveau estival : l’eau captée aurait, de toute façon, déjà quitté la nappe depuis bien longtemps lorsque l’été arrive.
Reste toutefois une prudence essentielle : encore faut-il que l’eau soit effectivement abondante en hiver. Et dans un contexte de réchauffement climatique, peut-on raisonnablement extrapoler à partir d’un hiver exceptionnellement pluvieux ?

Prélever en hiver pour ne plus avoir à prélever en été. Tel est le principe des retenues de substitution. On décale la pression sur la ressource vers la saison où l’eau est censée être abondante.
Mais encore faut-il qu’elle le soit, car l’hiver aussi peut être sec. C’est précisément pour cela que des seuils réglementaires encadrent les pompages : en dessous d’un certain niveau de nappe, tout prélèvement est suspendu. Reste une inquiétude : avec le réchauffement climatique, les fenêtres hivernales favorables vont-elles se réduire ?
L’argument avait fait mouche en 2022, au sortir d’un hiver anormalement sec. Lors d’une audition au Sénat, des représentants du BRGM évoquaient eux-mêmes cette possibilité. Trois hivers très pluvieux plus tard, l’objection s’est faite plus discrète. Mais trois années ne font pas une tendance : face au climat, seule l’échelle longue compte.
Il faut donc se tourner vers les projections climatiques. Et lorsqu’on prend le temps de les examiner, elles bousculent une idée reçue tenace : le réchauffement du climat n’implique pas automatiquement moins de pluie. Tout dépend des régions… et des saisons.
Et si en France les modèles convergent clairement vers des étés plus chauds et plus secs, pour l’hiver le tableau est bien différent. Les simulations régionales issues des travaux du GIEC suggèrent plutôt une légère augmentation des précipitations — une tendance que les auteurs jugent toutefois statistiquement non significative.
La TRACC (Trajectoire de réchauffement de référence pour l’adaptation au changement climatique), feuille de route publiée par l’État en 2023 pour guider l’adaptation française, va encore plus loin : elle envisage, à l’horizon 2050, une augmentation de 20 % des précipitations hivernales.
Un scénario cohérent avec les observations récentes et qui, s’il se confirme, contribue à légitimer la stratégie du stockage hivernal. Car dans ces conditions, le véritable enjeu ne serait pas tant de savoir s’il y aura de l’eau en hiver… que de décider quoi en faire.
En matière de stockage de l’eau, certains pays hésitent moins. L’Espagne, à cet égard, offre un cas d’école. Avec 3 à 4 °C de plus en moyenne que la France, environ 15 % de précipitations en moins, des zones semi-désertiques et des étés torrides, elle ressemble déjà à ce que pourrait devenir une partie de notre territoire à l’horizon 2100.
Et pourtant, son agriculture ne s’est pas effondrée. Elle pèse près de 2,7 % du PIB — contre 1,6 % en France — et affiche une balance commerciale largement excédentaire. Le secret ? Entre autres, une politique d’irrigation assumée. L’Espagne irrigue environ six fois plus de surfaces que la France et dispose de capacités de stockage sans commune mesure, près de cinq fois supérieures. Ironique, dès lors, de voir cet exemple souvent brandi pour dénoncer l’« insoutenabilité » des retenues françaises.
Certes, le modèle espagnol atteint aujourd’hui certaines limites. Le réchauffement accentue les tensions hydriques et oblige à des arbitrages de plus en plus fins. Mais cela suggère aussi qu’en France, où la pression climatique reste moindre, la marge d’adaptation est sans doute encore large.
« Maladaptation ». Le mot revient en boucle pour qualifier tout projet de stockage. Pourtant, lorsque les retenues sont implantées dans des contextes géologiques adaptés — ce qui est précisément un des critères de leur autorisation — elles ne menacent pas la ressource. Au contraire, elles déplacent les prélèvements vers la saison où l’eau est disponible et soulagent les nappes au moment où elles sont le plus vulnérables : pendant l’été.
Cela ne signifie pas que le stockage soit pertinent partout, inondations ou pas, ni qu’il constitue une réponse unique. L’adaptation passera aussi par des leviers agronomiques, variétaux, techniques. Mais écarter d’emblée ces infrastructures au nom d’un principe idéologique flou reviendrait à se priver d’un outil — imparfait, certes — mais potentiellement décisif dans la boîte à outils climatique.
L’article Trop d’eau en hiver, stockage nécessaire ? est apparu en premier sur Les Électrons Libres.
Focus sur une sacrée innovation qui peut changer la donne en matière de conduite des troupeaux.
Dans les immenses exploitations agricoles d’Australie ou des Amériques, la gestion du bétail a toujours été une entreprise coûteuse, chronophage et dangereuse. Pour déplacer des milliers de têtes de bétail sur des territoires gigantesques, les éleveurs (les ranchers) dépendent d’une logistique lourde impliquant, outre les chevaux, des motos tout-terrain et des hélicoptères. Or, le bilan carbone de cette méthode est colossal et source d’intenses critiques. D’où l’ambition de la startup GrazeMate de bouleverser cet écosystème.
Fondée par Sam Rogers, un jeune ingénieur en robotique de 19 ans ayant grandi dans une ferme bovine australienne, elle propose une flotte de drones autonomes pilotés par une intelligence artificielle de pointe. Soutenue à hauteur de 1,2 million de dollars par le prestigieux incubateur californien Y Combinator, l’entreprise remplace ainsi le vacarme stressant des hélicoptères par une « chorégraphie aérienne » discrète et élégante.
Ce qui distingue GrazeMate d’un simple drone télécommandé, c’est son apprentissage par renforcement. L’IA embarquée comprend et anticipe le comportement des vaches. Le drone sait exactement à quelle distance et sous quel angle s’approcher pour appliquer la « pression psychologique » nécessaire afin de guider calmement le troupeau vers un nouveau pâturage, imitant à la perfection l’expertise d’un bouvier expérimenté. Si une vache s’affole, le drone recule instantanément pour réduire le stress de l’animal.
Depuis leur smartphone, les éleveurs déclenchent le déplacement en un clic. Pendant que l’essaim autonome effectue le travail de rabattage, ses capteurs en profitent pour réaliser des analyses vitales pour l’exploitation : estimation du poids des bêtes, détection des animaux malades, mesure de l’herbe disponible et inspection des points d’eau et des clôtures, etc.
Un avion omnidirectionnel ? Dans le domaine de la mobilité aérienne, la start-up autrichienne CycloTech entend bousculer un siècle de certitudes aéronautiques. Oubliez les hélices et les rotors d’hélicoptères classiques : l’entreprise a célébré l’an passé le vol inaugural réussi de son démonstrateur technologique BlackBird, propulsé par une innovation de rupture, baptisée « CycloRotor ».
Le principe repose sur une technologie de propulsion « omnidirectionnelle » dérivée des propulseurs Voith-Schneider, historiquement utilisés dans le domaine maritime. Concrètement, le CycloRotor se présente sous la forme d’un cylindre rotatif composé de pales profilées dont l’angle d’attaque peut être modifié individuellement et en temps réel, tout en ayant une vitesse de rotation constante. C’est uniquement la variation de l’angle des pales qui permet de modifier instantanément la direction et la puissance de la poussée sur 360 degrés.
Pour l’aviation, et plus particulièrement pour le secteur naissant des eVTOL (les aéronefs électriques à décollage et atterrissage verticaux), les implications sont très intéressantes. Jusqu’à présent, un appareil devait s’incliner – parfois de manière inconfortable pour les passagers – pour avancer, reculer ou contrer des bourrasques de vent.
Avec ses six CycloRotors, le BlackBird s’affranchit de cette contrainte : il peut freiner en plein vol, se déplacer latéralement ou reculer tout en maintenant son fuselage de façon parfaitement horizontale. Cette maniabilité inédite offre non seulement un bien meilleur confort, mais permet surtout des opérations d’une précision chirurgicale dans des environnements urbains denses et confinés, ouvrant grand la porte à l’ère des taxis volants compacts et sécurisés.
Cette vidéo a fait le tour du monde. Bruno Drummond, l’homme qui pousse le fauteuil roulant, est devenu tétraplégique suite à un grave accident de voiture en 2018. Aujourd’hui, il marche à nouveau grâce à la réussite spectaculaire d’un traitement expérimental.
Ce qui ressemble à un miracle médical est en réalité le fruit de plus de vingt ans d’acharnement scientifique au sein de l’Université fédérale de Rio de Janeiro (UFRJ). À la tête de cette recherche figure la biologiste Tatiana Sampaio, qui a consacré sa carrière à comprendre comment réparer les lésions de la moelle épinière, un domaine où la médecine avoue encore son impuissance. Et pour cause : la moelle lésée forme une cicatrice tissulaire, une barrière qui empêche les neurones de repousser et de se reconnecter.
La clé de sa découverte réside dans une molécule artificielle inspirée d’une protéine présente dans le placenta humain : la polilaminine. Synthétisée en laboratoire et injectée dans la zone de la lésion, elle agit comme un véritable « tuteur biologique » qui oriente les neurones, stimule leur croissance et permet de rétablir la communication entre les cellules nerveuses.
Les résultats sur Bruno Drummond, le patient « numéro 1 » du protocole, dépassent toutes les espérances. Les premiers signes de récupération sont apparus de manière fulgurante : à peine quelques semaines après l’injection, intervenue peu de temps après son accident, il parvenait à bouger un orteil, signe que le signal électrique traversait de nouveau son corps, avant de pouvoir carrément… remarcher. Cette victoire de la science brésilienne pourrait redonner un espoir concret à des millions de personnes.
Cependant, la communauté scientifique appelle encore à la prudence. Malgré un engouement médiatique sans précédent, les sociétés savantes rappellent que ces résultats préliminaires spectaculaires n’ont pas encore fait l’objet de publications relues par des pairs (peer review). Le traitement doit maintenant franchir le long et rigoureux parcours de la validation clinique indépendante avant de pouvoir être considéré comme un protocole médical standardisé. Et l’essai clinique officiel de phase 1 vient tout juste d’être autorisé en janvier 2026…
Reléguer les épidémies hivernales au rayon des souvenirs ? C’est désormais possible. Des chercheurs affiliés à l’Université de Stanford ont mis au point un spray nasal capable (sur les animaux testés) de protéger contre l’ensemble des rhumes, des toux infectieuses et des différentes souches de la grippe.
La véritable révolution scientifique ne s’appuie pas sur l’approche classique du ciblage des antigènes, mais sur la stimulation directe, locale et indifférenciée de notre système immunitaire. En pratique, le produit se distingue par sa facilité d’utilisation. Une fois pulvérisée, la solution agit en imitant les signaux chimiques naturels de communication cellulaire de notre organisme.
Cette subtile ruse biologique permet d’attirer et de déployer massivement une redoutable armée de globules blancs spécialisés directement au cœur des muqueuses respiratoires. Ces sentinelles implacables de notre corps sont alors placées dans un état d’alerte maximale. Ainsi mobilisée de manière préventive, cette ligne de défense immunitaire repousse tous les agresseurs tentant de franchir nos voies aériennes. L’efficacité mesurée est impressionnante, parvenant à réduire drastiquement la charge virale dans les poumons d’un facteur pouvant atteindre 700. De surcroît, ce bouclier protecteur offre une couverture prolongée, son effet se maintenant durant une période d’au moins trois mois.
Le fait le plus remarquable réside dans l’étendue de son spectre d’action. En effet, cette barrière biologique s’étend bien au-delà de la seule neutralisation des virus pour s’attaquer aussi à de redoutables bactéries, telles que Staphylococcus aureus ou encore Acinetobacter baumannii. Le vaccin s’est même avéré efficace contre les réponses allergiques sévères. Les chercheurs planifient maintenant les premiers essais cliniques !

L’industrie de la réfrigération, responsable d’une part non négligeable de la consommation électrique mondiale et des émissions de gaz à effet de serre (en raison des fluides frigorigènes fluorés), est peut-être à l’aube d’une révolution écologique.
Ces gaz contribuent fortement au réchauffement climatique en cas de fuite et participent à la destruction de la couche d’ozone (surtout les plus anciens). Pour la santé et la sécurité, ils présentent des risques d’asphyxie (en cas de fuite massive en espace confiné), d’intoxication (étourdissements, nausées, œdème pulmonaire), et certains sont inflammables, voire explosifs. Or, des chercheurs de l’Université des sciences et technologies de Hong Kong (HKUST) ont développé le premier congélateur au monde utilisant la technologie de « refroidissement élastocalorique », capable d’atteindre la température sous zéro de −12 °C, sans la moindre émission.
De quoi parle-t-on ? Le refroidissement élastocalorique s’appuie sur une propriété physique fascinante propre aux alliages à mémoire de forme, en l’occurrence des tubes en nickel-titane. Lorsqu’un stress mécanique intense est appliqué à ce métal, sa structure cristalline interne se modifie de manière réversible, ce qui libère de la chaleur dans l’environnement. À l’inverse, lorsque la contrainte est relâchée, le matériau absorbe goulûment la chaleur pour reprendre sa forme initiale, générant ainsi un puissant effet de refroidissement.
Si le principe était déjà connu pour fonctionner à température ambiante, franchir la barre de la congélation relevait encore du défi technique. L’équipe universitaire y est parvenue en soumettant ses tubes métalliques à des pressions colossales allant jusqu’à 900 mégapascals (l’équivalent de 4 000 fois la pression d’un pneu de voiture). Un liquide en circulation capte le froid généré lors du relâchement pour refroidir le dispositif, sans la moindre goutte de gaz polluant. Outre son bilan carbone quasi nul, cette solution offre une efficacité énergétique qui pourrait, à terme, remplacer les anciens systèmes à compression de vapeur.
Toutefois, le chemin vers une commercialisation à grande échelle reste semé d’embûches. Le fait de devoir générer de telles pressions nécessite des actionneurs mécaniques robustes, qui sont à ce jour trop coûteux ou volumineux pour être intégrés dans l’électroménager grand public. Bref, si la prouesse réalisée en labo est indiscutable, le passage au réfrigérateur domestique exigera plusieurs années d’optimisation en ingénierie des matériaux. À suivre…

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.
Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.
L’article Électroscope #15 : Drones cowboys, avions omnidirectionnels et miracle médical est apparu en premier sur Les Électrons Libres.