Vue normale

Reçu hier — 27 janvier 2026 De tout et de rien

Les fermes urbaines à l’épreuve des chiffres

27 janvier 2026 à 06:16

C’est la nouvelle lubie des municipalités écologistes. De Grenoble à Paris, en passant par Lyon, Nantes, ou Bordeaux, rares sont les grandes villes qui n’annoncent pas, à grand renfort de communication, le déploiement de fermes urbaines. Restauration du lien social, résilience des territoires urbains, autonomie alimentaire… Les promesses sont nombreuses. Mais résistent-elles à l’épreuve du réel ?

« Un projet qui mise sur le vivant pour cultiver l’avenir ». C’est en ces termes que le média grenoblois Place Gre’Net présente la ferme Mille Feuilles, quelques jours après son inauguration, le 6 novembre dernier. Une cérémonie très officielle, en présence de l’ensemble des élus locaux, visiblement enthousiastes à l’idée de dévoiler ce nouveau symbole de l’agriculture urbaine.

« L’idée était de ramener du travail agricole en ville […]. Nous voulions créer des emplois pour des personnes qui n’ont pas forcément d’expérience, mais qui ont envie de découvrir ce milieu », explique Isabelle Robles, directrice et fondatrice de Mille Pousses, l’association porteuse du projet.

Un projet qui doit aussi permettre de « faciliter l’accès aux populations les plus précaires, les plus modestes, à une alimentation de qualité, locale et surtout abordable », se félicite la maire d’Échirolles, Amandine Demore.

Éric Piolle, maire de Grenoble, se montre tout aussi emballé : « c’est le signe que l’activité agricole revient en ville, que la fonction nourricière du sol est là, présente sous nos yeux. C’est aussi un message pour notre rapport au vivant et notre rapport au foncier ».

Sur ce point, le maire n’a pas tort. Oui, ce projet en dit long sur son rapport au foncier, mais sans doute pas exactement dans le sens qu’il imagine. Car derrière ce concert de promesses et d’autosatisfaction, une question essentielle reste soigneusement évitée : à quel prix ?

Sur les toits de Paris

J’approfondis

Très chers radis

Car ce type de projet a un coût. Un coût élevé. Nous ne sommes pas ici face à une exploitation agricole comme les autres. Le foncier, en plein cœur urbain, n’a évidemment rien à voir avec celui d’un maraîcher s’installant à la campagne. À cela s’ajoute la très faible superficie de ces micro-fermes, qui accentue mécaniquement les effets de bord et les surcoûts, bien plus marqués que dans les exploitations de plus grande taille.

Les contraintes propres à l’aménagement urbain viennent encore alourdir la facture : remise en état des terrains, souvent d’anciennes friches industrielles ou des infrastructures désaffectées en reconversion (à Grenoble, un ancien stade de rugby). S’y ajoutent les études de sol, parfois rendues nécessaires par des pollutions résiduelles. Un enjeu particulièrement sensible à Grenoble, du fait du passé industriel de la ville, même si aucune communication officielle ne s’en est fait l’écho.

Ainsi, la toute nouvelle ferme urbaine grenobloise Mille Feuilles, d’une surface de 1,3 hectare, représente la bagatelle d’1,4 million d’euros d’investissement initial. Une somme intégralement financée par le contribuable : 638 000 euros par la Ville de Grenoble, 382 000 euros par l’Agence nationale de la rénovation urbaine, 218 000 euros par la Métropole de Grenoble, 125 000 euros par l’État et 12 000 euros par le Département de l’Isère.

Et ce n’est là que le début. Car une fois les rubans coupés, encore faut-il faire fonctionner l’ensemble. Pas de pesticides, peu de mécanisation : le modèle repose avant tout sur le travail humain. A Mille-Feuilles, cinq postes à temps plein sont prévus pour faire tourner la micro-ferme. Un chiffre qui peut paraître modeste au regard de la promesse de Mme Robles de « ramener du travail agricole en ville », mais qui représente en réalité une intensité de main-d’œuvre considérable rapportée à la surface exploitée. Environ douze fois plus que dans le maraîchage classique, où un agriculteur gère en moyenne près de 3 hectares de cultures.

Faute de données publiques détaillées, on peut raisonnablement estimer que ces emplois, supposément rémunérés au SMIC, représentent environ 110 000 euros de salaires annuels. À cela s’ajoutent les coûts d’entretien et de fonctionnement des infrastructures et des équipements, probablement de l’ordre de 40 000 euros supplémentaires par an. Au total, si l’on retient une durée de vie du projet de vingt ans, on arrive à un coût annuel d’environ 220 000 euros. Et si l’on suppose des rendements comparables à ceux d’un système de type « bio-intensif manuel », comme au Bec Hellouin, les légumes produits reviendraient in fine de six à vingt-quatre fois plus cher — selon les cultures — que ceux issus d’une exploitation maraîchère conventionnelle.

Sources pour les coûts de production en maraichage conventionnel :
https://www.la-cab.fr/wp-content/uploads/2020/10/touteslesfiches.pdf, https://rnm.franceagrimer.fr/prix?OIGNON, https://rnm.franceagrimer.fr/prix?RADIS, https://www.la-cab.fr/wp-content/uploads/2020/10/fichetk_pommedeterre.pdf

N’en déplaise à Mme Demore, il est ainsi difficile de qualifier un tel modèle de source d’alimentation « abordable ». Sauf à accepter un financement massif et pérenne par le contribuable, l’accès de ces productions aux « populations les plus précaires » relève davantage de l’affichage politique que de la réalité économique. D’autant qu’il est fort à parier que ce financement, au final, bénéficiera à une poignée de consommateurs urbains déjà privilégiés.

Le mirage de l’autonomie

Alors oui, c’est cher. Mais n’est-ce pas le prix à payer pour offrir aux villes davantage d’autonomie alimentaire ? L’argument est séduisant. Il résiste toutefois assez mal à l’épreuve des chiffres.

Car manger à sa faim, pour un être humain, demande beaucoup de place. Bien plus qu’on ne l’imagine. Ce que semble ignorer Éric Piolle (et, plus largement, une bonne partie de la population citadine), c’est qu’il faut en moyenne près d’un demi-hectare de surfaces agricoles pour nourrir un Français « moyen ». Soit environ un demi-stade de football par personne.

Cette surface s’explique en grande partie par la place occupée par l’élevage dans notre alimentation : près de 85 % des terres agricoles y sont consacrées. Les régimes végans s’en sortent donc nettement mieux, avec des besoins environ quatre fois inférieurs, de l’ordre de « seulement » 1 200 m² par personne.

Appliquons maintenant ces ordres de grandeur à la toute nouvelle ferme urbaine grenobloise. Avec ses 1,3 hectare, Mille Feuilles pourrait théoriquement assurer l’autonomie alimentaire… de trois personnes « moyennes ». Ou, dans le meilleur des cas, d’une petite dizaine de végans. En clair, à peine de quoi nourrir les cinq personnes chargées de cultiver le site. Nous sommes ici typiquement dans le cas d’une agriculture vivrière : un système capable de faire vivre celles et ceux qui y travaillent… et guère plus. En aucun cas, ce type de projet ne peut prétendre amorcer ne serait-ce qu’un début d’autonomie alimentaire pour une ville comme Grenoble et ses 160 000 habitants.

Fermes verticales : l’agriculture urbaine en mode high-tech

J’approfondis

Reste une question à élucider : pourquoi cette obsession de l’autonomie alimentaire ? Le territoire français fonctionne aujourd’hui selon une organisation éprouvée, avec des villes concentrant populations et activités économiques, et des campagnes davantage tournées vers la production agricole. Les unes dépendent des autres, et réciproquement. En quoi est-ce un problème ?

Cette quête d’autonomie, particulièrement marquée chez certains maires situés à gauche de l’échiquier politique, semble davantage nourrie par une angoisse de l’effondrement sociétal que par une analyse rationnelle des flux alimentaires. La porosité entre écologie politique et discours collapsologiques alimente sans doute cette crainte très urbaine d’être, un jour, « abandonné » par les campagnes.

Mais même dans ce scénario noir, ce ne sont pas quelques radis cultivés à la ferme Mille Feuilles qui sauveraient les citadins. Dès lors, une fois les chiffres posés, une question demeure : à quoi bon entretenir cette illusion ?

L’intérêt est ailleurs

On l’aura compris : l’intérêt de ce type de projets n’est pas réellement de restaurer la prétendue « fonction nourricière » des sols urbains, n’en déplaise à M. Piolle. Faut-il pour autant considérer qu’ils n’apportent rien ? Les bénéfices existent, mais ils se situent ailleurs.

D’abord, un espace végétalisé au cœur d’une agglomération, c’est a priori une bonne nouvelle. Dans un contexte de réchauffement climatique, où les populations urbaines sont de plus en plus exposées aux canicules, les fermes urbaines peuvent contribuer à limiter l’effet d’îlot de chaleur, grâce au pouvoir rafraîchissant des plantes. À condition, bien sûr, d’être correctement irriguées : sans eau, en pleine vague de chaleur, les cultures ne tardent pas à griller, et un couvert végétal desséché ne rafraîchit pas grand-chose.

Même dans ce cas favorable, la ferme urbaine reste toutefois moins efficace qu’un parc arboré. Les arbres offrent une surface foliaire bien supérieure à celle des cultures légumières, et les serres, quant à elles, sont plutôt connues pour emmagasiner la chaleur que pour rafraîchir l’atmosphère. Dès lors, une question simple s’impose : pourquoi ne pas investir directement dans des parcs, moins coûteux à l’installation comme à l’entretien, et nettement plus efficaces pour améliorer le confort thermique urbain ?

Les fermes urbaines peuvent également remplir une fonction sociale. Si leur potentiel de création d’emplois demeure limité, elles peuvent servir de supports pédagogiques, notamment à destination des écoles voisines. Enfants — et adultes, pourquoi pas — peuvent ainsi découvrir comment poussent les aliments et prendre conscience des contraintes associées à leur production. L’intention est louable. Le risque, en revanche, est de diffuser une vision très partielle, voire biaisée, du monde agricole. Les dimensions et les pratiques de ces micro-fermes sont en effet très éloignées des réalités de l’agriculture professionnelle.

Il est donc probable que ces projets servent avant tout de vecteurs de messages à forte charge idéologique, en particulier auprès de la jeunesse : défiance vis-à-vis de l’agriculture conventionnelle et des grandes exploitations, et, comme souvent, mise en avant des dangers supposés des pesticides, en omettant soigneusement les gains qu’ils ont permis en matière de rendements, de sécurité alimentaire et de conditions de travail.

C’est sans doute là que réside l’intérêt principal de ces fermes urbaines. Non pas pour la population dans son ensemble, mais pour les responsables politiques qui les subventionnent… avec notre argent. À défaut de constituer un levier crédible d’autonomie alimentaire, elles deviennent des outils de communication et des armes politiques, permettant de diffuser une certaine vision de l’écologie, même lorsqu’elle s’éloigne sensiblement des réalités agronomiques et économiques. Tout en offrant aux municipalités l’occasion de se parer d’une image « verte » et vertueuse.

Si le « rapport au foncier » des municipalités engagées dans ces projets était réellement aligné sur les préoccupations des populations socialement défavorisées, l’investissement irait sans doute en priorité vers le logement. Dans un contexte de forte pression immobilière, notamment sur le neuf, peut-on réellement se permettre de consacrer des hectares de terrain et des millions d’euros à des fermes urbaines qui ne profiteront, in fine, qu’à une minorité de citadins privilégiés, et ce au nom d’une écologie idéologique largement déconnectée des réalités ?

L’article Les fermes urbaines à l’épreuve des chiffres est apparu en premier sur Les Électrons Libres.

Reçu — 20 janvier 2026 De tout et de rien

Corriger des copies par IA, fiction ou réalité ?

20 janvier 2026 à 05:35

Cent soixante-cinq heures. C’est, en moyenne, le temps nécessaire au travail de correction pour un enseignant français. Cent soixante-cinq heures d’un travail éprouvant et répétitif. Cent soixante-cinq heures qui, multipliées par des centaines de milliers de profs, constituent une charge aussi indispensable que colossale pour le système éducatif. Et si l’IA pouvait changer la donne ?

Soixante-huit milliards d’euros de budget annuel. Près d’un million d’enseignants. Un ministère tentaculaire, aujourd’hui confronté à une crise profonde. Crise des vocations, d’abord, avec des difficultés croissantes de recrutement. Crise du niveau des élèves, ensuite, illustrée par le décrochage de la France dans les classements internationaux, notamment PISA. Dans ce contexte, difficile de ne pas s’interroger sur les leviers capables d’enrayer cette spirale.

L’intelligence artificielle, entrée brutalement dans notre quotidien avec ChatGPT il y a trois ans, pourrait bien faire partie des solutions. Non pas en remplaçant les enseignants, scénario qui relève toujours de la science-fiction, mais en s’attaquant à un angle mort du débat public : le travail invisible du professeur. Car près de la moitié de son activité se déroule hors de la classe, entre préparation des cours et correction des copies.

À ce titre, l’Éducation nationale dispose d’un gisement considérable de gains d’efficacité grâce aux outils numériques. Un potentiel que les instances ministérielles ont d’ailleurs commencé à explorer, en lançant une stratégie de développement d’agents conversationnels destinés à accompagner élèves et personnels, et en proposant des parcours de formation spécifiquement dédiés à l’IA.

Sujet tabou

C’est dans ce cadre qu’en octobre dernier, la région Hauts-de-France organisait un vaste webinaire à destination de l’ensemble des enseignants, afin de présenter les promesses, les enjeux, mais aussi les risques liés à l’usage de l’intelligence artificielle. De nombreuses pistes ont été évoquées pour alléger le travail de préparation pédagogique. Mais une question, pourtant centrale, brillait par son absence : celle de l’assistance à la correction.

Il aura fallu qu’un enseignant ose poser la question frontalement pour que le sujet soit enfin abordé… et aussitôt refermé. Selon les formateurs présents, l’usage de l’IA comme aide à la correction n’est aujourd’hui « pas recommandé », voire carrément proscrit. En cause, des outils jugés encore peu fiables, des interrogations sur la protection des données personnelles et, surtout, une conviction profondément ancrée : la correction manuelle ferait partie intégrante de l’acte pédagogique et de l’identité professionnelle de l’enseignant.

Examino : la French Tech au service des profs

J’approfondis

Certes, reconnaissent-ils, la correction est « coûteuse en temps ». Mais elle participerait directement à la « construction de l’acte pédagogique ». Comment, sans elle, identifier les obstacles rencontrés par les élèves et ajuster son enseignement en conséquence ?

Une position ferme, et qui semble frappée au coin du bon sens.

Un lourd tribut

Et pourtant, ce débat mérite mieux que des postures dogmatiques, même lorsqu’elles se parent d’une évidence de façade. Prenons donc le temps de regarder les chiffres, car la fameuse « construction de l’acte pédagogique » par la correction a un coût. Un coût élevé. Et pas uniquement pour la santé mentale des enseignants.

Rien que pour le baccalauréat, plus d’un million de copies doivent être corrigées chaque année, mobilisant environ un demi-million d’heures de travail cumulées. Une tâche souvent ingrate, faiblement rémunérée, qui représente pourtant à elle seule plus de 4 millions d’euros pour l’État. Mais se limiter aux examens serait réducteur. En moyenne, un enseignant consacre environ 4,6 heures par semaine à la correction, soit près de 11 % de son temps de travail total. Rapporté au coût global des enseignants en activité (environ 50 milliards d’euros par an), la seule correction des copies représente un ordre de grandeur de 5,5 milliards d’euros annuels. L’équivalent, peu ou prou, du budget du ministère de l’Agriculture.

Source : Ministère de l’Éducation Nationale

Gardons toutefois les pieds sur terre : confier la correction à des IA ne ferait pas disparaître mécaniquement cette dépense. En revanche, cela pourrait libérer du temps enseignant pour des tâches moins pénibles et potentiellement plus utiles aux élèves. Moins de travail à la maison, c’est aussi la possibilité d’imaginer davantage de soutien individualisé, voire une évolution vers des classes à effectifs réduits. La perte de connaissance fine des élèves, invoquée pour justifier la correction manuelle, serait-elle alors réellement un problème… ou pourrait-elle être compensée autrement ?

D’autant qu’une correction automatisée pourrait fournir des retours détaillés sur les erreurs individuelles, identifier les difficultés récurrentes à l’échelle d’une classe, et n’exclurait nullement que l’enseignant lise un échantillon de copies à chaque devoir. Autrement dit, la correction par IA ne signifie pas l’abandon du regard pédagogique, mais sa réorganisation.

Et les bénéfices potentiels ne seraient pas uniquement comptables. Ils pourraient aussi être d’ordre pédagogique : davantage d’annotations pour les élèves, plus d’évaluations au cours de l’année, et peut-être même une plus grande équité, les résultats ne dépendant plus de la fatigue ou de la sévérité variable du correcteur.

À une condition essentielle, toutefois : que l’intelligence artificielle soit capable de faire ce travail avec un niveau de fiabilité suffisant.

L’humain face à la machine

Printemps 2024. En pleine « GPT mania », Thibaud Hayette, professeur de français dans l’académie de Lyon, décide de passer de la théorie à l’expérimentation. Avec l’accord de sa hiérarchie, il se procure sept copies de brevet et les soumet à ChatGPT. L’objectif est simple : tester, concrètement, la fiabilité d’un outil d’intelligence artificielle dans une tâche de correction.

Ce qui relevait encore, quelques années plus tôt, d’un « fantasme de prof » se révèle rapidement bien plus sérieux que prévu. La correction est quasi instantanée, richement commentée, et surtout, les notes attribuées par l’agent conversationnel s’avèrent remarquablement proches de celles des correcteurs humains. Une surprise, même pour l’enseignant.

Un point noir subsiste néanmoins : la reconnaissance de l’écriture manuscrite. L’OCR (la Reconnaissance Optique de Caractère), encore imparfaite, contraint Thibaud à retaper lui-même les copies. Un frein réel, mais depuis, de nouveaux modèles ont vu le jour, affichant des progrès constants.

Correction pour un champion

J’approfondis

Nous avons pu récupérer les copies utilisées par Thibaud afin de mener nos propres tests, et les résultats sont encourageants. Avec un taux d’erreur limité à 6%, Google AI Studio (utilisant le modèle Gemini 3 Pro) ne se trompe en moyenne que sur un mot sur dix-sept. Un ratio suffisamment faible pour ne pas entacher la compréhension globale d’une copie, mais qui reste problématique pour certains exercices, comme la dictée. Et sur des écritures particulièrement difficiles, l’OCR reste un obstacle. Du moins, pour l’instant.

Une fois cette étape franchie, les performances des modèles deviennent franchement impressionnantes. Nous avons testé quatre systèmes parmi les plus réputés du moment : Gemini 3 Pro (via Google AI Studio), Claude Sonnet 4.5, ChatGPT 5.2 et Mistral Large 3. À cela s’ajoute l’évaluation de la plateforme spécialisée Examino. Résultat : quel que soit le modèle, l’écart moyen sur la note globale par rapport à une correction humaine reste systématiquement inférieur à 10 %. Pour les modèles les plus performants, comme pour Examino, il tourne même autour de 6 %. Mieux encore, lorsque l’on répète plusieurs fois la correction d’une même copie, la variabilité aléatoire reste contenue, entre 3 et 4 %.

Mais un écart de 10 % avec un correcteur humain, est-ce déjà trop ? Pas nécessairement. Car il ne faut pas oublier que les correcteurs humains eux-mêmes ne sont pas infaillibles. S’il n’existe pas de statistiques officielles, les expérimentations disponibles évoquent généralement des écarts-types de 2 à 3 points sur 20, soit 10 à 15 %. Et dans certains cas, les différences entre correcteurs peuvent grimper à 10 points… voire davantage.

À l’aune de ces éléments, la variabilité observée avec les IA apparaît donc nettement inférieure à celle qui existe entre correcteurs humains. D’autant plus que la correction automatisée offre un avantage décisif : la possibilité de faire corriger plusieurs fois la même copie par la machine, puis d’en calculer une moyenne, afin de lisser les variations aléatoires. Une option tout simplement impossible à grande échelle avec une correction manuelle.

L’inertie du mammouth

Si la faisabilité technique de la correction par IA ne fait désormais plus guère de doute, les principaux freins se situent ailleurs. Pour qu’une adoption à grande échelle devienne possible, encore faut-il que l’institution s’empare réellement du sujet. Or, à en juger par le contenu des webinaires et formations estampillés Éducation nationale, l’intelligence artificielle reste d’abord perçue comme un risque potentiel, bien plus que comme une solution opérationnelle.

Le « Cadre d’usage de l’IA en éducation » donne le ton sans ambiguïté, en rappelant que « l’utilisation de l’IA pose des questions éthiques, déontologiques et écologiques ». L’intention est louable : poser des garde-fous clairs pour prévenir les dérives. Mais le mieux est parfois l’ennemi du bien, et une focalisation quasi exclusive sur les risques supposés, au détriment des gains possibles, pourrait freiner durablement le déploiement de l’IA au sein des services.

Et quand bien même une volonté politique affirmée émergerait en faveur de l’usage de l’IA pour la correction des copies, sa traduction concrète dans les pratiques prendrait du temps. Avec ses effectifs pléthoriques et ses processus lourds, le ministère de l’Éducation nationale n’est pas réputé pour sa souplesse, et l’inertie institutionnelle y est souvent considérable.

À cela s’ajoute la réticence d’une partie du corps enseignant lui-même. Dans un climat général marqué à gauche par une technophobie ambiante, l’intelligence artificielle reste souvent perçue comme un outil superficiel et dispensable… voire comme une menace, en raison notamment des usages détournés qu’en font certains élèves.

Si, pour l’Éducation nationale, la perspective d’économies constitue sans doute le levier le plus efficace pour faire bouger les lignes, il ne faudrait pas perdre de vue l’essentiel. La correction automatisée pourrait avant tout apporter des bénéfices très concrets aux personnels, et plus encore à la jeunesse. Du temps et du confort retrouvés pour les enseignants, avec à la clé des heures précieuses libérées. Et, pour les élèves, des retours plus riches sur leurs productions, ainsi qu’une évaluation plus cohérente, plus lisible et mieux harmonisée.

S’il est probable que l’intelligence artificielle s’impose, dans un horizon relativement proche, comme un outil d’aide à la correction des copies d’examen, pour les usages plus quotidiens, en revanche, il faudra sans doute attendre que la profession ouvre les yeux sur cet outil, dont les promesses apparaissent aujourd’hui aussi enthousiasmantes que vertigineuses.

L’article Corriger des copies par IA, fiction ou réalité ? est apparu en premier sur Les Électrons Libres.

Reçu — 18 janvier 2026 De tout et de rien

Élever sans frustrer ? Les illusions dangereuses de l’éducation bienveillante

18 janvier 2026 à 06:55

Jeunes parents, vous n’avez pas pu y échapper. Il y a une quinzaine d’années, l’éducation positive a déferlé sur la France, portée par un cocktail de grands principes, de références aux neurosciences… et d’injonctions parfois culpabilisantes. Mais ce modèle éducatif tient-il réellement ses promesses ? Et au fond, est-il vraiment si « positif » ?

Lorsque Isabelle Filliozat publie J’ai tout essayé en 2011, rien ne laissait présager un tel raz-de-marée éditorial. Jusqu’alors, l’auteure prêchait plutôt dans le désert. Son précédent ouvrage consacré à l’éducation, Au cœur des émotions de l’enfant, paru en 1999, n’avait rencontré qu’un écho modeste. Mais cette fois, le succès est immédiat et massif, et sera le point de départ d’un véritable phénomène de société : En quelques années à peine, l’éducation « positive » qu’elle promeut s’impose progressivement comme une évidence, presque comme une nouvelle norme. Et son premier livre, rétrospectivement, est élevé au rang de texte fondateur du mouvement.

Dans la foulée, en 2014, la pédiatre Catherine Gueguen publie Pour une enfance heureuse. Là encore, le succès est spectaculaire. Forte de sa formation médicale, elle vient appuyer les intuitions de Filliozat (psychologue de formation) par des arguments issus des neurosciences. Les principes de l’éducation bienveillante gagnent alors un vernis scientifique qui achève de la légitimer aux yeux du grand public. 

Mais de quelles thèses parle-t-on exactement ?

Les axiomes de l’éducation bienveillante

Tous les parents le savent : la parentalité ressemble souvent à un parcours du combattant. Dans ce contexte, la soif de réponses est immense, et c’est précisément là que ces ouvrages rencontrent leur public. Ils promettent des clés simples, directement applicables, presque des modes d’emploi pour parents démunis. Le tout enveloppé de valeurs auxquelles personne ne peut décemment s’opposer : le bien-être de l’enfant, la sérénité familiale, l’amour, l’épanouissement. Rien d’étonnant, dès lors, à ce que ces livres deviennent des best-sellers.

D’autant que le message est clair : tout se joue pendant l’enfance. Faites les mauvais choix, commettez des erreurs éducatives (sous-entendu : ne respectez pas nos conseils), et vos enfants en paieront le prix toute leur vie.

Et parmi ces erreurs, la plus grave serait de stresser l’enfant. Catherine Gueguen alerte ainsi sur les effets délétères du cortisol, l’hormone du stress, qui provoquerait des dégâts irréversibles sur le cerveau en développement. À l’inverse, l’ocytocine — hormone de l’attachement et du bien-être — favoriserait un développement cérébral optimal. Conclusion : éviter à tout prix colères, frustrations et sanctions, au profit des câlins, et autres témoignages d’affection. Sous peine, là encore, de conséquences durables.

Dans cette logique, toute « violence éducative ordinaire » est proscrite. Bien sûr, les violences physiques sont bannies. Mais la notion s’étend bien au-delà : crier, punir, contraindre un enfant à faire quelque chose qu’il ne souhaite pas deviennent, eux aussi, des formes de violence psychologique.

Et si, malgré toute cette vigilance, une colère incontrôlée survient, il ne s’agit surtout pas d’un caprice. Les caprices, nous dit-on, n’existent pas. Ces débordements seraient des appels à l’aide, auxquels il faudrait répondre par de l’affection, de l’écoute, du réconfort, et surtout du dialogue. D’autant que, chez le jeune enfant, le cortex préfrontal, siège du raisonnement et du contrôle de soi, est immature. L’enfant serait donc gouverné par ses pulsions, incapable de planifier ou de se réguler. Dans ces conditions, toute sanction serait non seulement injuste, mais contre-productive. Alors qu’un sain dialogue permettrait de « reconnecter » le néocortex, qui reprendrait le dessus sur le cerveau limbique et le fameux « cerveau reptilien », responsables des émotions et des réactions instinctives.

Isabelle Filliozat pousse le raisonnement encore plus loin. Un enfant agité, qui court, grimpe, déborde d’énergie ? C’est parfaitement normal. « La vie, c’est le mouvement », affirme-t-elle. Chercher à canaliser ces comportements reviendrait à aller contre sa nature biologique. À l’inverse, un enfant trop obéissant devient suspect : il serait en réalité en état de stress ou de sidération. Face à un parent autoritaire, son cerveau reptilien déclencherait une réponse de paralysie.

Et chez l’adolescent ? La crise est présentée comme inévitable. Le cortex préfrontal, encore immature, empêche toute autorégulation efficace, tandis que le cerveau est inondé de dopamine, rendant le circuit de la récompense hyperactif. Punir un ado pour ses excès serait donc profondément injuste. Cela reviendrait à reprocher à un tout-petit de ne pas savoir marcher.

Pire encore, le cerveau adolescent étant en pleine reconfiguration, il doit expérimenter pour développer ses propres facultés. Si le parent décide à sa place, contrôle trop, cadre trop, le cerveau de l’adolescent ne « câble » pas l’autonomie attendue.

La conclusion logique est que, pour être juste et bienveillant, il faudrait laisser faire. Prendre du recul. Accepter les débordements comme des passages nécessaires. Insultes, violences, conduites à risque, consommation de substances ? Rien d’anormal : ce serait, là encore, la simple expression de sa nature.

Sous le vernis de la science

Pris isolément, ces axiomes peuvent sembler relever du bon sens. Mieux encore, ils paraissent solidement adossés à des résultats scientifiques. Mais dès que l’on gratte un peu le vernis, la fragilité de l’argumentation apparaît rapidement.

Article réservé à nos abonnés.

S'abonner dès 5€/mois

ou

Acheter cet article pour 1,50€

L’article Élever sans frustrer ? Les illusions dangereuses de l’éducation bienveillante est apparu en premier sur Les Électrons Libres.

💾

Reçu — 16 décembre 2025 De tout et de rien

Aux grands maux les bons remèdes

16 décembre 2025 à 06:10

L’humanité dispose-t-elle encore de moyens d’agir, ou a-t-elle déjà perdu la bataille de la biodiversité ? Et devra-t-elle renoncer au progrès pour espérer se sauver ?

D’un côté, le déni ou l’indifférence : la tentation confortable de détourner le regard, en espérant que le problème finira par se résoudre tout seul. De l’autre, la panique, qui mène soit à la résignation fataliste, soit à la remise en cause radicale de nos modes de vie… jusqu’à prôner une forme de régression joliment rebaptisée « décroissance ».

Mais entre ces deux extrêmes, une troisième voie existe : celle du pragmatisme. Chercher des solutions concrètes, efficaces et compatibles avec le fonctionnement moderne de nos sociétés. Cette approche, pourtant défendue par les grandes instances scientifiques comme l’IPBES, reste étonnamment absente du débat public.

La direction à suivre

Montréal, décembre 2022. Alors que la COP15 – la grande convention mondiale sur la diversité biologique – bat son plein, un accord historique est adopté à l’unanimité des 196 délégations présentes : le Cadre mondial de la biodiversité de Kunming-Montréal (CMBKM). Moins médiatisée que les COP sur le climat, cette conférence n’en affiche pas moins des ambitions considérables : « Stopper et inverser la perte de biodiversité d’ici 2030 ».

Le plan s’articule autour de 23 cibles d’action, regroupées en quatre grands axes :

  • maintenir, conserver et restaurer les milieux naturels ;
  • promouvoir une gestion durable des ressources (agriculture, pêche, forêts) ;
  • réduire les pressions liées à la pollution, aux espèces exotiques envahissantes et au changement climatique ;
  • et garantir les moyens de mise en œuvre, notamment financiers.

Malgré ces ambitions, le CMBKM n’a pas échappé aux critiques. En France, une partie de la gauche l’a jugé trop peu contraignant, trop flou, et surtout trop timide, notamment sur ses thèmes de prédilection 一 les mégabassines, les pesticides ou la promotion du bio 一 qui semblent eux-mêmes plus dictés par l’idéologie que par l’efficacité.

Il faut cependant bien admettre que le précédent plan, les Objectifs d’Aichi (2010-2020), s’était soldé par un échec. Alors, comment faire, cette fois, pour que les belles intentions se traduisent enfin en actions concrètes et en résultats ?

Préserver les habitats

On l’a vu : la première cause du déclin de la biodiversité, et de loin, c’est la destruction et l’artificialisation des milieux naturels. Préserver les habitats reste donc le levier numéro un pour enrayer la crise du vivant. C’est aussi l’un des piliers du CMBKM, qui fixe un objectif emblématique, le plan 30×30 : protéger au moins 30 % des terres et des océans d’ici 2030.

Un objectif ambitieux, puisqu’il double les engagements d’Aichi (17 % des terres et 10 % des zones marines protégées à l’horizon 2020), restés largement inachevés. Et cette fois, la qualité compte autant que la quantité. Les zones protégées doivent disposer de plans de gestion concrets, de financements suffisants et de personnels dédiés. Elles doivent aussi refléter la diversité des écosystèmes — forêts, prairies, zones humides, récifs coralliens — et ne pas se limiter à des espaces peu productifs ou isolés.

Autre exigence majeure : la connexion entre ces aires grâce à des corridors écologiques, pour permettre la circulation des espèces et limiter la fragmentation des habitats. Le cadre encourage également l’implication des peuples autochtones et des communautés locales, reconnues pour leur efficacité et leur connaissance fine des territoires, à travers les Aires protégées et de conservation autochtones (APCA).

Et la bonne nouvelle, c’est que cette stratégie fonctionne. Une méta-analyse internationale conclut que deux tiers des actions de conservation menées dans des aires protégées aboutissent à une amélioration notable de l’état des populations menacées. Une autre étude montre qu’étendre les zones protégées à 30 % permettrait de sauver plus de mille espèces tout en contribuant à atténuer le réchauffement climatique.

Quand le lynx ibérique reprend du poil de la bête

J’approfondis

Et la France, dans tout ça ? Permettons-nous un cocorico car chez nous, l’objectif 30×30 est déjà atteint, 33 % du territoire national étant couvert par une aire protégée. Cela représente très exactement 31 % des espaces terrestres (28 % en métropole, 45 % outre-mer) et 33 % des espaces maritimes (46 % en métropole, 32,5 % outre-mer). Entre zones Natura 2000, parcs naturels, réserves, sites du Conservatoire du littoral ou parcs marins, les dispositifs ne manquent pas.

Mais atteindre une cible ne signifie pas mission accomplie. Pour freiner durablement l’artificialisation, la France s’appuie sur le principe de Zéro Artificialisation Nette (ZAN), introduit en 2018 et inscrit dans la loi Climat et Résilience de 2021. L’objectif : mettre fin à la consommation illimitée d’espaces naturels, agricoles et forestiers. Toutefois, sa mise en œuvre révèle aussi des effets secondaires insuffisamment anticipés. En rigidifiant fortement l’accès au foncier, le ZAN tend à renchérir le coût du logement, à freiner certains projets de renouvellement urbain et à déplacer les pressions d’aménagement vers des territoires déjà fragiles.

La Trame verte et bleue, instaurée par la loi « Grenelle 1 » de 2009, elle, vise à reconnecter les milieux fragmentés. La Trame verte relie les habitats terrestres et humides (forêts, haies, prairies, zones humides), tandis que la Trame bleue rétablit les continuités aquatiques (cours d’eau, zones inondables, canaux). Passages à faune, aménagements de rivières, replantation de haies, intégration de la biodiversité dans l’urbanisme… autant de leviers concrets pour redonner de la cohérence au territoire et au vivant.

Le castor, ingénieur sans permis

J’approfondis

Repenser l’agriculture

Préserver les milieux naturels suppose d’abord de limiter leur grignotage par l’agriculture, première responsable de la déforestation mondiale. Car non, les pesticides ne sont pas le problème central, malgré la place qu’ils occupent aujourd’hui dans le débat public. Le véritable enjeu, c’est surtout l’occupation des sols. Aujourd’hui, les terres agricoles couvrent un tiers des surfaces émergées de la planète, et elles continuent de s’étendre.

En France, pourtant, le débat environnemental tourne souvent en boucle autour d’un mot magique : le « bio ». Mais l’agriculture biologique, si elle présente quelques bénéfices locaux pour les sols, réduit les rendements, et donc augmente mécaniquement les surfaces nécessaires pour produire autant. En clair, plus de bio signifie souvent… plus de terres cultivées.

Pas étonnant, donc, que le CMBKM n’en parle pas, et que l’IPBES ne la mentionne qu’une seule fois dans son rapport pour décideurs : ses avantages globaux pour la biodiversité restent à démontrer.

L’enjeu central devient alors celui d’une intensification écologique : produire suffisamment, sur moins de surface, tout en réduisant les impacts environnementaux. Cela implique de combiner plusieurs leviers — restauration des sols, diversification des cultures, couverts végétaux, progrès génétiques, agriculture de précision.

L’agriculture de conservation des sols (ACS) illustre bien cette approche pragmatique : ni idéale, ni universelle, mais capable, dans certaines conditions, de concilier productivité, résilience agronomique et bénéfices écologiques.  Quant aux OGM, ils ont déjà montré la voie, avec une baisse moyenne de 37 % de l’usage des pesticides dans les cultures qui les ont adoptés. Les nouvelles techniques d’édition génétique (comme CRISPR-Cas9) ouvrent encore davantage de perspectives et pourraient, un jour, permettre de se passer d’une large part des traitements.

Préserver les milieux aquatiques

Remodeler notre agriculture contribue à réduire la pollution de l’eau par les engrais et les pesticides. Mais cela ne suffira pas. Car d’autres sources majeures persistent : eaux usées, rejets industriels et déchets plastiques. Il faut donc aussi dépolluer, comme cela a été fait récemment pour la Seine, en déployant des dispositifs d’épuration adaptés.

Concernant le plastique, trois leviers principaux existent : réduire la production et la consommation, renforcer la collecte et le recyclage, et nettoyer les milieux naturels. Un traité international contre la pollution plastique est en négociation à l’ONU depuis 2022… mais n’a toujours pas abouti.

Mais la plus grande menace pour la biodiversité aquatique reste sa surexploitation. Un tiers des stocks évalués de poissons et de fruits de mer sont aujourd’hui pêchés au-delà de leur capacité de renouvellement. Le chalutage, utilisé pour un tiers des prises, aggrave le problème : il capture sans distinction, gaspille des tonnes de poissons rejetés à la mer, et racle les fonds marins, altérant les habitats benthiques.

Faut-il pour autant renoncer à la pêche ? Pas si simple. Car elle fournit des protéines animales avec une empreinte au sol nulle et un bilan carbone raisonnable, comparable, voire inférieur, à celui du poulet. Sans compter qu’elle fait vivre des millions de personnes. L’enjeu n’est donc pas de l’abandonner, mais de mieux la réguler : respecter les taux de renouvellement des stocks et restreindre les techniques les plus destructrices. C’est à ce prix qu’on peut concilier rendement et durabilité.

Enfin, l’aquaculture peut être une partie de la solution, à condition d’éviter l’écueil classique : nourrir les poissons d’élevage avec… des poissons sauvages. Ce qui, rassurons-nous, est de moins en moins le cas.

Économie et technologie : ennemis ou alliés ?

Oui, des solutions existent, et elles sont déjà sur la table. Et non, elles ne nécessitent pas de renoncer au progrès ni de bouleverser nos modes de vie. Le principal frein aujourd’hui n’est pas structurel, mais politique. Et surtout, économique. Car ces solutions ont un coût, et demandent des moyens à la hauteur des ambitions.

Faut-il alors « décroître » pour sauver la biodiversité ? Ce serait au contraire se tirer une balle dans le pied. Sans vitalité économique, impossible de financer la transition. Au contraire, une économie solide peut être un levier, à condition de bien orienter les politiques publiques : intégrer systématiquement l’impact environnemental dans tout nouveau projet, flécher les subventions vers les pratiques les plus efficaces plutôt que les plus idéologiques, et supprimer celles qui supportent les pratiques préjudiciables.

C’est d’ailleurs l’un des objectifs phares du CMBKM : « supprimer ou réformer les incitations nuisibles à la biodiversité », soit 500 milliards de dollars par an à rediriger d’ici 2030 vers des pratiques vertueuses. Mais encore faut-il savoir identifier ce qui est réellement nuisible. Car la technophobie ambiante conduit souvent à rejeter, par réflexe, tout recours à la technologie. Et pourtant, c’est probablement là que réside une bonne part des solutions.

Pour le diagnostic, d’abord. Les progrès en télédétection et en imagerie satellitaire permettent désormais de suivre en continu l’état des écosystèmes et d’évaluer les progrès, notamment dans le cadre de l’objectif « 30×30 ». Le séquençage génétique, quant à lui, ouvre de multiples perspectives, comme inventorier la biodiversité grâce à l’ADN environnemental, ou guider la préservation de la diversité génétique des populations via des transferts d’individus ciblés.

Pour la modélisation, ensuite. L’intelligence artificielle permettra prochainement d’interpréter les masses de données collectées et de simuler l’efficacité des politiques envisagées. Mais avant tout, la technologie est un outil d’action. Le génie génétique permet déjà de créer des plantes moins gourmandes en intrants grâce à la transgénèse et à l’édition génomique. Et à l’avenir, ces procédés pourraient aider à lutter contre certaines espèces envahissantes grâce au forçage génétique, une technique capable de propager un trait dans toute une population en quelques générations. Son potentiel est immense, même s’il soulève, à juste titre, d’importantes questions éthiques et écologiques.

Bref, la technologie n’est pas l’ennemie de la biodiversité. Elle en est peut-être même le meilleur espoir. Refuser ces leviers au nom d’une vision dogmatique du « retour à la nature », ce serait se priver d’une chance réelle de restaurer les écosystèmes. Voire de se tromper complètement de cible, au risque de contribuer à l’aggravation du problème. 

L’article Aux grands maux les bons remèdes est apparu en premier sur Les Électrons Libres.

Reçu — 10 décembre 2025 De tout et de rien

Ni Bio, ni conventionnel : l’ACS, la troisième voie agricole ?

10 décembre 2025 à 06:00

Imaginez une agriculture qui soigne ses sols, nourrit la biodiversité, stocke du carbone et réduit l’usage d’engrais… tout en maintenant des rendements solides et une rentabilité réelle. Utopie verte ? Non. Cette méthode existe déjà, et s’est imposée comme modèle dominant dans certaines régions du monde : l’agriculture de conservation des sols (ACS).

Une terre sans soulèvements

Le Dust Bowl. C’est ainsi que les habitants des grandes plaines nord-américaines ont baptisé cette succession de nuages de poussière colossaux qui, dans les années 1930, se sont abattus sur la campagne, ensevelissant les fermes, étouffant les pâturages, tuant le bétail et rendant l’air irrespirable. En pleine Grande Dépression, près de 300 000 agriculteurs ruinés ont dû tout quitter et migrer vers la Californie, dans la misère la plus totale.

C’est au cœur de ce drame humain et écologique qu’est née l’agriculture de conservation des sols, l’« ACS ». Pas dans les bureaux d’un institut de recherche, mais entre les mains de centaines d’agriculteurs, animés par une nécessité vitale, celle de sauver leur terre.

Ces « conneries » qui ont enrichi les sols de Jacky Berland

J’approfondis

Le principe de l’ACS est simple : protéger le sol grâce à trois leviers essentiels. Garder autant que possible le sol couvert, grâce à des cultures intermédiaires qui protègent et enrichissent la terre. Favoriser la diversité culturale dans le temps, en allongeant les rotations. Et surtout, ne plus remuer la terre grâce au semis direct, qui permet d’implanter la graine sans perturber la structure du sol.

Terres de promesses

Chacun de ces piliers offre des bénéfices agro-écologiques spécifiques. Couvrir les sols enrichit la terre en matière organique, réduit les besoins en engrais pour la culture suivante, limite l’eutrophisation (prolifération d’algues due à un excès d’azote) et réduit les fuites d’azote. Les couverts participent aussi au stockage de carbone dans le sol.

Les rotations culturales brisent les cycles des ravageurs, des maladies et des adventices (les mauvaises herbes), diminuant ainsi le besoin en produits phytosanitaires.

Le non-labour, enfin, préserve la vie du sol — vers de terre, microfaune, champignons — améliorant ainsi la capacité des plantes à accéder aux nutriments. Il limite également l’érosion en maintenant la structure naturelle du sol.

Mais c’est l’effet combiné des trois qui crée la vraie dynamique : plus de matière organique, moins d’adventices, un sol plus résilient à la sécheresse. Un effet qui n’a de sens que si les rendements suivent. Faute de quoi le gain local serait effacé par l’augmentation des surfaces nécessaire pour compenser la baisse de production.

Et c’est précisément ce qui distingue l’ACS du bio. Contrairement au second (–25 % en moyenne), il n’entraîne qu’une baisse de rendement marginale, autour de 5 % selon la plus vaste méta-analyse disponible. C’est ce qui explique son succès dans plusieurs régions du monde. En Amérique du Nord, elle couvre un tiers des terres cultivées. En Amérique du Sud, plus des deux tiers. Et chez les champions, en Australie et en Nouvelle-Zélande, près des trois quarts.

Ces régions n’ont pas adopté l’ACS par idéologie, mais parce qu’elle offre un réel intérêt économique. Dans les grandes plaines sèches des Etats-Unis, d’Australie ou d’Argentine, elle améliore la rétention d’eau et stabilise les rendements. Sous les climats tropicaux, elle limite une érosion hydrique devenue critique dans les années 1970.

Portée par ces pionniers, l’agriculture de conservation n’a cessé de s’étendre, jusqu’à couvrir aujourd’hui environ 15 % des surfaces cultivées dans le monde.

L’ACS en France : retour sur Terre

En France, pourtant, l’ACS reste marginale, éclipsée par la domination culturelle du bio. Mais grâce à quelques agriculteurs pionniers et au travail de l’APAD (Association pour la Promotion d’une Agriculture Durable), le ministère de l’Agriculture commence à s’y intéresser sérieusement. Un rapport récent du CGAAER (le Conseil Général de l’Alimentation, de l’Agriculture et des Espaces Ruraux) en dresse même un tableau particulièrement prometteur. Peut-être même un peu trop.

« N’est-il pas temps de s’y mettre ? », questionne le rapport, renvoyant la responsabilité aux seuls agriculteurs. Car « le frein principal au développement de l’ACS [serait] d’ordre culturel » : goût historique pour les champs « propres », regard des voisins, prestige du labour… Oui, ces éléments existent sans doute. Mais ils sont loin de suffire à expliquer les difficultés observées sur le terrain. Car la mise en œuvre de chaque pilier de l’ACS implique des défis techniques très concrets.

Mettre en place un couvert ? Excellente idée… sauf quand il ne lève pas, un risque fréquent en cas de sécheresse estivale. Semences perdues, carburant gaspillé, travail pour rien, se traduisent par une perte sèche pour l’agriculteur.

Allonger les rotations ? En théorie, tout le monde est pour. En pratique, il faut des cultures rémunératrices. Or les filières françaises restent limitées, et les légumineuses peinent à rivaliser avec un soja importé nettement moins cher depuis l’Amérique, malgré les dizaines de millions injectés dans le « plan protéines » de 2020.

Quant au non-labour, c’est le principal défi : tassement tant que la vie du sol n’a pas repris, rongeurs plus présents, et surtout forte pression d’adventices. Pour les maîtriser, le glyphosate reste aujourd’hui l’outil le plus fiable, faute d’alternatives réellement opérationnelles. Mais son usage est politiquement et socialement contesté, et certaines résistances, comme chez le ray-grass, créent déjà des impasses techniques. Une interdiction brutale condamnerait de fait le non-labour pour une large part des exploitations.

Toutes ces difficultés se traduisent par une baisse moyenne d’environ 20 % dans les réseaux expérimentaux (Syppre, DEPHY). Un chiffre difficilement soutenable, malgré des charges parfois réduites. Ajoutez à cela une absence totale de valorisation commerciale — à la différence du bio — et une phase de transition longue (5 à 7 ans), où l’agriculteur prend des risques financiers réels, sans filet.

Garder les pieds sur Terre

Alors, l’ACS serait-elle, en France, une impasse ? Pas forcément. Car contrairement au bio, où la baisse de rendement est structurelle, l’ACS peut maintenir des performances élevées. Mais elle n’est pas universelle. Certaines zones intensives (Beauce, Brie, Picardie) semblent moins adaptées, alors que les intermédiaires calcaires ou sujettes à l’érosion montrent de très bons résultats.

Plusieurs exploitations suivies sur le long terme affichent d’ailleurs des bilans encourageants : rentabilité supérieure, charges en baisse, rendements stables, voire en hausse à Tréfleur (+8,5 % en blé, +20 % en maïs).

Pour accélérer son développement, plusieurs actions s’imposent. D’abord, un accompagnement technique renforcé, notamment entre agriculteurs, car l’ACS ne s’applique pas par “recette”, mais par ajustement fin. Ensuite, davantage de recherches, via un observatoire national dédié. Puis, un soutien financier temporaire, pour absorber la phase de transition. Et surtout, éviter d’en faire un dogme. Un travail mécanique ponctuel n’a rien d’une hérésie. Tout est affaire de bon sens agronomique.

L’ACS n’est pas un système parfait et universel. La généraliser serait illusoire. Mais progresser dans cette voie pourrait apporter une contribution majeure à l’agroécologie.

TCS : Le bon sens agro-économique

J’approfondis

Paradoxalement, elle ne peut pas compter sur le soutien de l’écologie politique, focalisée sur le bio, incompatible avec l’ACS pour la gestion des adventices, et qui la voit comme une rivale. Certaines oppositions trop rigides risquent même de la freiner plutôt que de l’aider.

Supprimer l’irrigation ? On réduit encore les options de rotation. Interdire le glyphosate ? On enlève l’outil central du non-labour. Bannir les OGM ? On limite les gains de rendement dans certaines cultures stratégiques. Favoriser systématiquement les petites fermes ? On affaiblit la capacité d’investissement nécessaire aux transitions.

L’ACS n’est pas une utopie verte. C’est une voie d’avenir concrète, pragmatique et perfectible, qui mérite clairement qu’on lui donne sa chance. Et les moyens de son ambition écologique.

L’article Ni Bio, ni conventionnel : l’ACS, la troisième voie agricole ? est apparu en premier sur Les Électrons Libres.

Reçu — 9 décembre 2025 De tout et de rien

Les vraies menaces contre le vivant

9 décembre 2025 à 05:52

La crise affectant la biodiversité est réelle, massive, et l’endiguer doit être une priorité. Mais encore faut-il bien identifier les raisons de ce déclin. Or, celles qui sont mises en avant sont souvent très loin d’être les plus délétères. Au risque d’aggraver le problème.

Arrêtez cette lecture et réfléchissez-y un instant : quel serait votre top 5 des causes de la crise de la biodiversité ? Vous l’avez ? Eh bien… vérifions cela. Avec, pourquoi pas, quelques surprises à la clé…

N°5 : Le réchauffement climatique (6%)

Vous l’imaginiez certainement plus haut, pourtant le réchauffement climatique n’arrive qu’en cinquième et dernière position. Un résultat en partie en trompe-l’œil, car pour beaucoup de chercheurs, il pourrait bientôt devenir la cause principale du déclin biologique si l’humanité ne parvient pas à freiner sa progression.

Ses effets sur la biodiversité sont multiples. La plupart des espèces réagissent en migrant vers des latitudes ou des altitudes plus hautes, mais toutes n’en ont pas la possibilité. Les espèces peu mobiles, comme certaines plantes, sont particulièrement vulnérables. D’autres sont littéralement prises au piège dans leur milieu. C’est le cas de l’edelweiss, emblème des montagnes européennes, qui, ne pouvant plus migrer plus haut, est aujourd’hui menacé par le réchauffement du climat alpin.

Et même pour celles qui migrent, l’histoire n’est pas forcément heureuse. Ces déplacements bouleversent les chaînes alimentaires et provoquent des déséquilibres écologiques. Dans l’Arctique, par exemple, la migration vers le nord du cabillaud — un poisson prédateur — met à mal les espèces locales. En se nourrissant de juvéniles de morue polaire ou de lycodes arctiques, il exerce une pression nouvelle sur leurs populations tout en entrant en compétition avec d’autres prédateurs comme le flétan. Résultat : une perturbation en cascade de tout l’écosystème, jusqu’aux oiseaux marins et aux phoques.

Le réchauffement perturbe aussi le rythme du vivant. En modifiant la saisonnalité, il désynchronise les relations entre espèces. En Suisse romande, le gobemouche noir en fait les frais. Cet oiseau migrateur arrive chaque printemps pour nourrir ses petits avec des chenilles… mais celles-ci éclosent désormais plus tôt, à cause de la hausse des températures. Quand les oisillons naissent, le pic de nourriture est déjà passé. Ce décalage temporel, ou « mismatch », entraîne un effondrement du succès reproducteur et, à terme, menace la population.

Enfin, les océans subissent particulièrement les conséquences du réchauffement, notamment à travers les « canicules marines » — de véritables vagues de chaleur qui déciment des populations entières. Couplées à l’acidification des eaux, provoquée par l’excès de CO₂ absorbé, elles déclenchent le blanchiment massif des coraux, piliers de la biodiversité océanique. Plus de 40% des espèces coralliennes sont ainsi menacées d’extinction selon la liste rouge de l’UICN.

N°4 : La pollution (7%)

Vous la pensiez elle aussi certainement beaucoup plus haut. Son impact reste cependant très significatif.

Quand on parle de pollution, on pense d’abord à la pollution chimique des milieux naturels. Celle de l’air, notamment : l’ozone troposphérique, produit indirectement par les activités humaines (combustions, solvants, transports…), est toxique pour les végétaux. Il altère la photosynthèse, ralentit leur croissance et les rend plus vulnérables aux maladies ou à la sécheresse. Quant aux oxydes d’azote et de soufre, ils se transforment dans l’atmosphère en acides nitrique et sulfurique, donnant naissance aux fameuses pluies acides, capables d’altérer de nombreuses fonctions biologiques.

Retiens la nuit, retiens la vie

J’approfondis

Vient ensuite la pollution de l’eau, douce ou marine. L’agriculture en est souvent une source majeure : l’épandage d’engrais azotés et phosphatés entraîne un lessivage vers les rivières, puis vers la mer. Ce cocktail nourrit les proliférations d’algues vertes et de cyanobactéries, qui bloquent la lumière et épuisent l’oxygène en se décomposant. En conséquence, des zones mortes où la vie ne tient plus qu’à un fil. C’est le phénomène bien connu de l’eutrophisation.

Les pesticides, les métaux lourds, les médicaments ou autres molécules issues de l’industrie et des eaux usées aggravent encore la situation. Absorbées par les organismes aquatiques, ces substances intoxiquent les êtres vivants. Certaines molécules s’accumulent tout au long de la vie sans pouvoir être éliminées ; leur concentration augmente alors par bioamplification le long de la chaîne alimentaire, jusqu’à menacer les grands prédateurs. Côté hydrocarbures et plastiques, l’enjeu est double : des accidents spectaculaires (marées noires) et une pollution chronique par les macro- puis microplastiques qui blessent, étouffent ou contaminent la faune.

Les sols, eux, n’échappent pas à la contamination. L’usage de pesticides, d’engrais ou encore le travail mécanique du sol fragilisent les communautés souterraines : filaments mycéliens, bactéries, vers, insectes. À cela s’ajoutent les pollutions issues de décharges mal gérées, de rejets industriels ou miniers, qui empoisonnent lentement les sols vivants.

Enfin, des “pollutions sensorielles” — lumière et bruit — perturbent aussi les cycles biologiques : éclairages nocturnes désorientant insectes et oiseaux, bruit des transports ou activités maritimes nuisant à la communication, la chasse ou la reproduction. Les rejets d’eaux chaudes, plus localisés, modifient la température des cours d’eau et réduisent l’oxygène disponible.

N°3 : Les espèces et maladies envahissantes (13%)

Peut être pour vous la surprise de ce classement. Et pourtant, songez-y…

Avant l’arrivée de l’Homme, les écosystèmes évoluaient lentement, soumis aux forces naturelles : climat, dérive des continents, catastrophes ponctuelles… Chaque espèce occupait une niche écologique, c’est-à-dire un ensemble de conditions de vie, de ressources et d’interactions avec son environnement. Ces niches restaient globalement équilibrées : si une espèce prenait le dessus, ses prédateurs ou la limitation de ses ressources régulaient rapidement la situation. Sauf lors de grandes crises, les déséquilibres restaient lents, comme lors de migrations naturelles, ou très localisés, par exemple après une éruption volcanique. Les espèces avaient le temps de s’adapter, et un nouvel équilibre s’installait.

Puis est arrivé l’Homme. En colonisant la planète, il a brusquement chamboulé cet équilibre fragile. Les échanges de marchandises et de personnes entre continents ont déplacé des espèces beaucoup plus vite que ne l’aurait fait la nature. Résultat : certaines débarquent dans un nouvel environnement avec des avantages biologiques que les habitants locaux n’ont pas — reproduction rapide, grande tolérance écologique, agressivité… Parfois, elles n’ont pas de prédateurs. Parfois, leurs proies se laissent faire. Dans tous les cas, elles s’installent, se multiplient et prennent la place des espèces autochtones, souvent à leurs dépens.

Chat domestique : portrait d’un tueur en série

J’approfondis

Parmi les exemples les plus frappants : le rat noir, embarqué dans les cales des navires, qui a conquis toutes les îles du globe et dévoré œufs et poussins d’oiseaux nicheurs ; ou la jacinthe d’eau, originaire d’Amérique du Sud, qui a envahi de nombreux cours d’eau tropicaux et subtropicaux, formant des tapis denses qui étouffent la faune aquatique, bloquent la lumière et perturbent pêche et navigation.

Des exemples comme ceux-là, on en compte des milliers — plus exactement 3 500 — répartis aux quatre coins du monde. Et ces invasions concernent tous les groupes du vivant : animaux, plantes, mais aussi bactéries et champignons. Comme Xylella fastidiosa, une protéobactérie qui attaque oliviers, vignes et agrumes, devenue envahissante en Europe, ou encore Batrachochytrium dendrobatidis, un champignon responsable de la chytridiomycose et du déclin massif des amphibiens à l’échelle planétaire.

Bref, là où ces envahisseurs passent, l’équilibre fragile des écosystèmes est bouleversé, et la biodiversité locale en paie le prix. Mieux connaître les mécanismes de ces invasions, c’est donc déjà commencer à réfléchir à la manière de les prévenir.

N°2 : La surexploitation des espèces (24%)

La surexploitation des espèces et des ressources naturelles se hisse au second rang des causes de perte de biodiversité — bien loin devant la pollution ou le réchauffement climatique.

L’être humain a toujours prélevé dans la nature de quoi vivre : chasser, pêcher, cueillir. Mais les lances ont laissé place aux fusils, les filets artisanaux aux chaluts géants, et la planète compte désormais plus de huit milliards d’habitants. Ce qui n’était autrefois qu’une pression ponctuelle sur les écosystèmes est devenu, à l’échelle mondiale, une véritable hécatombe. Les prélèvements dépassent souvent la capacité de renouvellement des populations : on parle alors de surexploitation.

Celle-ci touche d’abord les vertébrés terrestres, chassés pour leur peau, leur ivoire, le commerce d’animaux de compagnie ou, parfois, simplement par pur loisir. Certaines espèces ont même failli disparaître à cause de croyances absurdes : la corne de rhinocéros, censée être aphrodisiaque, ou les os, griffes et pénis de tigre, jadis vantés comme remèdes contre l’arthrite ou l’impuissance.

Les plantes et les champignons ne sont pas épargnés : cueillette intensive et exploitation forestière menacent plusieurs espèces emblématiques. Le cèdre de l’Atlas, par exemple, subit des abattages clandestins pour son bois parfumé.

Mais c’est surtout dans les océans que la surexploitation atteint des proportions dramatiques. Chaluts de fond, filets démesurés ou dispositifs de concentration de poissons : les techniques de pêche industrielle, souvent peu sélectives, tuent bien plus qu’elles ne capturent, laissant derrière elles des écosystèmes épuisés et silencieux. Et quand les poissons disparaissent, ce sont aussi les oiseaux marins, les mammifères et les communautés humaines côtières qui s’effondrent à leur tour.

N°1 : Les changements dans l’utilisation des terres et de la mer (50%)

Numéro un et de très loin, la destruction des milieux naturels et les changements dans leur utilisation.

Car du haut de nos 8,2 milliards d’habitants, l’espèce humaine prend de la place. Beaucoup de place. Pour assurer survie et confort, il faut bien construire, circuler, produire, se nourrir… bref, aménager. En conséquence, entre 2 et 3 % de la surface terrestre émergée sont aujourd’hui couverts de bâtiments, de routes et d’infrastructures en tous genres. Cela peut sembler dérisoire, mais ces quelques pourcents pèsent lourd dans la balance du vivant.

Les zones côtières, d’abord, sont en première ligne : urbanisation, ports, digues, extraction de sable ou de granulats détruisent des écosystèmes parmi les plus riches et les plus utiles de la planète. À l’intérieur des terres, les infrastructures linéaires — routes, voies ferrées, canaux — peuvent aussi occasionner des dégâts majeurs en fragmentant les habitats.

Or, un animal a besoin d’un territoire, de ressources et de mobilité. Une quatre-voies entre une forêt et un étang peut suffire à rompre cet équilibre, coupant certaines populations de leur point d’eau. Chez les espèces à faible densité d’individus, comme beaucoup de grands mammifères, cette fragmentation isole les individus, limite les échanges génétiques et favorise la consanguinité — un lent poison pour la résilience des populations.
Plus le maillage d’obstacles se resserre, plus les populations se retrouvent à l’étroit, jusqu’à disparaître purement et simplement.

Mais les plus gros impacts proviennent sans doute de l’agriculture. Les terres cultivées et pâturées recouvrent près d’un tiers des surfaces émergées, et presque la moitié des terres habitables.

Cette expansion s’est faite au détriment des écosystèmes naturels, grignotant inexorablement les habitats d’innombrables espèces. Depuis la préhistoire, on estime ainsi que 46 % des surfaces forestières ont été perdues, et avec elles les êtres vivants qui s’y trouvaient.

Il faut toutefois nuancer, car environ deux tiers des terres agricoles sont constitués de prairies, souvent riches en biodiversité végétale et souterraine. Le dernier tiers, en revanche, correspond aux terres cultivées, fréquemment labourées, fertilisées et traitées, donc appauvries en êtres vivants. Et la disparition progressive des haies a aggravé la situation : en supprimant ces corridors écologiques, on a isolé les poches de nature restantes, piégeant la faune dans un puzzle d’habitats morcelés.

Différentes causes, différentes perceptions

Au fond, le déclin du vivant ne s’explique pas par une seule cause, mais par une mosaïque d’impacts. Tous n’ont pas la même ampleur… ni la même visibilité. Et c’est bien là le problème : ce qui frappe l’opinion n’est pas toujours ce qui affecte le plus les écosystèmes.

Certaines menaces deviennent de véritables totems médiatiques. Les pesticides, en particulier, cristallisent les peurs, les slogans et les débats politiques, jusqu’à occulter d’autres pressions tout aussi préoccupantes. Et cette focalisation sélective façonne notre vision du monde. En 2018, une enquête européenne révélait ainsi que la pollution était perçue – à tort – comme la première cause de perte de biodiversité, loin devant la destruction des milieux ou la surexploitation.

Une perception biaisée, héritée du bruit médiatique, qui brouille parfois la hiérarchie réelle des priorités écologiques. Car comprendre les véritables causes du déclin du vivant, c’est déjà faire un pas vers les solutions. Nous verrons au chapitre suivant qu’il existe des leviers simples, souvent peu coûteux, pour inverser les tendances locales, à condition de cibler les bonnes causes. 

Car sans bon diagnostic, pas de remède efficace.

L’article Les vraies menaces contre le vivant est apparu en premier sur Les Électrons Libres.

Reçu — 2 décembre 2025 De tout et de rien

Extinction ou rébellion : état des lieux d’un monde vivant

2 décembre 2025 à 05:58

« Effondrement », « extinction de masse », « déclin »…
Dès qu’il est question de biodiversité, ces mots reviennent en boucle. À force, on en viendrait presque à croire que la fin du monde vivant est pour demain. Mais faut-il vraiment céder au fatalisme, ou existe-t-il encore une place pour l’optimisme – et surtout, pour l’action ?

Contrairement à ce que pensaient les naturalistes avant Darwin, la biodiversité n’a jamais été figée. Elle évolue, s’adapte, se réinvente depuis plus de 3,5 milliards d’années. L’histoire du vivant, que les archives fossiles racontent patiemment, est celle d’un renouvellement permanent. Tandis que des espèces apparaissent, d’autres s’éteignent.

Mais le rythme de ces extinctions n’a pas toujours été homogène. À plusieurs reprises, la Terre a connu de véritables cataclysmes biologiques. Cinq grandes crises ont marqué son histoire, chacune effaçant une part colossale de la vie existante. La plus célèbre ? La crise du Crétacé-Tertiaire, il y a 66 millions d’années, qui a vu disparaître les dinosaures et près des trois quarts des espèces. La plus sévère ? Celle du Permien-Trias, où plus de 90 % des êtres vivants ont été rayés de la carte.

Mais alors que ces extinctions nous semblent appartenir à un passé lointain, la réalité du présent pourrait bien nous rattraper. Car aujourd’hui, les scientifiques tirent la sonnette d’alarme. Sous la pression cumulée de nos activités, le rythme des disparitions s’emballe. Une question brûlante se pose alors : sommes-nous en train de traverser, par notre faute, la sixième extinction de masse ?

Peur sur la vie

Pour mesurer l’état réel de la biodiversité mondiale, le mieux est de s’en remettre à la source la plus fiable : le rapport de l’IPBES, qui évalue les pressions exercées sur les écosystèmes et les espèces. Cet organisme intergouvernemental, souvent surnommé le « GIEC de la biodiversité », synthétise des milliers d’études scientifiques sur le vivant. Et son dernier rapport livre un constat implacable. Les formidables progrès réalisés en matière de développement humain ces cinquante dernières années se sont accompagnés d’une perte massive de biodiversité et d’une dégradation accélérée des écosystèmes naturels. En clair, l’humanité a prospéré… mais au prix d’un affaiblissement de la nature qui la soutient.

Pire encore, l’IPBES prévoit la poursuite de cette tendance. La fragmentation et la disparition des habitats rendent les milieux naturels trop petits pour accueillir toutes les espèces qui y vivent. Cela ne provoque pas toujours d’extinction immédiate, mais crée ce que les scientifiques appellent une « dette d’extinction » : une perte différée, qui se réglera lentement, sur plusieurs siècles, jusqu’à ce qu’un nouvel équilibre soit atteint.

Les chiffres de l’UICN (Union internationale pour la conservation de la nature) montrent une tendance analogue. Près d’un tiers des espèces évaluées sont aujourd’hui menacées, même si la situation varie fortement selon les groupes. Ce sont les oiseaux et les insectes qui s’en sortent le mieux, avec environ 15 % d’espèces en danger. En revanche, chez les coraux et les cycadales, c’est une véritable hécatombe : la moitié des premiers et les trois quarts des secondes courent un risque d’extinction.

Certes, nous sommes encore loin des taux observés lors des grandes crises biologiques du passé. Mais le facteur inédit, c’est la vitesse. Les extinctions massives se déroulaient autrefois sur des dizaines de milliers d’années. Aujourd’hui, le déclin se joue à l’échelle du temps humain. L’essentiel des pertes est survenu depuis la révolution industrielle, en à peine un siècle et demi.

Nous avons déjà évoqué au chapitre précédent un autre chiffre inquiétant, celui du Living Planet Index. Même si cet indicateur souffre, on l’a vu, de biais importants, il indique une baisse moyenne de 73 % en cinquante ans au sein des 35 000 populations animales suivies. Bref, les chiffres ne sont pas bons. Pas bons du tout.

Mais faut-il pour autant céder au désespoir ? Non, car derrière ces moyennes alarmantes se cachent des réalités contrastées, et même, ici et là, de vraies bonnes nouvelles.

Hirondelles, le grand chassé-croisé

J’approfondis

Alerte sur les insectes

–75 % de biomasse d’insectes en seulement 27 ans. Le chiffre, tiré d’une étude allemande publiée en 2017, a fait l’effet d’une bombe. Du Guardian au Monde, des ONG aux tribunes alarmistes, tout le monde y a vu le signe d’un effondrement biologique imminent. Certains annonçaient déjà qu’« à ce rythme, il n’y aura plus d’insectes en 2050 ». Vraiment ?

Huit ans plus tard, les mêmes chercheurs publient une mise à jour. Et là, surprise : la courbe remonte. Légèrement, certes, mais assez pour questionner le récit d’un déclin inéluctable. Une équipe indépendante s’est penchée sur ce rebond inattendu et a découvert qu’il coïncidait… avec une série d’années à météo favorable. Leur conclusion est que la biomasse d’insectes varie fortement selon les conditions climatiques, notamment les températures, les précipitations et les anomalies saisonnières.

Autrement dit, une partie du déclin initial pourrait s’expliquer, elle aussi, par les conditions météorologiques particulières des années 1990 et 2000. D’autant que les données provenaient d’un réseau limité de réserves naturelles, concentrées en Allemagne de l’Ouest, dont plus de la moitié n’ont été échantillonnées qu’une seule fois, et ne permettant pas une généralisation à l’ensemble des insectes européens. De quoi relativiser le scénario d’un effondrement linéaire. La réalité semble plus complexe, plus fluctuante… et donc, peut-être, moins désespérée qu’on l’a dit.

Et ce n’est pas tout. Lorsqu’on s’intéresse non plus à la biomasse, mais à l’abondance des espèces, d’autres travaux récents dressent un tableau bien plus nuancé. Une étude britannique publiée en août 2025 ne constate aucun déclin global depuis 1990, mais plutôt, pour les populations suivies (papillons, libellules, syrphes,…), une restructuration des communautés d’insectes. Certaines espèces spécialistes déclinent, remplacées par des espèces plus généralistes, mieux adaptées à des milieux modifiés. Là encore, le principal moteur reste la météo.

Dans le même temps, une autre étude portant sur les insectes aquatiques européens rapporte même une hausse de l’abondance et de la richesse spécifique, de l’ordre d’une dizaine de pourcents.

Soyons clairs : ces études « à contre-courant » — étrangement passées sous silence dans les médias — ne suffisent pas, à elles seules, à invalider la thèse d’un déclin des insectes que d’autres travaux documentent solidement. Mais elles rappellent une vérité souvent oubliée : la biodiversité est un système d’une complexité vertigineuse, et son étude produit inévitablement des signaux contradictoires. Autrement dit, tirer des conclusions définitives à partir d’une seule étude, aussi spectaculaire soit-elle, n’est jamais une bonne idée.

Coccinelle asiatique : l’ogre venu d’Asie

J’approfondis

Vertébrés terrestres : le début du comeback ?

Si l’on en croit le Living Planet Index, les vertébrés terrestres semblent en première ligne de la crise de la biodiversité. Mais ces chiffres, trop globaux pour être vraiment parlants, pourraient bien masquer une réalité nettement plus nuancée.

C’est du moins ce que montre une étude de 2020. En réexaminant les données brutes utilisées dans le LPI, les chercheurs ont découvert que le déclin mondial des populations de vertébrés est en réalité porté par une infime minorité de populations en chute libre : moins de 3 % d’entre elles. Si on les met de côté, la tendance globale devient même… positive.

Les auteurs plaident donc pour une approche plus fine, centrée sur ces « clusters » de déclin extrême, afin d’identifier les zones ou les groupes d’espèces réellement en danger, et concentrer les efforts de conservation là où ils sont vraiment nécessaires.

Et cette étude, plutôt rassurante, ne fait pas cavalier seul. D’autres travaux récents vont dans le même sens. Une analyse publiée dans Nature Communications, portant sur près de 10 000 séries chronologiques d’abondance (1970–2014) issues de plus de 2 000 espèces de vertébrés, montre ainsi une hausse nette des populations d’oiseaux, de reptiles et de mammifères. Seuls les amphibiens affichent un recul notable.

Même constat du côté du rapport Wildlife Comeback in Europe, qui documente le retour spectaculaire de nombreuses espèces emblématiques : l’Oie cravant, le Gypaète barbu, l’Aigle royal, le Loup gris, le Lynx, l’Ours brun… et surtout le Castor d’Europe, dont la population a explosé de plus de 16 000 % depuis 1960 !

Ces signaux positifs ne nient évidemment pas les déclins bien réels observés ailleurs. Mais ils montrent qu’avec des politiques cohérentes et une volonté de long terme, les trajectoires peuvent s’inverser. Après tout, si l’on a su sauver le castor, pourquoi pas le reste ?

Tragédie en sol majeur

La vie des sols, essentielle au fonctionnement des écosystèmes et à la fertilité des terres agricoles, est elle aussi mise à mal par les activités humaines, en particulier par les pratiques agricoles qui couvrent plus d’un tiers des terres émergées. Les études convergent : intensification, labour profond, usage massif de pesticides… tout cela contribue à un appauvrissement progressif de la vie du sol. À cela s’ajoute la déforestation, qui transforme des sols forestiers naturellement riches en milieux agricoles beaucoup moins peuplés.

Mais là encore, le tableau n’est pas uniformément sombre.

D’abord, selon l’Évaluation des ressources forestières mondiales (2025), la déforestation mondiale ralentit. Ensuite, une part importante du déclin observé concerne surtout la dégradation des prairies, reconnues comme parmi les écosystèmes les plus riches en biodiversité du sol. Or, paradoxalement, ces prairies sont pour beaucoup d’origine humaine. Issues de l’élevage et du pastoralisme, elles ont, depuis des millénaires, contribué à accroître localement la biodiversité des sols. Des gains qui tendent aujourd’hui à s’éroder progressivement, mais qui rappellent que l’activité humaine n’est pas toujours synonyme de perte.

Enfin, certaines terres agricoles montrent des signes de renouveau biologique, grâce à des pratiques désormais bien documentées : couverts végétaux, réduction du travail du sol, agroforesterie, rotation des cultures… Autant d’approches qui prouvent qu’il est possible d’allier production et régénération du vivant. Des pistes concrètes, et surtout des raisons d’espérer.

Grand bleu, grands problèmes

Imaginez un monde sans poissons… Scénario improbable ? Pourtant, il a été sérieusement envisagé dans certains médias. À l’origine, une étude de 2006 qui prévoyait un effondrement total des stocks de poissons de pêche — et non de la biodiversité totale — d’ici le milieu du XXIème siècle.
Exactement la même mécanique que pour les insectes. Un article dramatique attire l’attention, et tout le monde s’en empare, souvent sans recouper les données avec d’autres travaux bien plus nuancés.

Alors rassurons-nous : il y aura encore des poissons en 2048. Quant aux stocks exploitables, l’apocalypse annoncée par cette étude semble aujourd’hui bien improbable. D’abord, parce que l’étude elle-même a été critiquée et nuancée par une partie de la communauté scientifique entre 2007 et 2011. Ensuite, plusieurs travaux récents montrent que la gestion durable peut inverser localement la tendance, avec des populations de poissons qui se rétablissent là où des pratiques responsables ont été mises en place. D’autant que les pratiques de pêche tendent à se stabiliser, voire à régresser, en faveur du développement de l’aquaculture.

D’ailleurs, même Boris Worm, auteur principal de l’étude controversée, a co-signé en 2009 un article soulignant que certaines régions avaient déjà inversé la tendance grâce à ces mesures. Le scénario “tendance inchangée”  initial n’est donc ni une fatalité ni une prophétie, mais juste… un avertissement au conditionnel.

Cela ne signifie pas pour autant que tout va bien dans nos océans. L’inquiétude pour les écosystèmes marins reste réelle et légitime, en particulier parce que de nombreux habitats dépendent d’espèces clés parfois en déclin : barrières de corail, herbiers marins, mangroves, forêts de kelp… Dans ces systèmes, la disparition d’un acteur central peut provoquer un effondrement en cascade. Les environnements récifaux en sont l’exemple le plus emblématique ; les coraux, symbiotes bâtisseurs de refuges pour les poissons, sont parmi les organismes les plus menacés.

Mais là encore, il y a des raisons d’espérer. Des programmes de restauration d’habitats récifaux sont expérimentés dans plusieurs régions du monde, et certains montrent des résultats encourageants. Preuve qu’avec de la volonté et des solutions adaptées, des jours meilleurs sont possibles.

Les leçons des succès

Océans, sols, vertébrés, insectes… quelles que soient les catégories étudiées, le constat reste le même : derrière les grands chiffres alarmants qui tournent en boucle dans l’espace médiatique, se cachent aussi des réussites, souvent passées sous silence.

Certes, les indicateurs globaux ont leur utilité, ils rappellent l’ampleur de la crise et nourrissent une nécessaire prise de conscience. Mais à force de ne regarder que le verre à moitié vide, on oublie que des voies existent pour enrayer le déclin, et que certaines fonctionnent déjà.

Car les exemples positifs ne tombent pas du ciel, mais découlent presque toujours de politiques de conservation ciblées, appuyées sur la science et sur la gestion durable. Autrement dit, quand on s’en donne les moyens, la nature répond. Ces réussites locales, qu’on devrait davantage mettre en avant, ne nient pas la gravité du problème. Mais elles montrent que l’action paie.

Encore faut-il savoir où et comment agir : identifier les groupes réellement menacés, comprendre les facteurs précis du déclin, et concentrer les efforts là où ils comptent le plus. C’est cette lucidité-là, plus que les slogans anxiogènes, qui permet de vraiment changer la donne.

L’article Extinction ou rébellion : état des lieux d’un monde vivant est apparu en premier sur Les Électrons Libres.

❌