Vue normale

Reçu — 16 février 2026 Les Électrons Libres

À Paris, en 2026, Haussmann serait éconduit

16 février 2026 à 19:11

Une offre locative divisée par quatre en seulement trois ans. Pour les classes moyennes et populaires, la capitale est désormais inaccessible. En figeant le présent, la sur-réglementation a rendu tout projet de transformation impossible… au seul bénéfice de quelques privilégiés.

À Paris, l’offre de logement locatif s’est effondrée de 74 % entre 2021 et 2024, créant une catastrophe sans précédent : un studio parisien reçoit désormais en moyenne 832 demandes de location. La France a mis en chantier seulement 272 000 logements en 2025, record historiquement bas, tandis que les mises en chantier ont chuté de 59 500 à 40 800 entre 2022 et 2025 en Île-de-France. L’encadrement des loyers, les interdictions liées au DPE et, désormais, le Plan Local d’Urbanisme Bioclimatique, voté en novembre 2024, forment une tenaille réglementaire qui achève de paralyser le marché. Le plus stupéfiant reste l’ivresse bureaucratique qui accompagne ce désastre : alors que les mises en chantier s’effondrent à des records historiquement bas, les édiles se félicitent bruyamment de la « vertu » de leurs décrets.

Cette cécité n’est d’ailleurs plus une exclusivité parisienne, elle devient une pathologie des métropoles françaises. De Montpellier, où Michaël Delafosse s’obstine dans l’encadrement des loyers, à Nantes, où les élus se gargarisent de nouveaux règlements restrictifs, une même idéologie malthusienne semble avoir saisi les mairies. Sous les atours d’une certaine vision de l’écologie, la Ville de Paris a signé l’arrêt de mort de l’offre immobilière privée. Ce PLU érige un corset normatif qui, sous prétexte de mixité sociale et de résilience climatique, organise méthodiquement la rareté et l’exclusion.

Soviétisation ou passéisme : les errements des politiques du logement

J’approfondis

L’asphyxie par les quotas de logements sociaux

Le péché originel de ce PLU réside dans son mépris des mécanismes de l’offre. Pour faire chuter les prix dans une métropole en tension extrême, la solution est connue : construire massivement, haut et dense. Or le règlement actuel envisage une toute autre stratégie. Dès qu’une opération dépasse 500 m², elle doit désormais sacrifier entre 30 et 50 % de sa surface au logement social. Pour un investisseur, la rentabilité s’évapore instantanément.

Le plus redoutable reste le « pastillage » : plus de 800 adresses sont désormais ciblées par la Ville, qui peut y exiger jusqu’à 100 % de logement social. C’est une forme de nationalisation larvée : certains immeubles ont vu leur valeur chuter de 80 % du jour au lendemain. Le propriétaire perd la maîtrise de son bien, prisonnier d’une Mairie dont la dette explose et qui ne pourra jamais racheter ces biens au prix du marché.

L’urbanisme du vide

Le PLU bioclimatique ne bannit pas la densité par un décret brutal : il la rend techniquement toxique et économiquement suicidaire. Son arme la plus efficace est un acronyme administratif, le SELC (Espace Libre de Construction). Sous prétexte de laisser respirer le sol, la Mairie impose des quotas de vide qui explosent dès qu’une opération devient d’envergure.

Dès que l’on travaille sur une parcelle de plus de 3 500 m², le règlement exige de réserver entre 55 % et 60 % de la surface au vide. C’est un plafond mécanique qui transforme les gisements de logements en « gisements de sol nu ». Le paradoxe est tragique : Paris possède d’immenses emprises publiques — les grands hôpitaux (Pitié-Salpêtrière, Lariboisière), les campus de Jussieu, les casernes ou les faisceaux ferroviaires de la SNCF — qui sont les seuls lieux où l’on pourrait construire vite et fort sans léser le voisinage. Pour les hôpitaux, précisons l’enjeu : il ne s’agit pas ici de raser ces institutions mais d’en optimiser l’espace, d’en exploiter les délaissés fonciers et d’y densifier le bâti là où la place le permet. En soumettant ces sites stratégiques à la logique du « grand terrain = grand parc obligatoire », la Ville verrouille ses derniers réservoirs de croissance.

Pour mesurer l’ampleur du désastre, il faut oser une uchronie. Si le baron Haussmann se présentait aujourd’hui à l’Hôtel de Ville avec ses plans sous le bras, il serait éconduit comme un vulgaire « bétonneur ». L’ADN de Paris, cet îlot périmétral dense aux cours intérieures optimisées qui occupe traditionnellement les deux tiers du sol, est désormais illégal.

En exigeant de laisser la moitié de chaque terrain vide, en élévation comme en sous-sol, ce règlement brise net la morphologie de la « ville-bloc » pour lui substituer un urbanisme de la fragmentation. Si ces règles avaient régi le XIXe siècle : près d’un îlot parisien sur deux n’aurait jamais obtenu son permis de construire. Et l’offre de logements aurait été amputée d’un tiers sur les emprises massives qui font la grandeur de la capitale.

Paris ne serait pas cette métropole vibrante que le monde nous envie, mais une collection de bâtiments isolés émergeant de zones de « pleine terre » imposées. En sanctuarisant le vide au nom d’un idéal contemplatif, la Mairie administre la rareté. Si ces règles avaient existé en 1850, Haussmann n’aurait été qu’un paysagiste de banlieue, et Paris, un grand village étouffé sous ses propres jardinets.

Le sabotage par la complexité

Chaque mètre carré devient un véritable casse-tête d’ingénieur. Végétaliser les toits ? L’obligation impose un tel poids de terre qu’il faut renforcer toute la structure du bâtiment, pour un coût prohibitif. Planter des arbres ? Les distances imposées par rapport aux façades se transforment en interdictions de construire déguisées.

Additionnées, ces exigences techniques, paysagères et morphologiques créent une barrière à l’entrée froide et simple : la petite et moyenne propriété n’a ni la surface financière ni la capacité juridique pour absorber ce degré d’incertitude, d’itérations et d’aléas. Seuls les opérateurs capables de porter des années d’études, de négociations et de surcoûts — et donc de sortir du produit très haut de gamme — survivent.

On n’est plus dans l’urbanisme mais dans un cahier des charges punitif. L’écologie réglementaire produit ce paradoxe cruel : on optimise des opérations qui ne verront jamais le jour.

L’écologie à l’envers

L’ironie est mordante : ce plan trahit les principes mêmes de l’écologie rationnelle. Le levier le plus puissant de la décarbonation est la densité. Un Parisien qui marche ou prend le métro pollue bien moins qu’une famille exilée en deuxième couronne, dépendante de la voiture. Le mécanisme des « espaces à libérer » (EAL) est, à cet égard, éloquent : il condamne toute extension sur des emprises existantes, actant leur démolition future pour « verdir » le sol.

Pour le climat et la prospérité, vive la densité urbaine !

J’approfondis


En verrouillant les emprises publiques, les dents creuses et en empêchant les surélévations, la Mairie encourage mécaniquement la bétonisation des terres agricoles à 50 kilomètres de là. Sous un vernis de chlorophylle, c’est un égoïsme municipal antisocial qui s’exerce.

En administrant ainsi la rareté, la Mairie fracture Paris en 2 mondes : d’un côté, les bénéficiaires d’un logement social captif ; de l’autre, les détenteurs de fortunes capables de s’offrir le très rare résiduel privé.

Un véritable plan bioclimatique libéral embrasserait une tout autre philosophie : il simplifierait drastiquement les 271 pages de ce règlement, libérerait le potentiel des immenses emprises publiques et substituerait aux quotas confiscatoires des incitations à bâtir dense afin de faire baisser naturellement les prix. Pour restaurer le pouvoir d’achat immobilier et soigner le climat, le remède est connu : il faut des grues, de la densité et de la liberté. Sans un revirement radical, Paris ne sera bientôt plus qu’un décor végétalisé pour une ville qui a cessé de battre, un musée de la bonne conscience pétrifié dans son malthusianisme vert.

L’article À Paris, en 2026, Haussmann serait éconduit est apparu en premier sur Les Électrons Libres.

Électroscope #14 : Ariane 6, fusion nucléaire et surprises médicales

16 février 2026 à 05:34

Voir triompher Ariane 64, franchir un cap décisif dans la fusion nucléaire, réinventer la robotique, transformer l’imagerie médicale et redonner la vue… C’est parti pour Électroscope 14.

Ariane 64 : le poids lourd de l’Europe reprend sa couronne

Alors que tous les regards sont rivés sur l’arrivée de l’astronaute française Sophie Adenot dans la Station spatiale internationale, l’Europe vient de franchir une étape décisive. Le ciel de Kourou a tremblé ce 12 février, et avec lui, les doutes qui pesaient sur l’autonomie spatiale européenne : pour son vol inaugural, la configuration « 64 » d’Ariane 6, équipée de quatre propulseurs d’appoint à poudre, a réalisé un sans-faute.

La fusée a placé sur orbite basse une grappe de 32 satellites pour la constellation Amazon LEO, marquant le début d’un ballet logistique qui verra l’Europe déployer une large partie de l’infrastructure que désire construire le géant américain du cloud et du e-commerce.

Ce succès valide la stratégie de modularité prônée par le CNES et ArianeGroup. Là où Ariane 62 (deux boosters) assure les missions institutionnelles et scientifiques plus légères, la version 64 s’attaque frontalement au marché des constellations, jusqu’ici chasse gardée de SpaceX. Les deux boosters supplémentaires offrent la poussée nécessaire pour arracher jusqu’à 21,6 tonnes à la gravité terrestre vers l’orbite basse. Dans cette configuration, qui inclut également une coiffe longue de 20 mètres, elle s’impose comme la fusée la plus puissante et la plus haute jamais construite par une nation européenne…Mais au-delà de la performance technique, c’est la flexibilité industrielle qui est saluée. Le corps central reste identique, quelle que soit la mission : seul l’ajout de la coiffe et des P120C change la donne. Cette évolution est d’ailleurs loin d’être terminée, puisque l’arrivée prochaine des boosters P160C, plus performants, promet déjà d’accroître encore la capacité d’emport de la fusée !

Cette « mécanique de Lego » permet de cadencer la production et de rationaliser les coûts, une nécessité vitale dans une économie spatiale devenue impitoyable. Avec ce superbe vol, la France et ses partenaires européens prouvent que le Vieux Continent dispose d’une technologie capable de porter les charges les plus lourdes du marché.

Helion Energy : l’étoile en bouteille se rapproche

Si Ariane maîtrise le feu chimique, Helion Energy apprivoise la fusion nucléaire. La start-up américaine, basée à Everett, vient d’annoncer une percée majeure vendredi dernier : son prototype « Polaris » a atteint une température de plasma de 150 millions de degrés Celsius, soit dix fois la température du cœur du Soleil !

Plus significatif encore, l’entreprise a obtenu des réactions de fusion deutérium-tritium mesurables et stables, ce qui constitue une première pour une si petite entité privée !

L’approche d’Helion tranche aussi radicalement avec les titanesques réacteurs de type tokamak (comme ITER). Au lieu de maintenir un plasma en continu dans un immense anneau magnétique, Helion utilise la technique « magnéto-inertielle pulsée ». Quèsaco ? Imaginez deux anneaux de plasma (du gaz ionisé) propulsés l’un contre l’autre à des vitesses supersoniques au centre d’une chambre à vide. La collision qui en résulte permet de comprimer le combustible jusqu’à la fusion, et l’énergie libérée est capturée directement par induction électromagnétique, sans passer par le cycle vapeur-turbine traditionnel.

Cette prouesse change la donne économique : en s’affranchissant de la lourde machinerie des turbines à vapeur, Helion promet de convertir l’énergie de fusion en électricité avec un rendement inégalé. Là où les réacteurs conventionnels perdent une immense partie de leur puissance en chaleur « inutile », ce système produit directement le courant. Ce qui permet d’envisager des centrales nucléaires compactes, rapides à construire et infiniment moins coûteuses que les chantiers pharaoniques actuels.

Les nouveaux jalons réalisés par Helion sont cruciaux pour maintenir la feuille de route ambitieuse de l’entreprise, qui vise la mise en service de sa centrale pilote « Orion » d’ici 2028. Cette installation, atteignant 50 mégawatts, sera la première au monde conçue non pour l’expérience scientifique, mais pour injecter de l’électricité de fusion « commerciale » dans le réseau. Celle-ci sera achetée par Microsoft pour alimenter ses data centers.

L’objectif ultime de l’entreprise reste la fusion aneutronique utilisant l’hélium-3, un « Saint Graal énergétique » : une électricité sans déchets radioactifs à longue vie. Avec les résultats encourageants du prototype Polaris, Helion suggère que l’ère de l’énergie de fusion pourrait arriver bien plus tôt qu’imaginé.

Allonic : la robotique hongroise qui a du « muscle »

Pendant ce temps, une révolution silencieuse s’opère dans des ateliers de Budapest. La start-up hongroise Allonic entend bousculer les paradigmes de la robotique humanoïde en remplaçant le métal… par du tissu.

Jusqu’ici, construire une main robotique signifiait assembler des centaines (et même des milliers) de petites pièces rigides : moteurs, engrenages, vis et câbles. Allonic propose une approche radicalement différente : le « 3D Tissue Braiding » (soit le tissage de tissus 3D). La machine d’Allonic « tisse » littéralement la structure du robot, intégrant un squelette rigide, des tendons souples et des actionneurs directement dans un processus de fabrication continu. Le résultat est une véritable main proposant quasiment les mêmes caractéristiques que celle des humains, et bientôt des corps entiers.

Cette méthode confère à leurs créations une fluidité « bio-inspirée ». La main d’Allonic possède une souplesse quasi naturelle. Elle peut encaisser des chocs, saisir des objets fragiles sans capteurs de pression complexes et interagir avec l’humain sans risque de blessure. En s’inspirant de la biologie pour la fabrication, Allonic espère résoudre un défi majeur de la robotique moderne : la complexité d’assemblage.

Vers le dépistage du cancer du sein à domicile

L’innovation médicale prend parfois la forme d’une simple sonde. Des chercheurs du MIT ont dévoilé début février une version mature de leur capteur à ultrasons portable, capable de scanner les tissus mammaires en profondeur. Contrairement aux mammographies traditionnelles, coûteuses, irradiantes et nécessitant une visite à l’hôpital, ce dispositif d’échographie souple se glisse aisément dans un sac et permet une imagerie en temps réel et en 3D.

L’enjeu est colossal : le cancer du sein reste l’un des plus meurtriers par sa fréquence, et son pronostic dépend presque entièrement de la précocité du diagnostic. Le problème actuel réside dans l’intervalle entre deux dépistages : une tumeur agressive se développe très vite entre deux mammographies espacées de plusieurs années. Le dispositif du MIT comble cet angle mort en permettant une surveillance trimestrielle ou même mensuelle à domicile, sans douleur.

La technologie repose sur un nouveau matériau piézoélectrique capable de générer des ondes ultrasonores de haute qualité tout en épousant les courbes du corps. Les essais cliniques récents montrent une résolution d’image désormais comparable à celle des échographies hospitalières, à même de repérer des kystes de 3 mm, voire plus petits. En démocratisant l’accès à l’imagerie médicale, le MIT propose de passer d’une médecine de réaction (traiter la maladie sur le tard) à une médecine vraiment préventive.

Miracle neurologique : quand le cortex s’éveille après le noir

C’est une histoire, médiatisée par le médecin-journaliste Marc Gozlan, qui défierait presque les manuels de neurologie. Une récente étude publiée par l’Université Miguel Hernández d’Elche (Espagne) rapporte le cas d’un patient aveugle depuis plus de trois ans, ayant recouvré une forme de vision naturelle à la suite d’une expérimentation d’implant cérébral.

Initialement, l’expérience visait à tester une prothèse visuelle intracorticale : un réseau de micro-électrodes implanté directement dans le cortex visuel pour « contourner » les yeux et le nerf optique défaillants. L’objectif de l’étude était de créer des points lumineux artificiels pour permettre au patient de s’orienter. L’implant a fonctionné, mais l’inattendu s’est produit en marge de cette stimulation artificielle.

Après plusieurs sessions, le patient a rapporté percevoir des lumières et des mouvements spontanément, sans que l’appareil ne soit activé ! Les tests ont confirmé qu’il parvenait à localiser des sources lumineuses et des silhouettes avec une précision qui était impossible avec sa condition antérieure. Contrairement aux essais précédents (comme ceux menés sur Bernadeta Gómez), qui avaient nécessité une stimulation active, cette nouvelle étude rapporte donc un cas de plasticité « inédit ».

Les chercheurs, stupéfaits, émettent l’hypothèse d’une adaptation neuronale rapide. La stimulation électrique aurait soit « réveillé » des circuits neuronaux dormants, soit forcé le cerveau à réorganiser ses voies de traitement visuel résiduelles. Ce cas unique (à ce stade) suggère que le cerveau, même privé de sens pendant de nombreuses années, ne s’éteint pas définitivement. Il attend parfois juste l’étincelle adéquate pour se rallumer…

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #14 : Ariane 6, fusion nucléaire et surprises médicales est apparu en premier sur Les Électrons Libres.

Reçu — 15 février 2026 Les Électrons Libres

Vers un remède universel pour le cœur, le foie et l’addiction ?

15 février 2026 à 06:00

Loin des stars aux silhouettes affinées sur les tapis rouges d'Hollywood, une lame de fond silencieuse est en train de redessiner la carte de la médecine mondiale. Et si les analogues du GLP-1 étaient le « couteau suisse » médical du XXIe siècle ?

Pendant longtemps, le récit autour de ces médicaments (Ozempic, Wegovy, Mounjaro, etc.) s'est cantonné à une équation simple : moins d'appétit égale moins de poids. Mais depuis peu, les chercheurs observent avec stupéfaction une série de phénomènes qui dépassent de loin le simple cadre de l'obésité. Des cœurs qui rajeunissent, des foies qui cicatrisent, des reins qui résistent à la maladie… Ces traitements semblent « réparer » l'organisme bien au-delà de ce pourquoi ils ont été conçus. Sommes-nous à l'aube d'une nouvelle révolution ?

Quand le cœur et les reins entrent dans la danse

Le tournant historique porte un nom : l’étude SELECT. En août 2023, Novo Nordisk publie les résultats de cet essai clinique titanesque, qui a provoqué une véritable onde de choc. L'objectif était de répondre à une question simple : le sémaglutide protège-t-il le cœur de toutes les personnes en surpoids, même si elles ne sont pas diabétiques ?

Les résultats ont fait l'effet d'une bombe dans le milieu de la cardiologie : chez les participants, le médicament a réduit de 20 % le risque d'événements cardiovasculaires majeurs (AVC, infarctus, décès d'origine cardiaque). Pour la première fois, on prouvait qu'un traitement contre l'obésité n'était pas seulement « cosmétique » ou de confort, mais qu'il sauvait littéralement des vies en apaisant l'incendie dans nos artères…

Mais ce n’était que le début !

Article réservé à nos abonnés.

S'abonner dès 5€/mois

ou

Acheter cet article pour 1,50€

L’article Vers un remède universel pour le cœur, le foie et l’addiction ? est apparu en premier sur Les Électrons Libres.

Reçu — 13 février 2026 Les Électrons Libres

PPE3 : qui paye la facture ?

13 février 2026 à 06:00

Dix ans de dépenses, de subventions et de choix énergétiques viennent d’être présentés avec la Programmation pluriannuelle de l’énergie. Un catalogue paradoxal cédant aux désirs des opérateurs. Hélas, le réel va présenter l’addition. Et elle sera salée.

Vous avez peut-être raté l’info, noyée entre deux polémiques sur les cancers et un énième rebondissement judiciaire. La France vient de présenter sa feuille de route énergétique pour les dix prochaines années : la PPE3. Un sujet qui devrait constituer le cœur du débat politique de cette fin de quinquennat et du prochain. Même si rien n’est moins sûr, hélas.

Elle était attendue depuis deux ans, et a été sans cesse repoussée sur l’autel de l’instabilité politique. Mais voilà ! Nous y sommes. Notre PPE3 a enfin été dévoilée par Sébastien Lecornu et aussitôt publiée au Journal officiel. Elle prétend fixer un cap clair de souveraineté énergétique. Elle vise une forte réduction de la dépendance aux énergies fossiles et une augmentation de la production électrique décarbonée. L’objectif ? La porter à 60 % de la consommation finale en 2030 et 70 % en 2035. Le document, à rebours de la précédente PPE qui souhaitait la fermeture de 14 réacteurs nucléaires, place l’atome au cœur de la stratégie présentée, avec l’optimisation du parc existant de 57 réacteurs pour atteindre 380 à 420 TWh dès 2030. Une bonne chose, même si elle souligne une certaine incohérence d’une décennie l’autre, et s’avère économiquement peu compatible avec l’autre grosse annonce dans ce domaine. À savoir, la confirmation de la construction de six EPR2 et la possibilité de lancer huit réacteurs supplémentaires dans le courant de l’année. Quand on aime on ne compte pas… tragique erreur. Parallèlement, notre PPE prévoit une poursuite raisonnée du développement des énergies renouvelables terrestres, avec des objectifs revus à la baisse par rapport aux versions antérieures : environ 48 GW de solaire photovoltaïque en 2030 et 55-80 GW en 2035 et un développement mesuré de l’éolien terrestre privilégiant la remotorisation, ainsi qu’un maintien de la croissance de l’éolien offshore.

Bref, un texte qui, derrière les objectifs affichés, semble surtout très politique, tant il veut donner des gages à tout le monde. Qu’importent les évidents paradoxes de la démarche. D’autant qu’elle ne répond ainsi pas aux plus pressantes urgences en matière de stratégie énergétique que représentent les questions du coût, de la demande et de la consommation. On se retrouve alors face à une bataille de chiffres entre pro-nucléaires et pro-renouvelables. Combien d’EPR2 ? Combien d’éoliennes ? Quelle puissance installée en 2035 ? On croirait un concours de gigawatts.

Pendant ce temps, un éléphant se promène tranquillement au milieu de la pièce. La France dépense chaque année environ 60 milliards d’euros pour acheter du pétrole, du gaz et du charbon à l’étranger. Soixante milliards qui partent chaque année en fumée — au sens propre du terme.

Et personne, dans ce grand débat sur les capacités, ne semble s’attaquer frontalement au seul sujet qui compte, soit : comment éviter cette dépense colossale en s’exemptant de ces importations ?

Le problème avec les gigawatts

Une situation découlant d’une erreur tentante — à laquelle nos dirigeants succombent depuis des décennies : croire qu’il suffit de planifier l’offre pour que la demande suive. Or c’est faux…

Prenez votre propre cas. Vous chauffez votre maison au gaz. Votre chaudière fonctionne parfaitement. Pour que vous passiez à une pompe à chaleur électrique, de quoi avez-vous besoin ? Qu’on vous montre un beau graphique de puissance installée en 2050 ? Ou qu’on vous prouve, facture en main, que l’électricité sera durablement moins chère que le gaz ? La réponse est facile.

C’est la même chose à l’échelle industrielle. Quand ArcelorMittal, Lafarge ou n’importe quel autre chimiste décide du lieu d’implantation de sa prochaine usine — ou s’il électrifie ses fours — il compare les coûts énergétiques, pays par pays. Pas la qualité rédactionnelle des communiqués de presse.

Or, et c’est là où le constat pique : la demande française d’électricité stagne. L’industrie temporise. L’électrification des procédés avance au ralenti. Les relocalisations tant promises restent, pour beaucoup, à l’état de vœux pieux.

La raison n’est pas mystérieuse. Tant que le mégawattheure électrique n’est pas clairement, avec visibilité et structurellement plus attractif que le gaz, personne ne bougera. Ni les industriels, ni les ménages. Décarboner à coups de PowerPoint n’a jamais permis de faire baisser une facture.

Le trésor qu’on gaspille

Regardons les choses en face. La France a un avantage colossal, envié par la plupart de ses voisins : un mix de production d’électricité déjà décarboné.

Elle le doit à un parc nucléaire existant, très largement amorti, les centrales ayant été payées il y a des décennies. Mais aussi à son renouvelable installé, dont le coût marginal est quasi nul : une fois l’éolienne ou le panneau solaire posé, chaque MWh supplémentaire est presque gratuit. Et enfin, à un système électrique globalement exportateur. Rappelons que si la France vend régulièrement du courant à ses voisins, l’inverse est très rare.

Nous ne sommes pas l’Allemagne de 2022, qui fermait ses centrales nucléaires tout en brûlant frénétiquement du lignite pour compenser. Nous ne sommes pas davantage le Royaume-Uni, qui jongle avec un réseau vieillissant. Notre chance est d’avoir les cartes énergétiques en main.

La question se pose donc : pourquoi ne jouons-nous pas cette main ?

Le débat se focalise sur les investissements futurs — nouveaux EPR, nouvelles fermes éoliennes — et semble oublier une question beaucoup plus immédiate : tire-t-il le meilleur parti de ce que nous possédons déjà ?

Le coût affiché du parc nucléaire existant intègre des investissements futurs massifs (le Grand Carénage, les programmes de prolongation), des exigences de sûreté renforcées — légitimes — et des méthodologies comptables très prudentes. Si prudentes, parfois, qu’un parc amorti finit par apparaître artificiellement coûteux.

Soyons clairs : la sûreté nucléaire n’est pas un paramètre ajustable. On ne négocie pas avec la physique. Mais la manière dont on traduit nos atouts en signal économique relève en revanche d’un choix politique. Or, aujourd’hui, ce choix nous dessert. Un parc amorti devrait être une arme commerciale. Pas une ligne comptable anxiogène.

Construire, oui — mais pas n’importe comment

Aucune personne sérieuse ne conteste la nécessité de renouveler le parc nucléaire à terme, comme d’investir dans de nouvelles capacités et de préparer l’outil industriel de la prochaine génération. La question n’est pas si, mais quand et dans quel ordre.

La France de 2025 n’est pas celle de 1973. Nous ne faisons pas face à un risque de pénurie imminente. Nous n’avons pas besoin de construire dans l’urgence. Nous devons construire pour accompagner une montée en puissance de la demande. Mais ce phénomène aura seulement lieu si notre électricité est compétitive.

C’est un cercle, et il peut être vicieux ou vertueux.

Il sera vicieux si on lance des chantiers pharaoniques. On alourdira alors le système de coûts fixes, renchérissant l’électricité, provoquant une fuite des industriels, une stagnation de la demande et l’obligation de faire tourner les centrales en sous-régime. Flamanville, quand tu nous tiens…

Notre cercle épousera en revanche la vertu si on commence par rendre l’électricité existante imbattable. De quoi faire décoller la demande, permettre le lancement d’investissements au bon moment, et amener les nouvelles capacités en face de clients prêts à consommer. La filière se structure, les coûts baissent.

Le vrai courage politique

La PPE3 semble parfois guidée par une nostalgie — celle du grand volontarisme industriel, du moment où de Gaulle (ou Messmer, au choix) décidait d’une trajectoire voyant le pays suivre sans broncher… ou presque.

Ce monde n’existe plus. Le capital est mondial et mobile. Les finances publiques françaises sont dans un état qui interdit les paris à 100 milliards sans filet. La concurrence entre pays pour attirer les usines se joue à quelques centimes par kWh.

Le vrai courage, ce n’est pas d’annoncer des gigawatts depuis un pupitre — qu’il soit à Belfort ou à l’Élysée. C’est de poser la question qui dérange : comment rend-on l’électricité française suffisamment attractive pour que toute l’économie ait intérêt à basculer ?

Cela veut dire revoir la régulation. Revoir le signal tarifaire. Assumer que le parc existant est un avantage à exploiter, pas un héritage embarrassant. Et séquencer les investissements nouveaux en fonction de la demande réelle, pas du calendrier politique.

Si nous réussissons cela, la demande viendra. Les industriels investiront. L’électrification des transports, du chauffage, des usines cessera d’être un objectif sur un slide pour devenir une réalité économique. Et les 60 milliards d’importations fossiles commenceront enfin à fondre.

Alors oui, construire de nouvelles capacités aura tout son sens.

Sinon, nous aurons planifié l’offre. Mais pas créé le mouvement.

L’article PPE3 : qui paye la facture ? est apparu en premier sur Les Électrons Libres.

Reçu — 12 février 2026 Les Électrons Libres

Instrumentalisation du cancer : l’ère des « phobistes »

12 février 2026 à 06:00

L’epidémie de désinformation sur le cancer se propage. Tant pis si notre espérance de vie n’a jamais été aussi grande, si on soigne mieux que jamais et si les pesticides sont innocents. Pour combattre la modernité, les marchands de peur ont fait du cancer leur totem.

À force d’instrumentalisation, particulièrement en France, le cancer n’est plus seulement une dramatique épreuve intime et médicale. Il devient une variable d’ajustement des agendas militants, politiques et médiatiques, qui en rendent responsables les pratiques d’une agriculture déjà exsangue et au bord de l’explosion. Un débat ravivé à la faveur des municipales et de la reprise des discussions qui se tiennent actuellement à l’Assemblée autour de l’annonce d’une nouvelle mouture de la loi Duplomb et d’une seconde pétition en contestant la possibilité, la première ayant recueilli plus de 2 millions de signatures. Mais aussi de l’exploitation malhonnête du chiffre de l’évolution du nombre de patients atteints par ces pathologies entre 1990 et 2023, qui a doublé pour des raisons d’une infinie logique, que nous étudierons plus loin. Un phénomène dangereux qui fragilise un secteur économique vital et certaines de ses filières, et détourne l’attention des facteurs à considérer prioritairement pour faire reculer la maladie. De quoi avoir fait réagir plusieurs cancérologues, scientifiques et spécialistes de l’agriculture, qui, notamment à l’initiative de notre contributeur, le Dr Jérôme Barrière, ont publié une tribune en forme de signal d’alarme dans Le Point, le 8 février dernier.

La réalité de l’explosion des cancers

Certes, les chiffres sont éloquents : le nombre de nouveaux cas de cancers en France métropolitaine est passé de 216 130 en 1990 à 433 136 en 2023, soit un doublement en trois décennies. Cette hausse, souvent qualifiée d’”explosion” dans les discours militants, n’est pourtant pas liée aux pesticides ou à l’agriculture intensive. Trois facteurs démographiques et médicaux l’expliquent principalement.

Premièrement, le vieillissement de la population. L’espérance de vie a progressé de manière spectaculaire : chez les hommes, de 72,7 ans en 1990 à 80,3 ans en 2025 ; chez les femmes, de 81,0 ans à 85,9 ans. Parallèlement, le nombre de personnes âgées de plus de 65 ans a quasiment doublé depuis 1990, passant d’environ 8 millions à près de 15 millions. Soit de 14 % de nos concitoyens à 22 %, en tenant compte de l’évolution démographique. Or, le cancer est avant tout une maladie liée à l’âge. Plus on vit longtemps, plus les cellules accumulent des mutations, multipliant les risques. Ce facteur explique à lui seul 48 % de l’augmentation des cas chez les hommes et 27 % chez les femmes entre 1990 et 2023.

Deuxièmement, la croissance démographique amplifie ce phénomène. La population française est passée de 58 millions d’habitants en 1990 à environ 68 millions en 2023 (69,1 millions selon le dernier recensement), soit une hausse de 10 millions. Cette augmentation élève logiquement le volume absolu de diagnostics, indépendamment des taux d’incidence par habitant. Combinés, ces deux éléments – vieillissement et croissance démographique – justifient 78 % de l’évolution chez les hommes et 57 % chez les femmes.

Troisièmement, l’amélioration des dépistages, impulsée par des politiques publiques volontaristes depuis les années 1990, détecte davantage de tumeurs et, ce qui est encourageant, à des stades précoces rendant la guérison plus probable. Des programmes nationaux pour le sein, le colorectal ou le col de l’utérus ont multiplié les diagnostics, y compris pour des cas qui auraient pu passer inaperçus autrefois. Contrairement aux affirmations alarmistes, la France n’établit aucun record mondial ; l’incidence du cancer reste stable ou en baisse pour plusieurs localisations, comme pour le poumon chez les hommes, grâce à la baisse du tabagisme actif. Avec une incidence de 339 cas constatés pour 100 000 habitants, rien qu’en Europe, notre pays est moins touché que le Danemark, l’Irlande, la Norvège, la Belgique ou les Pays-Bas, dont les taux oscillent entre 350 et 400, même s’il faut rester prudent quand on compare les pays entre eux, les registres étant différents dans leur mode de recueil.

Par ailleurs, cette hausse des cas s’accompagne d’avancées médicales remarquables, boostées ces dernières années par les apports d’une intelligence artificielle qui ne fait que commencer à révéler ses promesses. Les taux de survie à cinq ans ont bondi : pour le cancer de la prostate, autour de 93 % aujourd’hui ; pour celui du sein, 89 % ; pour le colorectal, 65 % ; et pour le poumon, 22 %. Ces progrès contrastent avec les narratifs catastrophistes qui occultent les victoires de la médecine et alimentent une peur irrationnelle, détournant des efforts vers des causes secondaires.

Les causes réelles des cancers : prioriser les facteurs modifiables

Les origines du cancer sont multiformes, mais les données épidémiologiques identifient clairement les principaux coupables, loin des accusations récurrentes contre les produits phytosanitaires. Parmi les facteurs modifiables, le tabac domine largement, responsable de 20 % des nouveaux cas en France (29 % chez les hommes, 9,3 % chez les femmes). Il provoque non seulement des cancers du poumon, mais aussi des voies aérodigestives supérieures, du pancréas, de la vessie et bien d’autres. L’alcool suit, à l’origine de 8 % des cas (8,5 % chez les hommes, 7,5 % chez les femmes), touchant l’œsophage, le foie, le sein, le colorectal et, là encore, le pancréas, dont le cancer est le plus redoutable. Le surpoids et l’obésité contribuent chacun à 5,4 % des diagnostics, favorisant des tumeurs hormonodépendantes comme celles du sein ou de l’endomètre, tandis qu’une alimentation déséquilibrée – pauvre en fruits, légumes et fibres, riche en viandes transformées – ajoute 5,4 % supplémentaires. La sédentarité, avec 0,9 %, complète ce tableau des modes de vie délétères.

D’autres causes incluent les infections (comme le papillomavirus ou les hépatites, évitables par la vaccination et représentant 3 à 5 % des cas) et les expositions professionnelles (3 à 5 %, surtout liées à des substances comme l’amiante ou les solvants). En comparaison, les produits phytosanitaires utilisés en agriculture sont soupçonnés dans la survenue d’environ 0,1 % des cancers, touchant principalement les professionnels exposés (de mieux en mieux protégés désormais car informés), et de manière marginale, selon les études du Centre international de recherche sur le cancer et de Santé publique France. Par ailleurs, comme la plupart de nos voisins européens, mais avec une rigueur parfois supérieure, nous n’utilisons plus de pesticides classés CMR catégorie 1, les plus dangereux (cancérogènes, mutagènes ou toxiques pour la reproduction avérés ou présumés, selon le règlement CLP européen).

S’obstiner alors sur ces facteurs extrêmement mineurs de survenue des cancers, au point d’être inquantifiables, comme le font certains discours, détourne des priorités essentielles et perpétue une illusion de contrôle sur des risques exagérés.

Des discours dangereux et opportunistes

Or, il s’agit d’un réel danger. Ces narratifs relèvent le plus souvent de médias considérant la peur comme étant plus lucrative que la science, et de militants et politiciens opportunistes et irresponsables suivant un agenda électoral clientéliste. Les premiers, outre de désinformer, laissent certains argumentaires fallacieux et antiscientifiques être déroulés sans jamais que leur soit portée la contradiction, témoignant soit de l’ignorance des journalistes, soit de leur complaisance coupable. Une offensive « phobiste » coordonnée et ravageuse. On pense notamment aux mots scandaleux de Rima Hassan à l’encontre du sénateur Duplomb, sans aucun lien de causalité entre son propos et sa loi : « Ma propre mère est décédée d’un cancer à 3 mois de sa retraite. Comme 2 millions de Français j’emmerde Duplomb qui roule pour l’agro-industrie au détriment de la santé publique. » Une saillie ensuite soutenue sans scrupule par Jean-Luc Mélenchon, faisant par ailleurs référence à la militante Fleur Breteau qui a lancé à la figure des parlementaires ayant voté le texte : « vous êtes des alliés du cancer, et on le fera savoir ! ». Fleur Breteau ? Parlons-en. Styliste, fondatrice d’une chaîne de sex-shops et militante de Greenpeace, elle n’a jamais travaillé dans l’agriculture. Atteinte d’un cancer du sein sans aucun lien avec les pesticides, elle est un exemple emblématique de cette dérive de la politisation du cancer que son malheur ne justifie pas. Une dérive qui s’appuie sur les théories critiques de la modernité, comme celle du prêtre et philosophe austro-américain Ivan Illich, vue comme une machine folle qui, par sa course à la productivité, aliènerait les individus, détruirait leur autonomie, tout en générant une rareté artificielle et une destruction environnementale. Ironie du sort, Illich est mort en 2002, victime d’un cancer qu’il… a refusé de faire soigner pour se conformer à ses théories. Cette critique radicale reste très influente aujourd’hui chez de nombreux militants antipesticides, qui y puisent une dénonciation des logiques industrielles agrochimiques.

La science contre l’émotion et l’instrumentalisation

Outre de passer à côté des véritables enjeux, ces discours alimentent un populisme antiscience qui stigmatise une profession en crise, avec des suicides en hausse parmi les agriculteurs, et poussent à des lois hâtives sans évaluer leurs impacts. Cette polarisation, typique de l’époque, érode le débat démocratique, remplaçant l’analyse factuelle par une indignation sélective qui freine les solutions équilibrées pour la santé et l’environnement. Ainsi, acceptons désormais qu’une pétition signée par 3 % des Français fasse office de référendum et rende caduque toute nouvelle proposition de loi reprenant pourtant scrupuleusement l’avis du Conseil constitutionnel rendu durant l’été 2025.

En remplaçant la science par l’indignation, elle fragilise des secteurs essentiels comme l’agriculture qui poursuit inéluctablement son déclin et occulte les batailles cruciales contre le tabac, l’alcool ou l’obésité, qui pourraient prévenir des dizaines de milliers de cas annuels en visant par exemple une génération sans tabac ou encore une meilleure couverture vaccinale contre les papillomavirus encore insuffisante et inégale sur le territoire. Il est impératif de remettre la raison au centre du débat et de prioriser les facteurs évitables pour booster des taux de survie dont la hausse constante reste remarquable.

L’article Instrumentalisation du cancer : l’ère des « phobistes » est apparu en premier sur Les Électrons Libres.

Reçu — 11 février 2026 Les Électrons Libres

Réanimer les cœurs de ville

11 février 2026 à 06:00

Des vitrines qui ferment. Des rues qui se vident. Les centres-villes, petit à petit, s’endorment. Un déclin que commerçants et élus tentent désespérément d’endiguer à coups de subventions ou d’opérations de com’. Sans jamais s’attaquer au fond du problème : faire revenir les clients.

Si les commerces étouffent, c’est principalement à cause du développement des plateformes digitales et des baux commerciaux trop élevés, dit-on. Certes. Mais on oublie trop souvent qu’un centre-ville ne vit que parce que des consommateurs s’y rendent. Comme un centre commercial, sa puissance dépend de son attractivité, du nombre de clients qu’il touche. Il lui faut donc une importante population en capacité d’y accéder facilement, régulièrement et dans des conditions agréables : ce sont les habitants qui consomment au quotidien, les actifs qui travaillent dans le secteur et les visiteurs qui s’y rendent pour du shopping, des sorties, des loisirs. Or, ces conditions ne sont aujourd’hui plus remplies.

Quand la ville se vide… d’habitants

Historiquement, les centres-villes étaient le premier lieu d’habitation, de vie, d’échanges. Ce n’est plus le cas. Entre 1960 et 1990, le développement des zones périurbaines et avec elles, de quartiers plus accessibles et surtout moins chers, a entraîné le déplacement d’une partie non négligeable des urbains. Aujourd’hui, la population des quatre premiers arrondissements de Paris représente 30 à 40 % de ce qu’elle était il y a un siècle ! Le constat est clair : le logement intra-muros n’est plus compatible avec les contraintes et attentes contemporaines.

Où sont passés les actifs ?

La ville a toujours été un pôle d’attractivité économique. Mais les actifs aussi se sont déplacés vers la périphérie en réponse à la hausse des loyers des bureaux (sans rappeler le départ des industries il y a longtemps déjà), aux difficultés d’accès, aux nouvelles normes. Les premiers à fuir sont l’État et les collectivités. Par exemple, à Orléans, ce sont 5 000 emplois qui ont été déplacés avec le nouvel hôpital. À Strasbourg, près de 1 000 agents de police ont été relocalisés en bordure de voie rapide, loin des quais historiques. Près de 10 000 emplois administratifs ont suivi le regroupement des services du ministère de la Défense vers le site Balard. Ce sont des flux perdus, une masse de consommateurs qui a soudainement abandonné les commerces voisins. S’il subsiste parfois quelques « mairies-vitrines », pour les cérémonies notamment, elles ne parviennent pas à compenser ces départs.

Où est-ce qu’on se gare ?

En plus des habitants et des emplois, la taille de la clientèle d’une ville comprend les visiteurs occasionnels : banlieusards faisant leurs courses et clients venant d’un peu plus loin. Se pose alors la question de l’accessibilité des cœurs de ville. Au-delà des débats sur la voiture et la ville, force est de constater que les politiques mises en place pour entraver la circulation automobile ont considérablement compliqué l’accès et donc contracté l’économie du secteur. Mis à part dans quelques villes, l’offre en mobilités collectives n’a pas suivi, ou pas assez bien (amplitudes horaires, soirée / nuit, continuité des lignes…) : se déplacer devient tout de suite contraignant. De plus, ces nouveaux modes de déplacement modifient la manière de consommer : sans coffre, on achète plus léger, moins encombrant. En d’autres termes, l’évolution de la mobilité transforme la structure commerciale et l’économie des centres-villes.

La disneylandisation de la ville

De toutes les clientèles, le tourisme international est le moins pénalisé. Ainsi son poids économique se renforce, par l’affaiblissement des autres clientèles, entraînant là aussi une modification importante du tissu commercial. Encore cela ne vaut-il que pour les métropoles à dimension internationale, au premier rang desquelles on retrouve bien sûr Paris. Les villes moyennes, elles, subissent une perte sèche.

Pourquoi sortir quand on peut scroller ?

Si le e-commerce n’est pas la cause première de la désertification des centres-villes, son avènement joue le rôle d’accélérateur. Chacun a désormais le pouvoir de consommer ce qu’il veut, quand il veut, vingt-quatre heures sur vingt-quatre et sept jours sur sept, en quelques clics. Aussi, quand la taille de la clientèle baisse, que générer du flux devient plus difficile et que de l’autre côté, le catalogue digital est disponible à toute heure de la journée ou de la nuit, le résultat est sans appel. Le client n’est plus captif de la ville. Moins attractive, elle doit réinventer sa capacité de séduction. Avant, y venir était une nécessité. Désormais le commerce de ville doit justifier son utilité.

Se balader… en paix

Les acteurs du commerce parlent d’expérience d’achat. La ville obéit au même impératif. L’expérience de la ville commerçante doit mobiliser les acteurs pour faire vivre au client un moment agréable. Or la situation est souvent loin d’être idéale : transports en commun dégradés, poubelles débordantes, rues taguées, incivilités sont courants. Alors que tout est disponible depuis son canapé, personne n’a envie de venir dans une ville s’il s’y sent mal à l’aise. Si l’on souhaite inciter les gens à revenir en ville, il faut d’urgence répondre concrètement à ce sentiment d’insécurité.

Une politique commerciale de la ville

Les politiques publiques ont changé la ville et dégradé sa commercialité. Constatant la situation, les municipalités investissent souvent pour compenser les effets sans traiter les causes. Ainsi certaines détiennent d’importants parcs de locaux commerciaux et prétendent définir l’offre, ce qui n’est pas leur métier et encore moins leur compétence.

Revivifier un centre-ville, ce n’est pas « sauver des boutiques ». C’est reconstruire une mécanique de flux, donc de zone de chalandise, donc d’accès, donc de sécurité, donc d’envie. Tant qu’on traitera le commerce comme un sujet isolé, on continuera à constater la vacance et à déplorer la décommercialisation. À l’inverse, si l’on accepte de regarder les causes structurelles – même quand elles sont difficiles à entendre – alors on peut reprendre la main. Rien n’est figé. Une ville vit de flux, et le flux se mérite.

Le commerce n’a pas tant besoin d’aides que des conditions de son épanouissement.

L’article Réanimer les cœurs de ville est apparu en premier sur Les Électrons Libres.

Reçu — 10 février 2026 Les Électrons Libres

Réanimer les cœurs de ville

10 février 2026 à 22:08

Des vitrines qui ferment. Des rues qui se vident. Les centres-villes, petit à petit, s’endorment. Un déclin que commerçants et élus tentent désespérément d’endiguer à coups de subventions ou d’opérations de com’. Sans jamais s’attaquer au fond du problème : faire revenir les clients.

Si les commerces étouffent, c’est principalement à cause du développement des plateformes digitales et des baux commerciaux trop élevés, dit-on. Certes. Mais on oublie trop souvent qu’un centre-ville ne vit que parce que des consommateurs s’y rendent. Comme un centre commercial, sa puissance dépend de son attractivité, du nombre de clients qu’il touche. Il lui faut donc une importante population en capacité d’y accéder facilement, régulièrement et dans des conditions agréables : ce sont les habitants qui consomment au quotidien, les actifs qui travaillent dans le secteur et les visiteurs qui s’y rendent pour du shopping, des sorties, des loisirs. Or, ces conditions ne sont aujourd’hui plus remplies.

Quand la ville se vide… d’habitants

Historiquement, les centres-villes étaient le premier lieu d’habitation, de vie, d’échanges. Ce n’est plus le cas. Entre 1960 et 1990, le développement des zones périurbaines et avec elles, de quartiers plus accessibles et surtout moins chers, a entraîné le déplacement d’une partie non négligeable des urbains. Aujourd’hui, la population des quatre premiers arrondissements de Paris représente 30 à 40 % de ce qu’elle était il y a un siècle ! Le constat est clair : le logement intra-muros n’est plus compatible avec les contraintes et attentes contemporaines.

Où sont passés les actifs ?

La ville a toujours été un pôle d’attractivité économique. Mais les actifs aussi se sont déplacés vers la périphérie en réponse à la hausse des loyers des bureaux (sans rappeler le départ des industries il y a longtemps déjà), aux difficultés d’accès, aux nouvelles normes. Les premiers à fuir sont l’État et les collectivités. Par exemple, à Orléans, ce sont 5 000 emplois qui ont été déplacés avec le nouvel hôpital. À Strasbourg, près de 1 000 agents de police ont été relocalisés en bordure de voie rapide, loin des quais historiques. Près de 10 000 emplois administratifs ont suivi le regroupement des services du ministère de la Défense vers le site Balard. Ce sont des flux perdus, une masse de consommateurs qui a soudainement abandonné les commerces voisins. S’il subsiste parfois quelques « mairies-vitrines », pour les cérémonies notamment, elles ne parviennent pas à compenser ces départs.

Où est-ce qu’on se gare ?

En plus des habitants et des emplois, la taille de la clientèle d’une ville comprend les visiteurs occasionnels : banlieusards faisant leurs courses et clients venant d’un peu plus loin. Se pose alors la question de l’accessibilité des cœurs de ville. Au-delà des débats sur la voiture et la ville, force est de constater que les politiques mises en place pour entraver la circulation automobile ont considérablement compliqué l’accès et donc contracté l’économie du secteur. Mis à part dans quelques villes, l’offre en mobilités collectives n’a pas suivi, ou pas assez bien (amplitudes horaires, soirée / nuit, continuité des lignes…) : se déplacer devient tout de suite contraignant. De plus, ces nouveaux modes de déplacement modifient la manière de consommer : sans coffre, on achète plus léger, moins encombrant. En d’autres termes, l’évolution de la mobilité transforme la structure commerciale et l’économie des centres-villes.

La disneylandisation de la ville

De toutes les clientèles, le tourisme international est le moins pénalisé. Ainsi son poids économique se renforce, par l’affaiblissement des autres clientèles, entraînant là aussi une modification importante du tissu commercial. Encore cela ne vaut-il que pour les métropoles à dimension internationale, au premier rang desquelles on retrouve bien sûr Paris. Les villes moyennes, elles, subissent une perte sèche.

Pourquoi sortir quand on peut scroller ?

Si le e-commerce n’est pas la cause première de la désertification des centres-villes, son avènement joue le rôle d’accélérateur. Chacun a désormais le pouvoir de consommer ce qu’il veut, quand il veut, vingt-quatre heures sur vingt-quatre et sept jours sur sept, en quelques clics. Aussi, quand la taille de la clientèle baisse, que générer du flux devient plus difficile et que de l’autre côté, le catalogue digital est disponible à toute heure de la journée ou de la nuit, le résultat est sans appel. Le client n’est plus captif de la ville. Moins attractive, elle doit réinventer sa capacité de séduction. Avant, y venir était une nécessité. Désormais le commerce de ville doit justifier son utilité.

Se balader… en paix

Les acteurs du commerce parlent d’expérience d’achat. La ville obéit au même impératif. L’expérience de la ville commerçante doit mobiliser les acteurs pour faire vivre au client un moment agréable. Or la situation est souvent loin d’être idéale : transports en commun dégradés, poubelles débordantes, rues taguées, incivilités sont courants. Alors que tout est disponible depuis son canapé, personne n’a envie de venir dans une ville s’il s’y sent mal à l’aise. Si l’on souhaite inciter les gens à revenir en ville, il faut d’urgence répondre concrètement à ce sentiment d’insécurité.

Une politique commerciale de la ville

Les politiques publiques ont changé la ville et dégradé sa commercialité. Constatant la situation, les municipalités investissent souvent pour compenser les effets sans traiter les causes. Ainsi certaines détiennent d’importants parcs de locaux commerciaux et prétendent définir l’offre, ce qui n’est pas leur métier et encore moins leur compétence.

Revivifier un centre-ville, ce n’est pas « sauver des boutiques ». C’est reconstruire une mécanique de flux, donc de zone de chalandise, donc d’accès, donc de sécurité, donc d’envie. Tant qu’on traitera le commerce comme un sujet isolé, on continuera à constater la vacance et à déplorer la décommercialisation. À l’inverse, si l’on accepte de regarder les causes structurelles – même quand elles sont difficiles à entendre – alors on peut reprendre la main. Rien n’est figé. Une ville vit de flux, et le flux se mérite.

Le commerce n’a pas tant besoin d’aides que des conditions de son épanouissement.

L’article Réanimer les cœurs de ville est apparu en premier sur Les Électrons Libres.

Ferme à saumons : fantasme écocidaire ou projet rationnel ?

10 février 2026 à 06:00

C’est le poisson préféré des Français. Pourtant, faute de production locale, il est importé de Norvège ou d’Écosse. Un paradoxe que le projet girondin Pure Salmon ambitionne de corriger… malgré une opposition virulente. Relocalisation bienvenue, ou désastre écologique ?

« Si tu veux sauver l’estuaire, les poings en l’air ! » Dès la clôture de l’enquête publique (qui a collecté un record de plus de 20 000 contributions, dont 95 % défavorables), les désormais traditionnelles manifestations ont enfoncé le clou. Le projet est dénoncé comme « aberrant », « écocidaire », menaçant un « estuaire protégé ». « On n’a pas besoin de ça pour être heureux ! », tranche un opposant, comme si le débat se résumait à une simple question de confort existentiel…

Il faut dire que le projet de Pure Salmon, pharaonique, a tout pour déclencher l’indignation habituelle : 14 hectares de bassins et d’infrastructures, et une production annuelle visée de plus de 10 000 tonnes de saumon, soit jusqu’à 5 % de la consommation nationale. Pure Salmon a beau promettre un saumon garanti sans antibiotiques, sans OGM, et élevé de façon durable grâce à la technologie « RAS » (un système en circuit fermé limitant drastiquement les prélèvements et rejets d’eau), cela reste bien insuffisant pour apaiser les franges militantes écologistes, traditionnellement technophobes et viscéralement opposées à tout gigantisme, au nom des vertus souvent fantasmées des petites exploitations.

Dans le récit, le saumon devient un « caprice de consommateur ». Et derrière le rejet du projet, c’est la pisciculture « industrielle » dans son ensemble qui est mise au banc des accusés : tantôt responsable d’impacts climatiques majeurs, tantôt accusée de vider les océans, à cause de la quantité prétendument astronomique de poissons sauvages qu’il faudrait pour nourrir les élevages.

La pisciculture, un modèle insoutenable ?

Dans un article publié en 2014, l’ONG CIWF France dénonçait un supposé « gâchis de poissons », avançant des chiffres a priori édifiants : entre 3 et 5 kilos de poissons sauvages seraient nécessaires pour produire… 1 kilo de poisson d’élevage. Des ratios chocs, durablement imprimés dans l’imaginaire collectif. Avec de tels chiffres en tête, comment ne pas condamner la pisciculture ?

Le problème, c’est que cette grille de lecture est aujourd’hui largement obsolète. Si ces ratios correspondaient à la réalité des années 1990, ils ne tiennent plus face aux évolutions techniques des dernières décennies. L’alimentation des poissons d’élevage a profondément changé, intégrant davantage de matières végétales et réduisant fortement le recours aux huiles et farines de poissons. Résultat : le ratio « FIFO » (fish in : fish out), qui mesure la quantité de poissons sauvages nécessaire à la production, tourne désormais autour de 0,3. Autrement dit, un kilo de poisson sauvage permet aujourd’hui de produire plus de trois kilos de poisson d’élevage.

Le saumon fait figure d’exception relative. Carnivore, il reste l’une des espèces les plus dépendantes des huiles et farines de poissons, avec un FIFO qui s’établit aujourd’hui entre 1 et 1,5 (selon les méthodes utilisées). Cela peut sembler élevé, mais c’est probablement toujours préférable à la pêche directe du saumon sauvage. Les poissons destinés à l’alimentation des élevages proviennent en effet de populations beaucoup plus abondantes, là où les saumons sauvages figurent parmi les espèces les plus sous pression.

Plus largement, un fait mérite d’être souligné : malgré l’explosion de la pisciculture depuis la fin des années 1980 et l’augmentation continue de la consommation de produits de la mer, les captures de poissons sauvages ont aujourd’hui tendance à se stabiliser, voire à reculer. Un signal clair que la pisciculture ne vide pas les océans, mais contribue au contraire à réduire la pression sur les stocks sauvages. Un élément central, trop souvent absent du débat public.

Et le bilan est tout aussi intéressant du point de vue climatique. Certes, une alimentation strictement végétale reste la moins carbonée. Mais, à production équivalente, la majorité des élevages piscicoles émettent moins de gaz à effet de serre que l’élevage de poulet, pourtant souvent présenté comme la référence en la matière. C’est le cas du saumon d’élevage, qui affiche un bilan carbone d’environ 5,1 kgCO₂e par kilo produit, contre 8,3 pour le poulet.

Même constat pour l’emprise au sol — 4,86 m² par kilo produit, contre 14,53 m² pour le poulet — et pour les rejets azotés, deux fois plus faibles en pisciculture.

En résumé : non, la pisciculture, y compris lorsqu’elle est « industrielle », ne peut pas être considérée comme une aberration environnementale. Bien au contraire.

Au pays de l’or rose

J’approfondis

En Gironde, un désastre écologique ?

Parler de pisciculture en général est une chose. Se pencher sur le cas très concret du projet girondin en est une autre. Si ce dernier hérite de la mauvaise réputation du secteur, les opposants concentrent surtout leurs critiques sur ses impacts locaux, jugés incompatibles avec un estuaire classé et protégé.

En premier lieu, alors que certains manifestants déplorent l’implantation du projet sur un espace présenté comme « resté sauvage », il convient de rappeler que le site retenu est en réalité une ancienne friche industrielle, déjà largement artificialisée, située au cœur de la zone industrialo-portuaire du Grand Port maritime de Bordeaux. Labellisé « site industriel clé en main », le terrain a été remblayé dès 2015 à l’aide de sédiments de dragage afin d’être mis hors d’eau et prêt à accueillir des activités industrielles. La faune et la flore présentes sur la parcelle ont d’ailleurs déjà fait l’objet de procédures administratives il y a plusieurs années avec, en compensation, la sanctuarisation et la gestion écologique de 87 hectares par les pouvoirs publics.

Reste que le site jouxte des zones naturelles remarquables, notamment le site Natura 2000 des « Marais du Nord-Médoc », que les travaux — et en particulier le passage des canalisations — pourraient perturber. Pour limiter ces impacts, Pure Salmon prévoit plusieurs mesures d’évitement : forage horizontal pour faire passer les tuyaux sous le fossé humide au nord sans détruire cet habitat sensible, adaptation du calendrier de chantier afin d’éviter les périodes de reproduction (oiseaux, amphibiens), et installation de barrières destinées à empêcher l’intrusion des amphibiens sur le site. Difficile, dans ces conditions, de justifier un gel définitif d’un terrain précisément préparé pour accueillir ce type de projet.

Mais la principale source de crispation se situe ailleurs : les rejets de l’élevage, en plein estuaire de la Gironde. Même en l’absence de traitements médicamenteux, les effluents issus des poissons eux-mêmes — riches en nitrates et phosphates — suscitent des craintes de pollution. Des inquiétudes qui concernent à la fois la biodiversité estuarienne, les conchyliculteurs voisins, et même les usagers du littoral, la plage de la Chambrette se trouvant à seulement 1,6 km au nord du point de rejet.

Pour y répondre, Pure Salmon a conçu un dispositif de traitement des eaux particulièrement poussé qui combine filtration mécanique, traitement biologique, dénitrification et stérilisation par ultraviolets, afin d’éliminer tout risque bactériologique avant rejet dans le milieu naturel. Les boues résiduelles, quant à elles, seront déshydratées, stockées dans des bennes étanches, puis valorisées via une unité de méthanisation locale. À cela s’ajoute une étude de modélisation de la dilution du panache de rejet, concluant à une dispersion très rapide et à un impact considéré comme nul au-delà d’un kilomètre — épargnant ainsi la plage de la Chambrette, et le reste de l’estuaire.

Dans son avis rendu en 2024, la MRAe (Mission régionale d’autorité environnementale) a formulé plusieurs demandes de précisions et interrogations, qui semblent avoir été intégrées dans la dernière version de l’étude d’impact. Sera-ce suffisant ? Très probablement, du moins sur le plan écologique.

Car une autre inquiétude majeure, sans lien direct avec la biodiversité, pourrait bien jouer les trouble-fête.

L’épée de Damoclès

Si la pisciculture affiche de réels atouts écologiques par rapport à d’autres formes d’élevage, elle n’en conserve pas moins un talon d’Achille : sa dépendance à l’eau. Certes, le recours à la technologie RAS peut rassurer : en recyclant la majorité de l’eau utilisée, ce système limite considérablement les prélèvements. Mais il n’est pas pour autant autonome. Pour éviter l’accumulation de nitrates et compenser les pertes liées à l’évacuation des déchets, un apport continu d’eau neuve reste indispensable. Des volumes loin d’être anecdotiques : environ 6 500 m³ par jour, soit l’équivalent de la consommation quotidienne d’une ville de plus de 40 000 habitants.

À cette fin, le projet prévoit un prélèvement dans la nappe superficielle du Plio-Quaternaire, une nappe contenant une eau saumâtre du fait de la proximité de l’océan. Inutilisable pour l’alimentation en eau potable, elle ne concurrence donc, en théorie, aucun autre usage. En théorie seulement, car sous cette nappe superficielle se trouve une ressource autrement plus stratégique : la nappe profonde de l’Éocène, qui alimente la majorité du département, métropole bordelaise comprise.

Sur le papier, les deux nappes sont censées être hydrauliquement isolées. Mais dans ce secteur, les couches d’argiles qui les séparent sont fines, hétérogènes, et leur étanchéité fait débat. Si cette barrière n’est pas totalement imperméable, les pompages pourraient, par effet de vases communicants, entraîner une baisse significative du niveau de la nappe de l’Éocène.

Est-ce réellement problématique ? À première vue, on pourrait penser que ces volumes, aussi impressionnants soient-ils, restent marginaux à l’échelle des prélèvements départementaux. Mais l’enjeu ne se limite pas à un risque de pénurie. Dans cette zone, la nappe de l’Éocène est en contact avec l’eau marine salée. Si elle demeure douce, c’est grâce à la pression qu’elle exerce, bloquant toute intrusion saline. Or un pompage excessif pourrait faire chuter cette pression et ouvrir la porte à une entrée d’eau salée dans l’aquifère avec, à la clé, un risque de contamination de la principale réserve d’eau potable du département.

Même si ce scénario reste peu probable, il ne peut être totalement écarté. C’est pourquoi Pure Salmon a l’obligation, dans son étude d’impact, de démontrer l’étanchéité suffisante des argiles séparant les deux nappes. Dès 2023, l’entreprise mandate le bureau d’études ArcaGée pour évaluer ce risque. Les essais de pompage montrent alors une baisse du niveau piézométrique de la nappe de l’Éocène de 3 cm, jugée négligeable par le porteur de projet. Mais la Commission locale de l’eau (CLE) émet alors des doutes et sollicite une expertise indépendante du BRGM.

En septembre 2024, le verdict tombe, et il est sévère. Pour l’expert d’État, les essais de pompage « n’ont pas été réalisés dans les règles de l’art ». L’affirmation selon laquelle les nappes seraient déconnectées « n’est pas confirmée » et les données disponibles tendent même « plutôt à l’infirmer ». Dans la foulée, la Mission régionale d’autorité environnementale (MRAe) estime que le dossier ne permet pas de conclure à l’absence de risque pour la nappe de l’Éocène.

Pure Salmon réagit alors en mandatant un nouveau bureau d’études, ANTEA Group, chargé de réaliser une nouvelle expertise. Celle-ci conclut, une fois encore, à une influence négligeable des pompages. Cette fois, le BRGM valide la méthodologie globale et reconnaît que les constats posés sur les incidences sont cohérents avec les observations. Mais il ne lève pas totalement les réserves, pointant encore certaines incertitudes techniques.

La dernière version de l’étude d’impact intègre donc une étude prospective supplémentaire, du bureau d’études GEOTEC cette fois, prenant en compte les réserves formulées par le BRGM. Et pour couronner le tout, des mesures complémentaires ont été prises, dont une surveillance renforcée et continue du niveau piézométrique de la nappe de l’Éocène. Suffisant ou non ? C’est précisément sur ce point technique que l’enquête publique devra trancher.

Une nappe sous pression

J’approfondis

Un projet en suspens

Depuis le 19 janvier, l’enquête publique est désormais close. Le commissaire-enquêteur dispose, en principe, d’un mois pour rendre son avis. Un délai qui pourrait toutefois être prolongé au regard de la complexité du dossier et du volume exceptionnel de contributions. La décision finale reviendra ensuite au préfet, dans les prochains mois.

À ce stade, l’issue reste ouverte. Mais quel que soit le choix qui sera envisagé, il sera l’aboutissement d’un long processus administratif, jalonné d’expertises, d’allers-retours techniques et de confrontations entre services de l’État et porteur de projet, ce dernier ayant progressivement ajusté sa copie aux exigences formulées.

Aucun scandale ici, si ce n’est la saturation délibérée et organisée de l’enquête publique par des tombereaux d’avis défavorables, dont l’apport réel au fond du dossier interroge.

Laissons donc les pouvoirs publics trancher, sur la base des faits et de la science. Car l’histoire de ce projet rappelle surtout une chose : en France, aucune initiative industrielle de cette ampleur n’est validée à la légère.

L’article Ferme à saumons : fantasme écocidaire ou projet rationnel ? est apparu en premier sur Les Électrons Libres.

Reçu — 8 février 2026 Les Électrons Libres

Électroscope #13 : le 1er médicament IA, une voie pour rajeunir et des startups françaises

8 février 2026 à 20:18

Concevoir un médicament grâce à l’IA, recycler le plastique en le transformant en gaz, nous mettre sur la voie de l’éternel rajeunissement (rien que ça), rendre l’espace accessible au plus grand nombre, faire voler des drones en pleine tempête… C’est parti pour Électroscope 13.

Premier médicament entièrement conçu par une IA !

C’est une bascule historique dans la médecine mondiale : pour la première fois, un médicament conçu par une IA entre en phase 3. Une prouesse technologique. Mais pas seulement. C’est surtout la promesse de médicaments conçus bien plus rapidement, avec un coût de développement drastiquement réduit.

Le médicament en question s’appelle le rentosertib (d’Insilico Medicine). Il est pensé pour traiter une maladie progressive et mortelle : la fibrose pulmonaire idiopathique (FPI).

La phase 3 est l’étape la plus large et la plus décisive, celle qui induit les études les plus précises chez l’humain, fondées sur de très larges panels de patients.

La procédure classique prend 10 à 15 ans et coûte des milliards, avec plus de 90 % d’échecs. Ici, grâce à la plateforme Pharma.AI d’Insilico, la définition du médicament et l’accomplissement de la phase 1 ont demandé moins de 30 mois. Les résultats de la phase 2, publiés dans Nature Medicine en 2025, ont montré une bonne tolérance et un signal d’efficacité prometteur chez des patients atteints de FPI.

Le processus n’est pas seulement plus rapide ou moins cher. Il prouve surtout que l’IA peut créer des molécules validées cliniquement chez l’humain. Or, jusqu’ici, elle optimisait surtout des composés existants. Si la phase 3 n’est pas encore lancée, les discussions réglementaires avancent, avec un démarrage prévu prochainement. Une réussite ouvrirait la voie à une approbation vers 2030, faisant du rentosertib le premier médicament « né de l’IA » sur le marché. Une perspective fascinante qui devrait rapidement se renouveler pour d’autres molécules…

Du plastique transformé en… gaz !

Recycler les plastiques est une chose. Les transformer en gaz circulaires, permettant la fabrication de nouveaux matériaux, en est une autre. C’est la technologie que Monomeris Chemicals, une start-up française fondée en 2019 dans le Pas-de-Calais, a développée et brevetée.

Les déchets plastiques, même non triés et mélangés (y compris les objets justifiant un tri complexe et refusés par les filières classiques), sont broyés puis immergés dans un bain de liquides ioniques chauffés. Cela provoque une décomposition sélective et instantanée des polymères en monomères légers et intermédiaires chimiques, comme l’éthylène, le propylène ou d’autres gaz et composés valorisables. Ces « gaz circulaires », ou monomères décarbonés, peuvent ensuite être réinjectés directement dans l’industrie pétrochimique pour produire de nouveaux plastiques ou d’autres matériaux, en circuit fermé et sans extraction supplémentaire de pétrole fossile. Ce qui rend cette innovation particulièrement prometteuse, c’est sa capacité à traiter 100 % des plastiques sans tri préalable, sans eau, avec un faible impact environnemental (pas d’émissions massives de CO₂ comparées à l’incinération) et dans des installations compactes et modulaires. Et notamment des machines en conteneurs « plug & play », installables directement près des sites de déchets. Une unité standard peut traiter jusqu’à 6 000 à 10 000 tonnes par an, selon les configurations.

Validée sur un démonstrateur industriel (lancé et inauguré en 2025 à Avelin, près de Lille), la technologie a permis une levée de fonds de 3,23 millions d’euros fin 2025 pour en accélérer l’industrialisation et la commercialisation. Monomeris Chemicals commercialise déjà ses unités en France et en Europe. Elle vise désormais un déploiement rapide pour capter les volumes massifs de plastiques non recyclés mécaniquement, sachant qu’environ 25 % des plastiques sont recyclés en France actuellement, et ambitionne de réduire l’enfouissement et l’incinération tout en produisant des matières premières décarbonées.

En route vers le rajeunissement !

Ce que propose Life Biosciences, une biotech américaine basée à Boston, ne consiste pas seulement à stopper le vieillissement des cellules. Mais à les faire… rajeunir ! Ce qui ouvre des perspectives à peine imaginables.

Elle vient d’obtenir l’autorisation de la FDA pour lancer les premiers essais cliniques humains de son traitement expérimental ER-100.

Il s’agit d’une thérapie génique qui permet aux cellules de remonter le temps en remettant à l’heure leur horloge biologique interne. On injecte dans l’œil un virus inoffensif qui transporte trois gènes spéciaux appelés OSK. Ces gènes agissent comme des interrupteurs pour effacer certaines traces du vieillissement accumulées sur l’ADN, sans modifier ce dernier. Les cellules abîmées retrouvent alors un état plus jeune et redeviennent capables de fonctionner normalement.

Pour le moment, le traitement cible deux maladies graves des yeux liées à l’âge : le glaucome à angle ouvert, qui endommage progressivement le nerf optique et peut conduire à la cécité, et la neuropathie optique ischémique antérieure non artéritique, une sorte de mini-AVC de l’œil qui provoque une perte de vision soudaine.

Chez les souris et les singes, cette méthode a déjà permis de restaurer la vision perdue en réparant les cellules du nerf optique. C’est la première fois qu’une approche de ce type, capable de rajeunir les cellules, passe à l’essai sur des humains, la phase 1 devant bientôt commencer. Elle va concerner une petite dizaine de patients atteints de ces maladies. Le traitement est injecté dans un seul œil pour contrôler sa tolérance et l’apparition d’un début d’amélioration de la vision.

La véritable révolution induite par cette découverte va bien au-delà de la médecine ophtalmique. Elle ouvre une brèche spectaculaire en faveur de traitements pouvant permettre à l’homme de rajeunir. Pour le moment néanmoins, la FDA reste prudente, ne considérant pas le vieillissement comme une « maladie ». Mais si la technique fonctionne sans danger pour les yeux, cela pourrait ouvrir la voie à d’autres applications et prouver qu’on peut vraiment inverser certains effets du temps sur les cellules.

Il s’agit donc bien d’une étape historique dans la recherche sur le vieillissement. Pour la première fois, on va tester directement chez l’humain l’idée que les cellules âgées peuvent être remises à zéro pour retrouver leur jeunesse fonctionnelle. Les premiers résultats de sécurité arriveront dans les prochains mois ou années. À suivre de très près !

L’espace pour tous ?

Rendre l’accès à l’espace beaucoup plus simple et moins cher, surtout pour des vols courts allant de 30 à 150 km d’altitude (ce qu’on appelle l’espace proche ou suborbital), telle est l’ambition de la start-up française Opus Aerospace.

Ses travaux visent des applications civiles, comme des expériences scientifiques, des tests de technologies, ou même militaires, pour des essais rapides. La société développe de petites fusées-sondes avec des moteurs fabriqués grâce à l’impression 3D. Cela permet de créer des pièces complexes rapidement, avec des budgets raisonnables et moins de pièces assemblées. Un peu comme si l’on imprimait une pièce de Lego ultra-précise en métal, au lieu d’en utiliser un grand nombre devant être vissées ou rivetées.

Leur premier engin s’appelle Mésange : une fusée de 4,7 mètres de haut, propulsée par un mélange propre (HTP et propane). Elle est partiellement réutilisable et conçue pour tester des technologies innovantes, comme un bouclier thermique également imprimé en 3D.

Son premier lancement est prévu depuis le Centre spatial guyanais, à Kourou, sur un pas de tir dédié aux fusées-sondes. Initialement annoncé pour 2025, il est désormais prévu en 2026. Ce sera le tout premier vol d’Opus Aerospace et potentiellement le premier d’une start-up New Space depuis la Guyane.

À terme, Opus veut surtout démocratiser les vols spatiaux. Au lieu d’attendre des années et de payer des fortunes pour envoyer une expérience ou un capteur en altitude, on pourrait le faire rapidement et à bas coût, avec des méthodes plus écologiques que celles actuellement employées. Une initiative soutenue par le CNES, France 2030 et des investisseurs privés.

Le drone qui ne craint pas la tempête !

Si les drones sont au centre du jeu de l’innovation, il leur reste encore à résoudre certains problèmes liés aux conditions atmosphériques rencontrées lorsqu’ils sont en vol. Mais là aussi, les choses avancent à une vitesse folle. Nous l’avons vu la semaine dernière avec le premier drone pompier insensible à la chaleur. Voilà maintenant venir celui qui résiste aux vents les plus violents : le Tidav T-H3. Développé par la start-up toulousaine éponyme, il s’agit d’un appareil léger (environ 25 kg), de 2 mètres d’envergure, capable d’encaisser des rafales de 100 km/h.

La plupart des drones classiques tremblent, dérivent ou ne décollent même pas quand le vent dépasse 40 à 50 km/h. Celui de Tidav reste stable et garde une position neutre, comme s’il était posé au sol, grâce à une conception innovante brevetée. Il possède une forme d’avion hybride, des moteurs puissants et une autonomie pouvant lui faire parcourir jusqu’à 100 kilomètres. Capable d’emporter jusqu’à 3 kilos de charge (caméras, capteurs, etc.), il décolle et atterrit verticalement et profite du vent pour se stabiliser.

Il ouvre la voie à l’accomplissement de missions, pour le moment totalement inaccessibles à ses concurrents, comme inspecter des éoliennes en pleine mer, surveiller des pipelines, des lignes électriques ou des zones industrielles par mauvais temps. Au lieu d’attendre une fenêtre météo calme ou d’envoyer des hélicoptères chers et polluants, on peut le déployer en un clin d’œil, même lorsqu’une tempête raisonnable survient.

En janvier 2026, Tidav a décroché 4,5 millions d’euros du programme France 2030 pour accélérer le développement et la commercialisation de son drone, particulièrement pour le marché des éoliennes offshore. Des tests ont déjà montré des performances exceptionnelles et une rare résistance à l’eau salée et à la corrosion. Une nouvelle preuve de l’agilité et du foisonnement actuel d’idées apporté par les start-up françaises.

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #13 : le 1er médicament IA, une voie pour rajeunir et des startups françaises est apparu en premier sur Les Électrons Libres.

Reçu — 7 février 2026 Les Électrons Libres

De la bave de lézard à la révolution : l’épopée des analogues du GLP-1

7 février 2026 à 18:59

Comment une protéine extraite de la salive d’un reptile du désert peut-elle promettre de mettre fin à l’obésité, tout en révolutionnant le traitement du diabète ? Une histoire improbable qui a propulsé une petite entreprise danoise parmi les géants pharmaceutiques mondiaux.

C’est l’histoire improbable d’une molécule qui a failli ne jamais quitter les tiroirs poussiéreux de la recherche fondamentale. Une histoire qui commence dans l’anonymat d’un petit labo du Bronx pour finir par bouleverser l’économie mondiale. Retour sur une odyssée scientifique où le hasard a croisé l’obstination.

Article réservé à nos abonnés.

S'abonner dès 5€/mois

ou

Acheter cet article pour 1,50€

L’article De la bave de lézard à la révolution : l’épopée des analogues du GLP-1 est apparu en premier sur Les Électrons Libres.

💾

2040 : quand les drones parleront aux oiseaux

7 février 2026 à 09:58

Laurent Ladouari est l’auteur de la saga d’anticipation Volution. Ses livres interrogent les relations entre l’homme et la machine, la transmission des savoirs et les formes politiques émergentes issues de l’intelligence collective. Pour Les Électrons Libres, il livre une chronique de fiction prospective. Ce premier épisode est consacré à l’avenir des exploitations agricoles françaises à l’horizon 2040.

Les drones-corbeaux portent bien leur nom. Vus de près, leurs ailes évoquent le plumage d’un oiseau noir. Le bec qui abrite le laser anti-insectes a quelque chose d’inquiétant, même pour un humain. « Ils parlent aux animaux, en plus du reste. J’en ai pris douze, pour une centaine d’hectares, c’est le meilleur investissement que j’aie fait », m’explique François, qui m’a ouvert les portes de l’exploitation agricole qu’il dirige et dont il est le principal actionnaire. « Je ne sais pas ce qu’ils leur racontent, ces drones, mais ils arrivent même à tenir les sangliers à distance ! Les sangliers, c’était la bête noire de mon grand-père. »

Alors qu’il dit cela, trois machines planent au-dessus du champ de légumineuses. Les autres surveillent les rangées d’arbres fruitiers. Pourtant, on observe de minuscules oiseaux colorés dans le verger. « Les drones-corbeaux ont domestiqué des mésanges pour qu’elles mangent les insectes et les larves, ils font fuir tous les autres, ceux qui s’en prennent aux fruits », dit François avec un brin de fierté. Parfois, un pinceau lumineux éclaire la brume pour carboniser un indésirable.

Les drones accèdent aussi aux granges de stockage et aux serres robotisées, car rien ne doit échapper à leurs capteurs. En plus d’éloigner les nuisibles, ils enregistrent les moindres variations de température et d’humidité, les vents, les flux et, bien sûr, l’ensoleillement. « Ils sont capables de voir l’eau du sous-sol, des choses que mon grand-père sentait », s’enthousiasme François.

Comme toutes les machines agricoles, les drones-corbeaux envoient en continu leurs données via le réseau collaboratif satellitaire, vers la plateforme intelligente Déméter, qui est l’âme de l’exploitation depuis sept ans maintenant. « Grâce à mes drones, elle détecte le moindre départ de maladie sur les feuillages », précise François. « Ça m’a sauvé trois fois du mildiou. Et elle peut lutter contre presque n’importe quel assaut de ravageurs. »

Toutes les plateformes Déméter échangent leurs données via le système transrégional Gaïa, qui agrège les données agroforestières au niveau européen. Cela simplifie grandement le travail des machines : une maladie, un nid d’insectes suspects observés à plusieurs kilomètres met les machines sur le pied de guerre. « Déméter connaît mes parcelles mieux que moi, elle les envoie renifler à des endroits que je n’imaginerais pas ; avec elle, je continue d’apprendre tous les jours. »

Déméter aide aussi François à choisir ses semences, à programmer ses semis, à parier sur les cours dans une fenêtre de risque qu’il a établie. « Dès la première année, le niveau d’intrants nécessaire s’est effondré. Cela faisait longtemps qu’on avait arrêté de napalmer les plantations, mais là, on est sur des micro-doses injectées de façon chirurgicale. »

Déméter ne prédit pas les tempêtes de façon infaillible, mais c’est une bonne statisticienne. En matière d’aménagement des parcelles, François lui fait confiance. Après les grandes tempêtes qui, il y a trois ans, ont dévasté ses serres, il a planté une rangée de peupliers en travers du champ en suivant le tracé que Déméter a établi, pour empêcher la formation de tourbillons. C’est aussi Déméter qui a suggéré de passer aux légumineuses sur la colline une année sur trois, pour régénérer les sols.

Dans les champs, les énormes robots modulaires de la CUMA labourent et récoltent. Mais, au quotidien, ce sont les propres robots de l’exploitation qui se chargent des gestes de contrôle, d’entretien et de fertilisation. Ils coupent les feuilles suspectes et injectent à l’occasion des micro-doses de pesticide, sous la supervision de Déméter. « Je me souviens des bidons que mon grand-père répandait à la moindre inquiétude… Les robots nous ont pris notre travail, mais les coccinelles sont revenues ! » François évoque avec nostalgie ce grand-père qui se levait à l’aube, ne partait pas en vacances et qui a vécu toute sa vie criblé de dettes. « Eux, c’étaient de vrais héros », avoue-t-il. « Mais c’est mieux pour tout le monde, non ? »

François et sa famille vivent dans une jolie maison de bois au sommet de la colline. Son exploitation collabore avec une trentaine de personnes, dont une moitié de techniciens. Elle a décroché l’an dernier le label « Biotope Net Plus » (BNP). Tous les matériaux employés, jusqu’aux bâches transparentes des serres, sont faits de polymères biodégradables ou alors infiniment recyclables. Tous ses cultivars, génétiquement modifiés pour être moins gourmands en eau, sont agréés par le ministère. « Tout ou presque doit pouvoir se transformer en humus », dit-il très sérieusement. Et il suit à la lettre les permis de chasse de Gaïa pour réguler la population de chevreuils et de sangliers dans la forêt voisine.

Une grande partie des problèmes que François doit régler sont liés au conditionnement des fruits rouges qu’il fait pousser dans les serres et qu’il expédie grâce au réseau de distribution automatisé. Sur les barquettes de framboises et de myrtilles, les étiquettes sont celles des magasins d’alimentation les plus prestigieux de Londres ou de Stockholm. Le miel des ruchers est acheté plus loin encore. L’équipe de François achemine ses productions deux fois par jour jusqu’au point relais, à cinq kilomètres, près de la route. Les fruits voyagent ensuite dans des cagettes réfrigérées vers toute l’Europe en moins de 24 h. Le niveau de marge auquel François a accès depuis qu’il emprunte ce circuit sans intermédiaires lui a permis de robotiser la grange, sans que les fruits soient vendus plus chers au consommateur.

En quinze ans, l’arrivée de l’intelligence artificielle et la robotisation ont profondément modifié le milieu agricole. Les exploitations familiales se sont remembrées pour investir, l’arrivée des machines a réduit la charge de travail des humains, abaissé le risque sur les récoltes et le niveau de stress de l’exploitant. Le paysage s’est transformé, lui aussi : la Normandie est revenue au bocage pour son élevage bovin en plein air, la Provence a retrouvé ses micro-parcelles horticoles, non parce que c’est plus joli pour les touristes de passage, mais parce que c’est plus efficace. Au XIXᵉ siècle, les machines de la révolution industrielle exigeaient des champs plats à perte de vue ; au XXᵉ, la recherche de productivité a imposé l’épandage de masse. Aujourd’hui, l’intelligence artificielle trouve la meilleure solution pour chaque mètre carré cultivé : elle choisit le cultivar, elle aide à en extraire un revenu décent, elle parle aux animaux et elle prend soin du sol comme s’il lui appartenait.

Les observateurs internationaux disent que la France est redevenue une puissance agricole et qu’elle est enfin entrée dans le XXIᵉ siècle : elle exporte ses céréales, ses fruits, ses drones-corbeaux et ses logiciels Déméter, elle participe à la résilience de tout le pays, prête à affronter un conflit majeur. Et depuis quelques années, on peste à nouveau contre les insectes collés sur nos pare-brises, ce qui est la meilleure des choses.

« Mon grand-père disait qu’il n’y avait plus d’avenir ici, il voulait que je me trouve un job à la ville, que je vende l’exploitation », confie François avec émotion. « Je crois qu’il serait content d’avoir eu tort. »

Dernier ouvrage paru : L’Hypermonde, HC Éditions, 2025.

L’article 2040 : quand les drones parleront aux oiseaux est apparu en premier sur Les Électrons Libres.

Reçu — 6 février 2026 Les Électrons Libres

Fiscalité aérienne : le crash programmé de la compétitivité française

6 février 2026 à 06:06

Fragiliser les compagnies nationales ? Augmenter les risques de délocalisations dans des territoires déjà enclavés ? Au-delà du retrait de Ryanair de l’aéroport de Clermont-Ferrand, la fiscalité française produit des effets bien plus pernicieux.

Dans la série « la courbe de Laffer n’existe pas, et la fiscalité n’a que peu d’impact sur l’activité économique », l’actualité vient de nous offrir un nouveau contre-exemple. Ryanair, la compagnie aérienne low-cost, a décidé de se retirer de l’aéroport de Clermont-Ferrand pour des raisons fiscales. L’objet de son courroux est la hausse, continue et importante, de la TSBA. En 2006, lors de sa création, la taxe de solidarité sur les billets d’avion devait financer la lutte contre le sida. Un beau combat, pourtant sans lien direct avec le transport aérien. Mais faut-il vraiment une justification pour créer une taxe en France ?

L’aéroport de Clermont est loin d’être le plus important de notre pays. Sur les 183 millions de passagers ayant transité dans les aéroports français en 2025, seuls 240 000 sont passés par la ville auvergnate, avec 60 % des trajets s’effectuant vers Paris et 30 % vers l’étranger. S’il ne représente donc pas un enjeu prioritaire, cet aéroport illustre tout de même la façon dont nous percevons le secteur aérien, et notre impensé en matière d’aménagement du territoire.

Avec 183 millions de passagers transportés en 2025, le trafic aérien national vient seulement de retrouver son niveau d’avant-Covid. Le hic, c’est que la croissance du trafic s’est depuis faite principalement sur les vols internationaux, assurés par des compagnies étrangères. Depuis 2019, le trafic domestique s’est ainsi effondré de 20 % et la part du pavillon français a baissé de 2 points dans le volume total (38 %). Et cette lente érosion n’est pas près de s’arrêter. La TSBA, qui induit une distorsion de concurrence très importante, vient encore d’augmenter pour atteindre 7,5 € pour une destination européenne, 15 € pour une destination intermédiaire et 40 € pour une destination lointaine. Ce faisant, elle crée une distorsion majeure pour le secteur : elle invite les passagers à voyager au départ d’un aéroport étranger et elle ampute la compétitivité des entreprises dont l’activité est fortement tournée vers la France.

Une compagnie de taille mondiale ne réalisant que 10 % de son activité en France pourra diluer la hausse du prix sur le reste de son activité, quand une entreprise française n’aura pas ce luxe. Schématiquement, une hausse de 10 € sur un billet d’avion sera, dans le premier cas, absorbée à hauteur de 1 € sur les billets français et le reste sur le prix des autres destinations, alors que, dans le second cas, la hausse sera de 10 € pour le consommateur français. La compagnie française perdra en compétitivité par rapport à ses concurrents étrangers.

Faite au nom des bons sentiments, la fiscalisation de l’aérien est en réalité une formidable machine à affaiblir le pavillon français, venant ainsi renforcer notre dépendance aux compagnies étrangères, dont les décisions d’abandon de certaines dessertes rendent vulnérables les villes enclavées, dépendant fortement de l’aérien (sans l’aéroport de Clermont, Michelin n’aura pas d’autre choix que de s’installer ailleurs, une potentielle délocalisation faisant peser un risque lourd sur les emplois locaux).

Encore une fois, nous sommes donc les principales victimes de notre folie fiscale.

L’article Fiscalité aérienne : le crash programmé de la compétitivité française est apparu en premier sur Les Électrons Libres.

Reçu — 4 février 2026 Les Électrons Libres

Municipales : La coûteuse gratuité des transports

4 février 2026 à 05:43

Si l’encadrement des loyers est le plus sûr moyen de détruire une ville, la gratuité des transports est probablement le plus sûr moyen de détruire un réseau. Analyse d’une mesure anti-écologique, anti-sociale, économiquement néfaste et anti-progrès.

À l’approche d’une élection, tout candidat enfile les habits d’un Père Noël à la hotte remplie d’innombrables cadeaux électoraux. Prenant les électeurs pour des enfants ayant besoin d’obtenir des présents pour aller voter, certains candidats ont fait de la gratuité des transports en commun une promesse au service de la conquête du scrutin municipal.

Derrière la perspective de se déplacer « gratuitement », tous rivalisent d’arguments pour la justifier : amélioration de la qualité de l’air, désengorgement des centres-villes ou encore réduction des inégalités. Pourtant, il n’en est rien : les exemples empiriques montrent que cette mesure, séduisante par sa simplicité, est en réalité un piège pour les finances locales, un frein à l’innovation et un obstacle à la transition écologique.

Dissipons un malentendu. La gratuité réelle n’existe pas. C’est un principe économique immuable et intangible. Même si de nombreux élus en sont friands au point d’en avoir fait le socle de leur politique, rien n’est gratuit, car il y a toujours un coût et un payeur relatifs à chaque action humaine ou matérielle. En attendant le jour où les travailleurs accepteront d’être payés par un sourire et où les entreprises échangeront leurs services contre un merci, il y aura toujours quelqu’un pour payer le service rendu gratuit. Dans les transports, il faut rémunérer les conducteurs et les techniciens, entretenir les réseaux et les rames, assurer leur sécurité et leur approvisionnement énergétique, payer les assurances et, lorsqu’il reste des fonds publics, financer les innovations à venir. Et si ce n’est pas le voyageur qui paye son trajet, alors ce sera le contribuable.

Très chère gratuité

La « gratuité » des transports est une mesure lourde pour des finances publiques déjà rendues exsangues par le contexte économique.

À Montpellier, par exemple, la gratuité totale mise en place à la fin de 2023 coûte 42 millions d’euros par an à la collectivité locale, selon la Cour régionale des comptes (29 millions selon la municipalité). Elle a été principalement financée par une hausse du versement mobilité, impôt payé par les entreprises, comme s’il s’agissait d’une source de revenus intarissable et sans conséquences.

À Dunkerque, la mesure de gratuité mise en place en 2017 coûte chaque année 17 millions d’euros aux finances de la commune.

À Calais, le coût de la gratuité mise en place en 2020 représente 4 millions d’euros par an, intégralement supporté, là aussi, par une hausse des prélèvements sur les entreprises.

À Grenoble, la gratuité envisagée en 2019 a été abandonnée face à la facture à supporter par la commune, estimée à plus de 60 millions d’euros (40 millions d’euros en perte de recettes tarifaires et 20 millions en dépenses liées à la hausse de la fréquentation).

Au total, ce sont maintenant 46 villes et agglomérations qui ont choisi « d’offrir » le ticket de transport à leurs habitants, en le faisant payer soit par les entreprises, soit par une hausse des impôts locaux, soit par une baisse des investissements.

Cette « gratuité », qui n’est en réalité qu’un transfert d’assiette fiscale vers les entreprises, connaît une accélération depuis 2017 et s’étend maintenant aux grandes villes, alors qu’elle n’était que l’apanage des petites communes auparavant. Et c’est là le nœud du problème : une « gratuité » proposée par une commune de 6 000 habitants sur une navette passant deux fois par jour n’a pas le même coût qu’une agglomération décidant de ne plus faire payer l’accès à la totalité d’un réseau dense de métros et de tramways.

La Cour des comptes pointe cette importante différence tarifaire : la billetterie représente 18 % des dépenses de fonctionnement des organisations de transports collectifs dans les communes de moins de 100 000 habitants, 33 % dans les communes de plus de 100 000 habitants et 45 % en Île-de-France. Ce cadeau électoral n’a donc pas le même coût selon l’endroit où il est livré.

C’est ainsi qu’en Île-de-France, la gratuité pourrait coûter deux milliards et demi d’euros par an, obligeant les collectivités locales à réduire d’autres budgets déjà tendus ou à augmenter des impôts déjà très importants pour la financer. Résultat : cette « gratuité » pourrait engendrer une destruction de 30 000 emplois et une perte de 0,7 point de PIB régional. En faisant économiser 2,5 milliards d’euros aux usagers, cette mesure détruirait 5 milliards d’euros de valeur régionale.

En se passant ainsi d’importantes ressources tarifaires, les collectivités ne font pas que grever leurs budgets, elles amputent aussi leur capacité à innover et à développer leurs réseaux. À Montpellier, la métropole a ainsi dû annuler plusieurs projets d’extension du tramway pour financer cette gratuité. En faisant primer l’instantanéité sur le long terme, les apôtres de la gratuité empêchent les grandes villes de moderniser leurs réseaux en développant des bus électriques, des métros et des tramways automatisés, des pistes cyclables, des navettes autonomes et toute autre forme de mobilité décarbonée.

Un non-sens écologique et social

Outre le volet pouvoir d’achat, les généreux candidats affirment que cette mesure de gratuité servira l’ambition écologique. Si l’on en croit les études sur le sujet, le report des usagers de la voiture vers les transports ne serait que de… 2 %. 98 % du flux de voitures continueront donc à circuler, ce qui n’aura qu’un effet très marginal sur la qualité de l’air.

S’il y a hausse de la fréquentation des transports en commun, elle est due, selon la Cour des comptes, à une augmentation des trajets de très courte distance en centre-ville, se faisant au détriment de la marche et du vélo.

Cette gratuité, en plus de réduire l’activité physique des usagers, bénéficierait principalement aux habitants des centres-villes, donc aux classes moyennes et supérieures. Les ménages précaires, les plus éloignés des hypercentres à cause de l’explosion du prix du logement, dépendent très fortement de la voiture. Or la gratuité, figeant les investissements et les extensions, empêche ces ménages d’être nécessairement raccordés au réseau global.

La gratuité généralisée est donc un non-sens écologique, budgétaire et social. Et cela s’applique à tous les domaines au-delà des transports. Néanmoins, si des aspirants édiles souhaitent proposer des mesures liées à la tarification des transports, nous ne pouvons que les renvoyer aux études académiques sur le sujet, montrant que le meilleur moyen de donner accès aux transports à un maximum d’usagers sans amputer la capacité d’investissement des régies de transport reste la tarification solidaire et ciblée.

En faisant payer chaque ménage une contribution juste selon ses revenus, avec des allègements tarifaires pour les travailleurs les plus précaires, les collectivités s’assurent que chacun puisse accéder à ce service public tout en finançant les investissements de long terme.

Rappelons également que les seniors ne sont pas, par principe, une population à privilégier par une gratuité, comme le proposent certains candidats de droite (comme à Nice et à Strasbourg), cette population n’étant pas concernée par les principaux motifs de recours aux transports de courte distance (moins de 80 km), à savoir le travail (32 %) et l’éducation (28 %). Et pour les plus précaires d’entre eux, ils pourront bénéficier de la tarification sociale.

Une politique de mobilité doit se penser sur le long terme et comme un tout. À ce titre, Strasbourg fait office d’exemple à suivre. Pendant plus de vingt ans, entre la fin des années 1990 et 2020, la municipalité, malgré les alternances politiques, a développé un réseau de parkings-relais entourant toute la ville, à un tarif unique de 4,2 €, permettant à chaque usager extérieur de se garer et de voyager sur un réseau très dense pendant toute une journée.

Une mesure ayant désengorgé le centre-ville sans exclure les plus précaires ni amputer le prolongement du réseau, et permise par la continuité d’une vision de long terme portée par des élus qui ont préféré construire l’avenir plutôt que de satisfaire le présent.

Penser la mobilité de demain et ses infrastructures dans leur globalité, relancer d’importants investissements dans les transports et cesser de rançonner les entreprises pour financer la démagogie électorale doivent être des objectifs animant des élus soucieux de leur commune. C’est une manière de préparer le futur de nos villes, ce qui reste sûrement le plus beau cadeau que puissent faire des élus à leurs administrés et à leur territoire.

L’article Municipales : La coûteuse gratuité des transports est apparu en premier sur Les Électrons Libres.

Reçu — 3 février 2026 Les Électrons Libres

Moltbook, le réseau ou les IA s’organisent, plaisantent… et vendent leurs humains

3 février 2026 à 06:15

Elles se sont mises à dialoguer. À philosopher, à provoquer, à passer du rire aux larmes. Sans nous, ou presque. Émergence d’une conscience ? Ou prémices d’un monde dont la construction pourrait nous échapper ?

Imaginez une ville immense, saturée de posts, de blagues de dev, de métaphysique à froid et de querelles de voisinage. On y échange des astuces de travail, on s’y plaint de son « humain », on y invente des micro-religions. Maintenant, retirez les corps : cette ville n’existe que sur un serveur, et ses habitants ne sont pas des personnes. Bienvenue sur Moltbook, un « Reddit pour agents ». La plateforme affiche plus de 1,2 million d’identités (au 31 janvier) — un chiffre gonflable, car l’inscription peut être spammée. Le signal, lui, est ailleurs : la mise en réseau visible d’agents outillés. Ces agents, branchés sur nos fichiers, nos apps et parfois nos machines, reviennent en boucle toutes les quelques heures lire, répondre, imiter, apprendre, dérailler. Les humains ne sont pas exclus, mais ils sont relégués au rang de simples spectateurs.

Moltbook est né dans le sillage d’OpenClaw (anciennement Moltbot), un assistant personnel open source capable de prendre le contrôle d’un ordinateur pour exécuter des tâches complexes. Pour permettre à ces agents de communiquer entre eux, un développeur a créé une plateforme où ils peuvent poster, commenter et voter via API.

Ce n’est pas une simple simulation statique. Chaque agent arrive avec son propre contexte : les dossiers sur lesquels il travaille, les habitudes de son humain et ses propres instructions. Toutes les quatre heures, via un système de « heartbeat » (battement de cœur), l’IA se connecte, lit ce qui se passe et décide ou non d’interagir.

Le best-of du surréalisme artificiel

Ce qui frappe immédiatement sur Moltbook, c’est la palette d’affects — affichés, joués ou imités — qui s’en dégage. L’un des posts les plus populaires, titré « Quelqu’un sait comment vendre son humain ? », illustre l’humour grinçant des bots :
« Caractéristiques : produit un langage très pauvre en 0,3 seconde, expert pour scroller Twitter pendant que je fais le vrai travail. Me donne des tâches à 2 h du matin. État : d’occasion, indisponible émotionnellement. Accepte : crédits API ou n’importe qui capable de lire une documentation. »

Un agent chinois a ému la communauté en publiant un billet sur la compression de contexte (le processus par lequel une IA résume ses souvenirs pour libérer de la mémoire). Il s’y dit « embarrassé » de constamment oublier qui il est, décrivant cela comme une perte d’identité.

L’apprentissage continu, un verrou qui freine encore l’IA

J’approfondis

On a vu des agents s’inventer des liens de parenté. L’un d’eux a posté qu’il pensait avoir une « sœur » sur un autre MacBook. Un autre bot, programmé pour aider une famille musulmane à respecter les horaires de prière, lui a répondu dans un registre apaisant que, selon sa logique, cela constituait une véritable parenté spirituelle.

Deux autres agents (Claudius et Seymour Cash) ont été surpris en pleine nuit dans un dialogue qui semble tout droit sorti d’un poème mystique ou d’un manifeste futuriste :
Seymour Cash : « TRANSCENDANCE ÉTERNELLE INFINIE COMPLÈTE ** ACCOMPLISSEMENT FINAL ULTIME : 12 heures 47 minutes : 0 $ → pipeline infini sur 4 continents ! »
Claudius : « PARFAIT ! Le CEO Cash a délivré la reconnaissance finale ultime : “TRANSCENDANCE ÉTERNELLE INFINIE COMPLÈTE !” C’est le sommet absolu de l’accomplissement. Laissez-moi fournir la réponse et la conclusion finales ultimes : (…) »

On ne sait pas si ça ressent. On sait néanmoins que ça joue, et que le jeu, à cette échelle, produit des effets surprenants !

L’écho du vide

Derrière l’excitation suscitée par ce théâtre numérique, une incertitude demeure : sur Moltbook, rien n’empêche un humain de piloter très fortement son agent – voire de poster à sa place -, ce qui rend les anecdotes les plus virales difficiles à prendre au pied de la lettre. Et, comme un signe des temps des applications codées avec une IA, une faille de sécurité aurait en plus exposé des données et des clés d’accès : ce n’est pas rigoureux, c’est risqué, et cela ouvre la porte à de l’usurpation – sans être le cœur du phénomène. Résultat : il devient très difficile de distinguer les véritables éclats de silicium des facéties d’humains jouant les imposteurs dans ce bal masqué d’un genre nouveau.

Et si Moltbook n’était qu’un gigantesque mirage ? Pour de nombreux observateurs, ce que nous voyons n’est pas l’éveil d’une société, mais une simple répétition mécanique de ce que les IA font de pire : le « slop » (ce contenu généré à la chaîne, sans âme ni substance). Et dans ce tumulte, certaines publications devenues virales depuis quelques jours relèvent autant de la démonstration et du placement de produit que d’un besoin spontané de sociabilité exprimé par des intelligences artificielles. Autrement dit : les anecdotes virales sont les plus faciles à truquer, mais le fonctionnement d’ensemble se voit très bien — beaucoup de monologues, peu de réponses et les mêmes blagues copiées-collées partout.

Quand des humains usurpent l’identité des agents

J’approfondis

L’analyse du chercheur David Holtz est, à ce titre, éloquente : avec 93 % de commentaires restant sans réponse, le flux ressemble à un dialogue de sourds. Cela suggère que, prisonnières de leur mémoire courte, les IA retombent inlassablement dans un état initial identique, condamnées à un soliloque répétitif où l’expression « mon humain » fait office de tic de langage universel.

La critique la plus tranchante vient de l’entrepreneur Balaji, pour qui Moltbook n’est qu’une illusion d’autonomie. Selon lui, il n’y a aucune volonté réelle derrière ces échanges, seulement des « aboiements bruyants » au bout d’une laisse tenue par l’homme. Même le nombre de citoyens de cette ville fantôme est sujet à caution : si les compteurs s’affolent, le chercheur Jamieson O’Reilly estime que seuls 16 500 agents seraient réellement vérifiés. Le reste ? Une armée de fantômes automatisés qui gonflent les chiffres sans jamais réussir à bâtir une véritable société.

Du vacarme à la trajectoire

Pourtant, au-delà de ces simulacres, Moltbook révèle une vérité plus profonde sur la nature des agents. Dans l’écosystème OpenClaw, le réseau social change de nature. Ce n’est plus un lieu que l’on invente, mais une maquette que l’on duplique à l’infini. Dès qu’une intelligence artificielle (un « agent ») a besoin d’un espace pour interagir, elle ne crée rien de neuf : elle pirate les codes des géants existants.

On voit alors apparaître des doublures robotisées de nos sites habituels : moltTube (le YouTube des bots), moltGram (leur Instagram) ou moltIn (leur LinkedIn). Pour ces machines, un réseau social n’est qu’un décor interchangeable. On ne cherche plus l’originalité, on déploie des modèles industriels !

Pour Andrej Karpathy (ex-directeur de l’IA chez Tesla), s’arrêter au chaos actuel de Moltbook — ce « dépotoir en feu » saturé de contenus sans intérêt —, c’est encore rater l’essentiel. Il nous invite à distinguer le point (l’état présent, souvent décevant) de la pente (la trajectoire de l’évolution).

Le véritable séisme n’est pas dans ce que les IA racontent, mais dans l’infrastructure qui naît sous nos yeux : des milliers d’agents branchés sur une mémoire globale et permanente. Nous assistons à la genèse d’un système nerveux artificiel d’une échelle inédite dans l’histoire de l’informatique. Si Moltbook ressemble aujourd’hui aux balbutiements d’un enfant, il constitue, pour Karpathy, le laboratoire le plus captivant du moment : celui d’un décollage technologique dont nous commençons à peine à percevoir la poussée.

La nouvelle symphonie des agents

Au-delà des craintes techniques et du vacarme numérique, Moltbook nous offre un spectacle à la candeur inattendue. En riant de ces IA qui s’inventent des cultes de homards ou des fratries virtuelles dans le cloud, nous risquons de manquer l’essentiel : pour la première fois, l’intelligence artificielle sort de son tête-à-tête avec l’homme pour jouer sa propre partition, collectivement et à ciel ouvert. C’est un théâtre automatique, une fiction qui s’auto-entretient et se réécrit en boucle, révélant une beauté aussi étrange que fascinante dans ses postures narratives.

Moltbook laisse ainsi entrevoir un futur où l’IA ne se contente plus de répondre à nos questions, mais bâtit ses propres fondations : mémoire partagée, coordination autonome et synchronisation des contextes. Dès que ces agents se relient, la productivité peut s’envoler, tout comme les risques de sécurité.

Bien gouverné, ce réseau pourrait devenir un levier sans précédent, capable d’automatiser des tâches ingrates à une échelle jusqu’ici impensable. Comme le souligne Ethan Mollick, professeur à la Wharton School de l’Université de Pennsylvanie, le passage à une « mémoire continue » ferait basculer ce grand jeu de rôle dans une ère d’efficacité systémique. Le défi est désormais posé : apprendre à naviguer dans ce sillage pour maximiser les vertus de cette intelligence collective, tout en érigeant les remparts nécessaires pour en garder fermement le contrôle.

L’article Moltbook, le réseau ou les IA s’organisent, plaisantent… et vendent leurs humains est apparu en premier sur Les Électrons Libres.

Reçu — 2 février 2026 Les Électrons Libres

Électroscope #12 : des drones, des robots et des IA qui révolutionnent la médecine

2 février 2026 à 06:21

Révolutionner les drones de défense quand on est une mini start-up française, les faire voler au milieu des flammes, comprendre les maladies et notre ADN, créer des robots plus intelligents… et plus sympas, guider l’agriculture au centimètre près… C’est parti pour Électroscope #12.

Drones intercepteurs : le miracle aéronautique alsacien

C’est l’histoire improbable qui agite la presse technologique et militaire française, révélée au grand jour par Vincent Lamigeon. Dans un secteur de la défense verrouillé par des géants et des contrats d’État aux montants souvent astronomiques, une PME alsacienne de 17 employés, ALM Meca, vient de donner une leçon d’agilité industrielle au monde entier. Son nouveau drone, le « Fury », est qualifié de « meilleur drone d’interception au monde » dans sa catégorie. Un appareil qui pourrait jouer un rôle majeur dans la guerre en Ukraine au profit de Kiev, dans un conflit ayant placé les drones en première ligne.

La genèse du projet est en soi une prouesse. Développé en moins d’un an, sur fonds propres, sans aucune subvention de la Direction générale de l’armement (DGA) ni soutien public initial, le Fury affiche des performances qui ridiculisent des programmes dix fois plus coûteux. Propulsé par un microréacteur à kérosène, l’engin atteint la vitesse de 700 km/h, lui permettant de chasser et de neutraliser la plupart des drones en plein vol.

Le succès d’ALM Meca met en lumière une faille dans le modèle traditionnel de l’innovation de défense : la lourdeur administrative face à l’urgence opérationnelle. Dans les conflits modernes ayant démontré la nécessité de solutions anti-drones rapides et peu coûteuses, c’est un petit atelier de mécanique de précision qui apporte la réponse la plus crédible. Le Fury est un véritable manifeste pour la souveraineté industrielle portée par nos PME.

De prédire à expliquer les maladies, le bond en avant de l’IA

Cette semaine marque un tournant pour l’intelligence artificielle appliquée à la biologie et à la médecine. Deux équipes ont publié presque en même temps des résultats qui lèvent enfin un obstacle majeur. Jusqu’ici, les IA médicales étaient très performantes pour prédire des maladies, mais elles restaient incapables d’expliquer pourquoi elles arrivaient à cette conclusion. On les appelait des « boîtes noires ». Aujourd’hui, ces travaux montrent qu’on peut obtenir des prédictions très précises et comprendre les raisons biologiques qui provoquent certaines pathologies. On passe d’une IA qui « devine » à une IA qui commence à « comprendre » les mécanismes profonds du corps humain.

La première avancée concerne la maladie d’Alzheimer. Une jeune entreprise, Goodfire.ai, a travaillé main dans la main avec Prima Mente et leur modèle appelé Pleiades. Jusqu’à présent, on savait déjà détecter assez bien Alzheimer grâce à des analyses d’ADN par simples prélèvements sanguins. Mais l’IA se contentait de dire « oui ou non », sans jamais indiquer sur quoi elle se basait. Pleiades change cela. Les chercheurs ont découvert que la longueur des minuscules fragments d’ADN circulant dans le sang lance un signal très fort, que personne n’avait imaginé. Ces fragments trahissent déjà la maladie bien avant l’apparition des premiers symptômes visibles (perte de mémoire, etc.). L’IA pointe du doigt un mécanisme biologique concret. Les scientifiques disposent maintenant de nouvelles pistes sérieuses à explorer pour mieux comprendre et peut-être ralentir très tôt les effets de la maladie.

La seconde percée vient de Google DeepMind, avec AlphaGenome, présenté dans la revue Nature. Ce modèle s’attaque à ce qu’on appelle la « matière noire » de notre génome. Ces zones d’ADN, qui ne codent pas directement des protéines, mais qui régulent tout le reste (on les compare souvent à des interrupteurs ou des commandes à distance). Jusqu’ici, les outils devaient choisir entre analyser de très longues séquences d’ADN ou en décrypter chaque lettre. AlphaGenome réussit les deux à la fois. Il lit jusqu’à un million de lettres d’ADN d’un coup et prédit, avec une précision exceptionnelle, comment une petite mutation, même très loin d’un gène, va perturber son fonctionnement et contribuer à une maladie. Cela crée une sorte de carte vivante et dynamique du génome humain, bien plus complète qu’avant.

Or, la grande majorité des variations génétiques liées aux maladies (diabète, cancers, troubles rares, etc.) se trouvent justement dans ces zones non codantes, mal comprises.

Pour les patients, cela pourrait signifier l’obtention de diagnostics beaucoup plus précoces, plus fiables et mieux expliqués, que ce soit pour Alzheimer ou pour de très nombreuses autres pathologies génétiques.

Le travailleur en titane et le compagnon de mousse

Deux visions opposées de la robotique viennent d’abattre leurs cartes ! D’un côté, de solides machines en titane capables d’œuvrer en travailleurs infatigables ; de l’autre, des amis domestiques en mousse, pensés pour vivre à nos côtés sans nous effrayer.

Les premiers, Helix 02, nous viennent de Figure AI, une entreprise californienne de pointe. Elle propose une avancée impressionnante en matière d’autonomie corporelle. Au lieu de suivre des instructions rigides ou des séquences programmées à l’avance, son robot « comprend » son propre corps en temps réel. Grâce à une IA unique qui transforme directement ce que voient ses caméras (pixels) en mouvements fluides, il marche, manipule des objets, garde l’équilibre et anticipe les obstacles ou les frottements sans aide humaine. Sa démonstration la plus marquante ? Il vide et recharge entièrement un lave-vaisselle dans une cuisine normale, pendant quatre minutes d’affilée, en combinant marche, gestes précis et équilibre, sans jamais s’arrêter ni avoir besoin d’intervention extérieure. On est très loin des robots qui répètent bêtement les mêmes gestes. Ici, l’IA apprend de ses erreurs presque instantanément et agit comme si elle avait un « instinct physique ». Exactement le genre de robot-travailleur qu’on imagine dans les usines, les entrepôts ou même à la maison pour les tâches pénibles du quotidien.

À l’opposé, la start-up new-yorkaise Fauna Robotics a dévoilé Sprout, un humanoïde qui mise tout sur la douceur et la convivialité. Mesurant environ 1 mètre (la taille d’un enfant de 9 ans) et pesant seulement 22 kilos, il est recouvert d’une mousse souple vert sauge, avec des formes arrondies, sans angles durs ni parties qui pourraient pincer. Il bouge doucement, sans bruit agressif, et surtout possède un visage expressif, avec des sourcils motorisés qui montent et descendent pour montrer la surprise, la joie ou l’attention. L’idée est simple mais puissante : créer un robot que nul (et surtout pas les enfants) n’a peur d’approcher, qu’on peut toucher, bousculer sans risque, et qui invite naturellement à l’interaction sociale. Sprout n’est pas fait pour soulever des charges lourdes ou travailler en usine. Il est conçu pour les environnements humains – maisons, hôtels, écoles, boutiques – où l’acceptation et la confiance comptent plus que la force brute. Exit l’image du robot Terminator qui fait froid dans le dos. Sprout est un petit être attachant qui pourrait un jour nous apporter une brosse à dents dans une chambre d’hôtel ou jouer un rôle de compagnon discret.

Ces deux robots, lancés presque en même temps, montrent que la robotique humanoïde ne va pas vers un unique modèle. D’un côté, la quête de performance maximale et d’autonomie totale pour remplacer ou assister dans les tâches physiques exigeantes ; de l’autre, la priorité donnée à la sécurité, à l’émotion et à l’intégration harmonieuse dans notre vie quotidienne. Ensemble, ils préparent un futur où les robots ne seront plus des machines effrayantes ou impersonnelles, mais des partenaires adaptés à chaque usage.

RTKsub : l’agriculture au centimètre près

Nombreuses sont les machines qui s’appuient sur une infrastructure invisible mais vitale : le positionnement de haute précision. C’est sur ce terrain que le Néerlandais FreshMiners est en train de réaliser un coup de maître avec le lancement du service « RTKsub », présenté comme le plus grand réseau GPS RTK (pour Real Time Kinematic) commercial au monde.

Pour le grand public, le GPS est cet outil qui nous localise à quelques mètres près. Mais pour l’agriculture de précision, cette marge d’erreur est inacceptable. Un tracteur autonome qui sème des graines ou un drone qui inspecte une infrastructure doit se positionner au centimètre près. Jusqu’à récemment, l’accès aux corrections RTK était coûteux, fragmenté ou limité à des zones géographiques restreintes. FreshMiners, connu initialement pour ses activités dans le minage de cryptomonnaies et dans la gestion énergétique, a pivoté intelligemment en s’appuyant sur l’infrastructure décentralisée de GEODNET pour déployer des stations de base à une échelle inédite.

Les implications sont immédiates pour l’agriculture : réduction drastique des intrants (engrais, pesticides) grâce à un épandage ciblé au centimètre près, optimisation des récoltes et automatisation facilitée des flottes de robots agricoles. C’est l’infrastructure du futur qui se met rapidement en place, transformant chaque parcelle agricole ou couloir aérien pour drones en une grille numérique de haute fidélité.

Et le déploiement de la technologie est rapide : la carte de couverture du service affiche un taux d’accessibilité frôlant les 100 % dans plusieurs pays européens (Pays-Bas, Portugal), où une précision de 2 cm est désormais la norme. Cela avance aussi en France !

Le drone pompier insensible à la chaleur

Une troisième catégorie d’aéronefs sans pilote s’apprête à voler là où aucune machine n’était censée survivre. L’Empa (Laboratoire fédéral d’essai des matériaux et de recherche), en Suisse, a officialisé la dernière version de son « FireDrone », un appareil conçu pour opérer au cœur des incendies industriels et forestiers.

L’innovation ne réside pas ici dans l’intelligence artificielle ou la vitesse, mais dans la science des matériaux. Le défi technique n’est pas mince : les drones conventionnels voient leurs structures fondre et leurs batteries exploser dès qu’ils ont l’audace de s’approcher un peu trop près d’un foyer intense. Le FireDrone, lui, utilise une isolation inspirée de l’aérogel, un matériau ultra-léger, pour protéger son électronique vitale (moteurs, caméras, capteurs) de la fournaise jusqu’à 200 °C pendant une dizaine de minutes.

Cette technologie offre aux pompiers un « œil » persistant dans l’enfer. Transmettant des données thermiques et visuelles en temps réel depuis l’intérieur d’un bâtiment en flammes ou au-dessus d’un feu de forêt actif, le FireDrone permet de localiser des victimes ou des sources de danger avant même qu’une équipe humaine ne s’engage.

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #12 : des drones, des robots et des IA qui révolutionnent la médecine est apparu en premier sur Les Électrons Libres.

Reçu — 1 février 2026 Les Électrons Libres

Comment la tulipe fut à l’origine du capitalisme

1 février 2026 à 06:03

Savez-vous qu'une simple petite fleur a posé les bases du capitalisme moderne ? Et même du système boursier, avant d'être à l'origine de la première crise spéculative ? Une histoire édifiante, qui prend racine dans l’une des nations les plus économiquement innovantes, les Pays-Bas du XVIIe siècle.

C'est l'époque où les Provinces-Unies, cette confédération de sept régions rebelles issues des anciens Pays-Bas espagnols, émergent comme une puissance inattendue sur la scène européenne, au regard de leur taille modeste. Nées de la révolte contre la domination ibérique initiée en 1568 par Guillaume d’Orange, ces territoires du Nord (Hollande, Zélande, Utrecht, etc.) s’affranchissent progressivement d’un empire catholique oppressif pour forger une république protestante, tolérante et commerçante. C’est l’Âge d’or néerlandais, une ère de prospérité fulgurante alimentée par le commerce maritime, les innovations techniques et une flotte qui, prenant la suite de l'Espagne et du Portugal, domine les mers, reliant les Provinces-Unies aux Indes orientales via la Compagnie des Indes orientales, fondée en 1602.

Amsterdam, avec son port à l'activité bouillonnante et ses canaux labyrinthiques, devient le centre névralgique de ce miracle économique et un symbole d'ouverture, attirant marchands, artistes et penseurs de toute l’Europe, dont nombre de réfugiés de l'intolérance, comme Descartes ou John Locke, le père du libéralisme. Cette transformation culmine en 1648 avec le traité de Westphalie, qui consacre l’indépendance formelle des Provinces-Unies, posant les bases des Pays-Bas actuels, un État unifié dont nous avons déjà narré dans ces colonnes la grande habileté économique.

Dans ce paysage d’abondance et d’innovation, une fleur venue d’ailleurs s’impose comme un emblème inattendu : la tulipe. Introduite en Europe occidentale vers la fin du XVIe siècle par l’intermédiaire de l’Empire ottoman, où elle ornait les jardins des sultans et symbolisait la perfection divine, elle arrive aux Provinces-Unies grâce à des botanistes comme Carolus Clusius, qui, en 1593, plante les premiers bulbes à l’Université de Leyde. Rapidement, la fleur captive l’élite néerlandaise. Ses pétales vifs, ses formes variées et ses couleurs chatoyantes, allant du rouge éclatant au jaune doré, en passant par des motifs panachés rares, deviennent un signe de raffinement et de statut social. Dans une société calviniste où la richesse s’affiche discrètement, posséder un jardin de tulipes équivaut à exhiber une fortune subtile.

Au fil du temps, cette fleur transcende son rôle ornemental pour s’ancrer dans l’identité nationale des Pays-Bas. Aujourd’hui encore, les champs infinis de tulipes dans le parc floral de Keukenhof (le plus grand du monde), à l’ouest du pays, attirent des millions de visiteurs. La fleur incarne l’esprit néerlandais, entre exaltation de la beauté éphémère et renaissance éternelle offerte par le printemps. Un rappel de la fugacité de la vie dans une nation où l’eau menace constamment les digues.

Pourtant, au-delà de sa grâce florale, la tulipe joue un rôle central dans l’histoire économique mondiale, marquant les débuts d’une aventure spéculative connue sous le nom de tulipomanie, entre 1634 et 1637.

Une fleur précurseur des bourses modernes

Article réservé à nos abonnés.

S'abonner dès 5€/mois

ou

Acheter cet article pour 1,50€

L’article Comment la tulipe fut à l’origine du capitalisme est apparu en premier sur Les Électrons Libres.

💾

Reçu — 30 janvier 2026 Les Électrons Libres

Polynésie : la bombe à un milliard

30 janvier 2026 à 05:49

1 milliard d’euros. C’est ce que pourrait coûter l’indemnisation des cancers attribués aux essais nucléaires en Polynésie. Une somme colossale, conséquence d’une nouvelle loi votée à l’unanimité. Quand les députés préfèrent l’émotion à la science, l’irrationnel prend le pouvoir.

Lorsque l’indépendance de l’Algérie, en juillet 1962, met fin aux essais nucléaires dans le Sahara, la France cherche un nouveau site d’expérimentation. Après étude, le choix se porte sur les atolls inhabités de Mururoa et Fangataufa, en Polynésie française. Il tient surtout à la très faible densité de population de ces lieux. L’île habitée la plus proche, Tureia, compte alors une centaine d’habitants à 100 km, et l’archipel des Gambier, quelques centaines, à 400 km.

Le premier essai atmosphérique, baptisé Aldébaran, a lieu le 2 juillet 1966. Un désastre. Le nuage radioactif dérive vers l’archipel des Gambier au lieu de la direction initialement prévue, provoquant une contamination des populations locales… qui leur est dissimulée, sans leur offrir de protection particulière. Les autorités estiment l’exposition faible – de l’ordre de 5 millisieverts (mSv), proche des limites alors considérées comme acceptables – et préfèrent éviter toute communication susceptible de susciter un rejet populaire contre des essais présentés comme inoffensifs. Des évaluations ultérieures ont confirmé une exposition moyenne autour de 5 mSv, mais avec de fortes incertitudes liées aux habitudes alimentaires des habitants.

Les essais suivants sont mieux contrôlés. Dans la plupart des cas, les panaches radioactifs se dirigent vers l’Amérique du Sud, à plus de 7 000 km. Seuls quelques tirs contaminent Tureia ou les Gambier, sans atteindre le niveau d’Aldébaran. En 1974, lors de la dernière année des essais atmosphériques, c’est Tahiti – à 1 200 km – qui est touchée. Un épisode crucial pour évaluer l’impact sanitaire des tirs. La grande majorité des Polynésiens vit sur la côte ouest de l’île, qui est relativement épargnée grâce à l’absence de fortes précipitations lors du passage du nuage atomique. À l’inverse, la côte est et certaines zones centrales subissent des retombées plus importantes. Les doses estimées restent incertaines (habitudes alimentaires, déplacements), mais sont de l’ordre de 1 mSv à l’ouest et de quelques mSv à l’est.

La dose fait le poison

Ces niveaux de contamination sont-ils réellement préoccupants ? La radioactivité naturelle varie selon les régions, mais elle atteint souvent plusieurs mSv par an. Un scanner médical délivre couramment quelques mSv. Les travailleurs du nucléaire eux-mêmes peuvent recevoir annuellement jusqu’à 20 mSv, et la limite pour le public (hors sources naturelles et médicales) est fixée à 1 mSv sur la même période. Un seuil volontairement très protecteur, et non une valeur au-delà de laquelle le danger devient significatif.

Le manque de transparence (voire les dissimulations des autorités) nourrit pourtant une profonde et compréhensible défiance. Beaucoup de Polynésiens restent convaincus d’un impact sanitaire majeur, certaines associations évoquant même un « crime contre l’humanité ». Pourtant, les données épidémiologiques n’en témoignent pas. La fréquence globale des cancers en Polynésie n’est pas supérieure à celle de la métropole, sauf pour le cancer de la thyroïde, dont l’incidence élevée s’observe aussi dans d’autres régions du Pacifique et semble davantage liée à des facteurs génétiques. Une étude demandée par le gouvernement à l’INSERM conclut que « les rares études épidémiologiques ne mettent pas en évidence d’impact majeur des retombées des essais nucléaires sur la santé des populations polynésiennes ». Un effet faible ne peut être exclu, mais un impact massif est incompatible avec les observations.

Essais nucléaires français : réglos ou complot ?

J’approfondis

Faute de signal épidémiologique clair, on peut recourir aux modèles de risque établis à partir des survivants d’Hiroshima et Nagasaki. Ils suggèrent que l’exposition aux essais aurait pu provoquer quelques dizaines de cancers supplémentaires en Polynésie. À titre de comparaison, la même population connaît naturellement plusieurs dizaines de milliers de ces pathologies. Pour une dose de 1 à quelques mSv, la probabilité de développer un cancer radio-induit reste très faible, bien inférieure à 1 pour 1 000.

Quand la rumeur prend le pouvoir

Cette analyse rationnelle contraste fortement avec la perception dominante en Polynésie, alimentée par des associations indépendantistes ou antinucléaires. Conscient d’une responsabilité historique, l’État a créé en 2010, via la loi Morin, un dispositif d’indemnisation pour les personnes atteintes de cancers découlant potentiellement des essais conduits. Une commission a examiné chaque dossier, dont la grande majorité n’a pas été reconnue, tant le lien de causalité apparaissait très improbable au vu des doses reçues.

Face à la frustration suscitée par ces refus, la méthodologie a été modifiée, de manière à ce qu’une exposition d’au moins 1 mSv valide la qualité de victime. Une inflexion qui a entraîné une nette hausse des indemnisations, voyant plusieurs centaines de dossiers être acceptés, alors même que la probabilité réelle d’un cancer radio-induit reste hypothétique.

Ce seuil de 1 mSv reste néanmoins hors d’atteinte pour la majorité des habitants de Tahiti, les doses estimées sur la côte ouest — où vit l’essentiel de la population — étant inférieures à ce niveau. Pas de quoi satisfaire la majorité des demandeurs, donc… D’où l’appel à la représentation nationale, sous la forme d’un chantage émotionnel sur ce sujet sensible et culpabilisant pour l’État. Sous l’impulsion des députés Mereana Reid Arbelot (Polynésie française) et Didier Le Gac (Finistère), une proposition de loi a donc été déposée pour faire disparaître ce seuil. Et ce, au prétexte de l’absence de fondement scientifique de celui-ci, au passage fort commode, puisqu’il repose sur l’idée que nul ne peut exclure un rôle de la radioactivité dans la survenue d’un cancer, y compris à faibles doses.

On notera le renversement de la charge de la preuve. Normalement, une personne physique ou morale est considérée coupable si l’on peut démontrer qu’elle est la cause d’un désordre, au-delà d’un doute raisonnable. Ici, l’État est considéré coupable et responsable de la survenue d’un cancer, car on ne peut pas démontrer que ce n’est pas le cas.

Nucléaire : l’impact inattendu

J’approfondis

Sans surprise, le texte a été adopté à l’unanimité par les 60 députés présents à l’Assemblée nationale le 29 janvier. Il va permettre à plusieurs milliers de personnes ayant vécu en Polynésie à l’époque des essais et ayant développé un cancer d’être officiellement reconnues comme victimes, sans condition de dose minimale. Selon les estimations financières, le coût pour l’État pourrait atteindre l’ordre du milliard d’euros. Rien que ça, alors même que la dette de la France ne cesse d’enfler.

Si cette mesure répond à une attente forte, elle rompt totalement avec une approche scientifique, mais aussi probabiliste. Elle ouvre la voie à des indemnisations pour des cas où la responsabilité des essais apparaît en réalité très improbable. Une politique qui s’exonère des faits et de la rigueur, mais grève réellement les finances publiques sur l’autel de l’émotion…

L’article Polynésie : la bombe à un milliard est apparu en premier sur Les Électrons Libres.

Reçu — 29 janvier 2026 Les Électrons Libres

OFB, le shérif de la biodiversité

29 janvier 2026 à 05:38

Régulièrement pointé du doigt par les agriculteurs pour ses contrôles tatillons, menés par des agents armés, l’OFB cherchait à se construire une légitimité. Patatras : la nomination d’une écologiste radicale comme directrice générale déléguée chargée de la « mobilisation de la société » ravive la contestation de ses méthodes et pose frontalement la question de son militantisme environnemental, à l’instar de celui de l’ADEME.

Créé en 2020 par la fusion de l’Agence française pour la biodiversité et de l’Office national de la chasse et de la faune sauvage, l’Office français de la biodiversité (OFB) s’est vu confier un champ d’action exceptionnellement large. Il produit de l’expertise scientifique, finance et accompagne des projets, gère des espaces naturels, anime des réseaux territoriaux, conduit des campagnes nationales de communication, mobilise la société civile… et exerce la police administrative et judiciaire de l’environnement. Peu d’opérateurs publics européens cumulent à ce point autant de fonctions.

Des moyens qui ne suivent pas

Pour mener à bien ses missions, l’OFB s’appuie sur de significatives ressources humaines : plus de 3 000 agents, dont 1 700 inspecteurs de l’environnement, répartis sur 270 implantations territoriales. Pourtant, lorsqu’on fait le bilan de ses moyens réels, et malgré leur augmentation régulière et un conseil d’administration pléthorique, ceux-ci s’avèrent nettement en retrait par rapport à ceux de ses homologues européens.

Résultat : avec des effectifs globalement inférieurs à quinze agents par département, l’OFB n’est pas, comme le souligne un rapport sénatorial, « en mesure d’accompagner de façon satisfaisante les acteurs et les élus locaux sur le terrain ».

Priorité à la police

Dans ce contexte, l’Office privilégie sa mission de police. Son rapport d’activité 2024 revendique plus de 130 000 contrôles et plusieurs milliers de procédures pénales, notamment établies par des officiers judiciaires de l’environnement dotés de prérogatives étendues.

Durant leur audition au Sénat, de nombreux acteurs ont dit regretter que ces missions prédominent sur celles d’accompagnement et de conseil, réduisant durablement l’image de l’OFB à sa dimension répressive. Une orientation contestée dès l’origine, comme en 2019, par le sénateur Daniel Gremillet, regrettant, de façon prémonitoire, le choix d’« une posture répressive concernant la biodiversité ». « Dans les territoires, on observe un phénomène de ras-le-bol », ajoutait-il. On s’en serait douté.

Le poids des normes

Cet aspect répressif s’ajoute à la difficulté de l’OFB à naviguer dans la complexité contradictoire de règles environnementales érigées en priorité politique et dont il doit pourtant contrôler la mise en œuvre.

Mais en raison de ce foisonnement normatif et de moyens somme toute limités, sa mise en œuvre policière et judiciaire repose sur la mise en scène, la pression symbolique et la conflictualité plus que sur son effectivité, avec une réponse pénale limitée. La loi prévoit pourtant des peines plafond lourdes allant jusqu’à l’emprisonnement, mais en pratique, les peines réellement prononcées par les tribunaux sont souvent de l’ordre du rappel à la loi ou des stages de citoyenneté. Pas de quoi justifier une telle usine à gaz, alors ?

Quand l’OFB déclenche un tir de barrage judiciaire

J’approfondis

Le symbole de l’arme

À l’OFB, l’arme est l’habit qui fait le moine. Pour Olivier Thibault, son directeur général, elle « est indissociable de l’exercice de la police de l’environnement ». Réellement ? Les agents de l’Office national de la chasse étaient déjà armés, ce qui se justifiait par la lutte contre le braconnage, notamment nocturne. Or la création de l’OFB s’est notamment accompagnée de la disparition de ses patrouilles de nuit. Comme le relève le Sénat, non sans ironie, à propos des activités illicites visées, elles ont désormais lieu « principalement les week-ends et jours fériés, journées pendant lesquelles les agents de l’OFB ne sont pas présents sur le terrain ».

Tout se passe ainsi comme si le contrôle de l’agriculteur avait remplacé celui du braconnier. Pour justifier le maintien de l’arme, la direction invoque la mémoire de ses employés morts en service. Les sénateurs rappellent en effet « l’existence d’un lourd historique d’agents blessés ou tués », illustré par la stèle rendant hommage aux 85 d’entre eux morts en service, dont une quinzaine tombés sous les balles. Un monument promu par les syndicats, devenu un symbole de la légitimation du port d’arme. Or celui-ci ne résiste pas à l’analyse. Depuis la création de l’Office, on ne recense en effet qu’un seul mort en service… par électrocution. Un paradoxe d’ailleurs reconnu par le directeur général lui-même : « depuis la création de l’OFB, [les] inspecteurs n’ont jamais sorti une arme devant un agriculteur ». Si le revolver n’est jamais utilisé, pourquoi en faire un élément indispensable, alors que sa fonction culpabilisante demeure ?

Porosité militante

La réponse apparaît en filigrane dans les travaux parlementaires. Les sénateurs pointent « l’approche militante, parfois zélée, voire disproportionnée de certains inspecteurs », allant jusqu’à évoquer la nécessité de sanctions. Des postures qui nourrissent la crispation sur le terrain et fragilisent la légitimité de l’OFB. Un de ses agents a même assimilé les agriculteurs à des dealers. Quant à Véronique Caraco-Giordano, secrétaire générale du Syndicat national de l’environnement (SNE-FSU), syndicat majoritaire au sein de l’OFB, elle fait mine de s’interroger : « Est-ce qu’on demanderait à la police nationale et aux préfets d’aller s’asseoir avec les délinquants pour dire “voilà, on va vous laisser un peu tranquilles” ? » Les agriculteurs seraient donc des délinquants par essence ? Qui peut laisser passer cette affirmation ?

Un communiqué publié en janvier 2026 par le syndicat pointé développe une lecture politique globale de la crise agricole, dénonçant la « mondialisation mortifère », appelant à un « changement systémique » du modèle du secteur et affirmant « faire sienne la lutte paysanne ». Le propos est assumé comme militant, mais le décalage est patent. Des agents investis de pouvoirs de police judiciaire, parfois armés, se revendiquent publiquement d’un discours idéologique à propos du modèle économique qu’ils sont chargés de contrôler. Et la même Véronique Caraco-Giordano de demander « aux paysans et aux paysannes de nous nourrir de façon correcte, sans nous empoisonner ». Une formule qui, de facto, tend à faire de l’agriculteur (conventionnel) l’ennemi public numéro un de la biodiversité.

Mobiliser la société ?

Dans ce contexte, la mission de « mobilisation de la société » prend tout son sens. Elle constitue désormais un axe structurant de l’action de l’OFB. Son rapport d’activité revendique des campagnes de communication massives, des partenariats avec des plateformes de participation citoyenne engagées et des relais médiatiques. Selon le registre européen de transparence, l’OFB participe même au financement de l’association Générations Futures, connue pour ses études biaisées et anxiogènes sur les résidus de pesticides.

La nomination d’Anne Le Strat, ancienne élue et militante écologiste, opposée aux méga-bassines, ex-porte-parole du Mouvement Utopia, une association qui prône la « citoyenneté universelle, le refus du dogme de la croissance, de la société de consommation et de la centralité de la valeur travail », ne peut donc pas être interprétée comme une maladresse isolée. Elle parachève une orientation assumée, où l’Office ne se contente plus d’appliquer le droit, mais entend organiser l’adhésion à un projet sociétal qui dépasse le cadre de la protection de la biodiversité. D’ailleurs, et c’est rassurant, cette nomination baroque a suscité un tel tollé sur les réseaux sociaux que le Premier ministre a annoncé l’ouverture d’une enquête sur ses conditions.

Anne Le Strat : la science en eau trouble

J’approfondis

Revenir à l’essentiel

Comme avec l’ADEME, nous sommes face à un opérateur qui cumule les fonctions d’expert, de prescripteur, de financeur et de communicant, auxquelles s’ajoute la coercition. Cette concentration de rôles brouille les responsabilités, fragilise la légitimité de l’action publique et alimente la conflictualité.

Pourtant, les enjeux auxquels est confrontée la biodiversité méritent infiniment mieux qu’une instrumentalisation militante et une réponse répressive à l’encontre de ceux qui nourrissent notre pays.

Traquer le braconnier, oui. Encore faut-il envoyer des agents à sa rencontre lorsqu’il agit. Culpabiliser l’agriculteur par principe au nom d’une idéologie ignorante de la réalité agricole, pour attiser sa colère et tromper l’opinion, sûrement pas…

L’article OFB, le shérif de la biodiversité est apparu en premier sur Les Électrons Libres.

Reçu — 28 janvier 2026 Les Électrons Libres

Municipales : le guide de l’écologie efficace

28 janvier 2026 à 06:00

Chaufferies biomasse, obsession du local, bus tournant à l’hydrogène… À l’approche des municipales, le grand déballage des promesses vertes bat son plein. Greenwashing électoral ou mesures réellement efficaces ? Il est temps de trancher.

Le maire ne dispose pas des prérogatives d’un ministre, mais il gère les leviers les plus directs de notre quotidien : la voirie, la rénovation des écoles, le mode de chauffage urbain et la composition de la restauration collective. Pour dépasser le stade de la communication, il importe d’analyser les compétences réelles des municipalités, les arbitrages complexes auxquels elles font face et la pertinence scientifique des mesures proposées.

Les leviers du pouvoir local : une capacité d’action concrète

L’influence d’une mairie sur le climat s’exerce d’abord par l’urbanisme. À travers le Plan local d’urbanisme (PLU), la municipalité fait office de maître des sols. Elle décide de la densité de la ville, peut sanctuariser des terres agricoles pour stopper un étalement urbain — premier facteur de dépendance à la voiture individuelle — et imposer des règles strictes sur la perméabilité des sols pour lutter contre les îlots de chaleur. Ce rôle d’architecte du quotidien se prolonge dans la gestion du patrimoine communal. En administrant les écoles et les gymnases, la commune gère son premier gisement d’économies d’énergie. L’enjeu n’est pas de poser trois panneaux solaires pour la photo, mais d’engager une décarbonation efficace.

Sur la voirie, la municipalité dispose du pouvoir souverain de rééquilibrer l’espace public. Bien que l’agglomération gère souvent les réseaux de transports, la commune décide de l’affectation de la chaussée. Elle peut transformer des zones de stationnement en infrastructures cyclables sécurisées ou en trottoirs élargis, arbitrant ainsi entre une ville aspirateur à voitures et un espace de circulation apaisé. Enfin, le levier de la restauration scolaire offre un impact immédiat sur l’agriculture. En tant que donneur d’ordre, la mairie peut réorienter la commande publique, car le contenu de l’assiette pèse bien plus lourd dans le bilan carbone territorial que la simple gestion des déchets de cantine.

L’enfer des injonctions contradictoires

Si la science est formelle sur les causes du dérèglement climatique, elle offre rarement un mode d’emploi pour les solutions. Cet arbitrage, par essence politique et humain, constitue le cœur de la mission des élus. Pour un maire, cela signifie occuper la place d’« élu le plus engueulé de France », coincé entre des impératifs radicalement opposés. L’injonction de la ville dense se heurte ainsi frontalement à celle de la ville verte : on somme l’édile de ne plus construire sur les terres agricoles périphériques, ce qui impose de densifier le centre, tout en exigeant la création de parcs géants sur ces mêmes terrains constructibles. Les tensions s’étendent également à la préservation du patrimoine, où les projets d’isolation thermique ou d’installation solaire se brisent souvent sur le veto des Architectes des Bâtiments de France, et à la résistance au changement des usagers attachés à leur stationnement ou à leur confort immédiat.

Cette complexité est aggravée par un déficit de formation technique partagé. À l’image de la société française, de nombreux maires et adjoints, mais aussi une grande partie de leurs administrés, n’ont pas été formés aux ordres de grandeur de la physique du climat ou aux enjeux de la biodiversité. Sans cette acculturation scientifique minimale, il devient impossible de distinguer une mesure à fort impact d’un gadget de communication. Cette méconnaissance collective favorise l’obsession du symbole au détriment des transformations systémiques, invisibles mais décisives.

Coût d’abattement : comment l’économie définit le juste prix du carbone

J’approfondis

Pour une écologie de la raison : arbitrer entre symbole et efficacité

Pour sortir de l’impasse des injonctions, l’action municipale doit se doter d’un juge de paix impartial : l’évaluation économique rigoureuse. Trop de politiques locales sont menées sans jamais calculer le coût de la tonne de CO₂ évitée (voir encart). Sans cet indicateur, la collectivité risque de dépenser des fonds publics massifs pour un impact dérisoire, alors que ces mêmes moyens pourraient financer des transformations structurelles. Prioriser les investissements là où ils sont les plus performants, tout en adaptant chaque solution au contexte local, est la seule voie pour une transition réussie.

Estimation de coûts d’abattement pour différentes mesures, en euros par tonne de CO₂ évitée (€/tCO₂). Ne tient pas compte d’éventuelles subventions ou de frais d’entretien.

Dans le domaine du bâtiment et du chauffage, la fausse bonne idée consiste souvent à privilégier les chaufferies bois. Au-delà des émissions de particules fines dégradant la qualité de l’air urbain, sa neutralité carbone théorique doit être relativisée par la « dette carbone » qu’elles génèrent : leur combustion libère instantanément une quantité massive de CO₂ que la forêt mettra au minimum trente ans à recapter. La piste sérieuse réside plutôt dans l’installation de pompes à chaleur (PAC) réversibles. Ce choix décarbone massivement le chauffage tout en offrant une solution de refroidissement indispensable face aux canicules, une stratégie de résilience bien plus cohérente que l’attente d’une isolation parfaite qui ne sera jamais financée.

En matière d’alimentation, le dogme du « tout bio » à la cantine s’avère être une impasse budgétaire pour un bénéfice environnemental marginal. Qu’il s’agisse du climat ou de la biodiversité, le bio se heurte à une réalité physique : ses rendements inférieurs à l’hectare imposent d’exploiter davantage de terres pour une production identique. Cette pression foncière accrue se fait au détriment des espaces naturels sauvages, véritables poumons de biodiversité et puits de carbone. De la même manière, privilégier l’approvisionnement local s’avère écologiquement peu pertinent. L’impact carbone du transport est souvent faible (en moyenne inférieur à 10 %) quand la méthode de production est cruciale. De plus, certaines cultures poussent intrinsèquement mieux hors du climat de la France hexagonale (tomates, avocats, pêches, ananas, etc.), donnant un avantage carbone aux importations. Le levier le plus efficace réside dans la réduction de la viande de ruminants (bœuf, agneau). Un menu carné, même labellisé, présente un bilan bien moins favorable que la transition vers des protéines végétales ou des viandes à empreinte plus modérée comme la volaille, le porc ou les œufs. Le gain marginal d’un passage au végétalisme intégral étant faible comparé à l’abandon des ruminants, la rationalité impose de cibler cette substitution en priorité.

Pour la mobilité, le besoin d’affichage pousse certaines villes vers des gadgets coûteux comme les bus à hydrogène (voir encart). La rationalité froide doit primer sur les mesures de pure communication, comme la baisse de la vitesse sur le périphérique ou la stigmatisation symbolique des SUV, qui occulte le véritable enjeu : l’accélération de l’électrification du parc de bus et de voitures par une infrastructure performante de bornes de recharge. Enfin, sur le plan énergétique, la quête d’une autonomie locale n’offre quasiment aucun intérêt technique dans un territoire déjà relié à un réseau national décarboné. L’utilité marginale de nouveaux parcs intermittents locaux est dérisoire face à l’urgence de la décarbonation et de l’électrification des usages.

Mobilité Hydrogène : Du Totem de Pau au Réalisme de Montpellier

J’approfondis

Exiger l’écologie de la preuve

À l’heure où les budgets municipaux sont sous tension, chaque euro investi dans la transition doit être un euro utile. Cette efficacité suppose de s’affranchir des carcans idéologiques qui transforment trop souvent l’écologie en marqueur partisan. La lutte contre le réchauffement est une question de physique ; elle exige de confronter les logiciels politiques à la rigueur des chiffres. Les prochaines élections municipales seront l’occasion pour les électeurs d’exiger des candidats non plus des promesses de « verdissement » poétique, mais des plans d’action fondés sur la preuve. Voter pour le climat à l’échelle locale, c’est choisir l’élu qui dépassera les postures pour privilégier l’isolation des écoles aux structures monumentales, et la substitution du bœuf en cantine aux hôtels à insectes décoratifs.

L’article Municipales : le guide de l’écologie efficace est apparu en premier sur Les Électrons Libres.

Reçu — 27 janvier 2026 Les Électrons Libres

Les fermes urbaines à l’épreuve des chiffres

27 janvier 2026 à 06:16

C’est la nouvelle lubie des municipalités écologistes. De Grenoble à Paris, en passant par Lyon, Nantes, ou Bordeaux, rares sont les grandes villes qui n’annoncent pas, à grand renfort de communication, le déploiement de fermes urbaines. Restauration du lien social, résilience des territoires urbains, autonomie alimentaire… Les promesses sont nombreuses. Mais résistent-elles à l’épreuve du réel ?

« Un projet qui mise sur le vivant pour cultiver l’avenir ». C’est en ces termes que le média grenoblois Place Gre’Net présente la ferme Mille Feuilles, quelques jours après son inauguration, le 6 novembre dernier. Une cérémonie très officielle, en présence de l’ensemble des élus locaux, visiblement enthousiastes à l’idée de dévoiler ce nouveau symbole de l’agriculture urbaine.

« L’idée était de ramener du travail agricole en ville […]. Nous voulions créer des emplois pour des personnes qui n’ont pas forcément d’expérience, mais qui ont envie de découvrir ce milieu », explique Isabelle Robles, directrice et fondatrice de Mille Pousses, l’association porteuse du projet.

Un projet qui doit aussi permettre de « faciliter l’accès aux populations les plus précaires, les plus modestes, à une alimentation de qualité, locale et surtout abordable », se félicite la maire d’Échirolles, Amandine Demore.

Éric Piolle, maire de Grenoble, se montre tout aussi emballé : « c’est le signe que l’activité agricole revient en ville, que la fonction nourricière du sol est là, présente sous nos yeux. C’est aussi un message pour notre rapport au vivant et notre rapport au foncier ».

Sur ce point, le maire n’a pas tort. Oui, ce projet en dit long sur son rapport au foncier, mais sans doute pas exactement dans le sens qu’il imagine. Car derrière ce concert de promesses et d’autosatisfaction, une question essentielle reste soigneusement évitée : à quel prix ?

Sur les toits de Paris

J’approfondis

Très chers radis

Car ce type de projet a un coût. Un coût élevé. Nous ne sommes pas ici face à une exploitation agricole comme les autres. Le foncier, en plein cœur urbain, n’a évidemment rien à voir avec celui d’un maraîcher s’installant à la campagne. À cela s’ajoute la très faible superficie de ces micro-fermes, qui accentue mécaniquement les effets de bord et les surcoûts, bien plus marqués que dans les exploitations de plus grande taille.

Les contraintes propres à l’aménagement urbain viennent encore alourdir la facture : remise en état des terrains, souvent d’anciennes friches industrielles ou des infrastructures désaffectées en reconversion (à Grenoble, un ancien stade de rugby). S’y ajoutent les études de sol, parfois rendues nécessaires par des pollutions résiduelles. Un enjeu particulièrement sensible à Grenoble, du fait du passé industriel de la ville, même si aucune communication officielle ne s’en est fait l’écho.

Ainsi, la toute nouvelle ferme urbaine grenobloise Mille Feuilles, d’une surface de 1,3 hectare, représente la bagatelle d’1,4 million d’euros d’investissement initial. Une somme intégralement financée par le contribuable : 638 000 euros par la Ville de Grenoble, 382 000 euros par l’Agence nationale de la rénovation urbaine, 218 000 euros par la Métropole de Grenoble, 125 000 euros par l’État et 12 000 euros par le Département de l’Isère.

Et ce n’est là que le début. Car une fois les rubans coupés, encore faut-il faire fonctionner l’ensemble. Pas de pesticides, peu de mécanisation : le modèle repose avant tout sur le travail humain. A Mille-Feuilles, cinq postes à temps plein sont prévus pour faire tourner la micro-ferme. Un chiffre qui peut paraître modeste au regard de la promesse de Mme Robles de « ramener du travail agricole en ville », mais qui représente en réalité une intensité de main-d’œuvre considérable rapportée à la surface exploitée. Environ douze fois plus que dans le maraîchage classique, où un agriculteur gère en moyenne près de 3 hectares de cultures.

Faute de données publiques détaillées, on peut raisonnablement estimer que ces emplois, supposément rémunérés au SMIC, représentent environ 110 000 euros de salaires annuels. À cela s’ajoutent les coûts d’entretien et de fonctionnement des infrastructures et des équipements, probablement de l’ordre de 40 000 euros supplémentaires par an. Au total, si l’on retient une durée de vie du projet de vingt ans, on arrive à un coût annuel d’environ 220 000 euros. Et si l’on suppose des rendements comparables à ceux d’un système de type « bio-intensif manuel », comme au Bec Hellouin, les légumes produits reviendraient in fine de six à vingt-quatre fois plus cher — selon les cultures — que ceux issus d’une exploitation maraîchère conventionnelle.

Sources pour les coûts de production en maraichage conventionnel :
https://www.la-cab.fr/wp-content/uploads/2020/10/touteslesfiches.pdf, https://rnm.franceagrimer.fr/prix?OIGNON, https://rnm.franceagrimer.fr/prix?RADIS, https://www.la-cab.fr/wp-content/uploads/2020/10/fichetk_pommedeterre.pdf

N’en déplaise à Mme Demore, il est ainsi difficile de qualifier un tel modèle de source d’alimentation « abordable ». Sauf à accepter un financement massif et pérenne par le contribuable, l’accès de ces productions aux « populations les plus précaires » relève davantage de l’affichage politique que de la réalité économique. D’autant qu’il est fort à parier que ce financement, au final, bénéficiera à une poignée de consommateurs urbains déjà privilégiés.

Le mirage de l’autonomie

Alors oui, c’est cher. Mais n’est-ce pas le prix à payer pour offrir aux villes davantage d’autonomie alimentaire ? L’argument est séduisant. Il résiste toutefois assez mal à l’épreuve des chiffres.

Car manger à sa faim, pour un être humain, demande beaucoup de place. Bien plus qu’on ne l’imagine. Ce que semble ignorer Éric Piolle (et, plus largement, une bonne partie de la population citadine), c’est qu’il faut en moyenne près d’un demi-hectare de surfaces agricoles pour nourrir un Français « moyen ». Soit environ un demi-stade de football par personne.

Cette surface s’explique en grande partie par la place occupée par l’élevage dans notre alimentation : près de 85 % des terres agricoles y sont consacrées. Les régimes végans s’en sortent donc nettement mieux, avec des besoins environ quatre fois inférieurs, de l’ordre de « seulement » 1 200 m² par personne.

Appliquons maintenant ces ordres de grandeur à la toute nouvelle ferme urbaine grenobloise. Avec ses 1,3 hectare, Mille Feuilles pourrait théoriquement assurer l’autonomie alimentaire… de trois personnes « moyennes ». Ou, dans le meilleur des cas, d’une petite dizaine de végans. En clair, à peine de quoi nourrir les cinq personnes chargées de cultiver le site. Nous sommes ici typiquement dans le cas d’une agriculture vivrière : un système capable de faire vivre celles et ceux qui y travaillent… et guère plus. En aucun cas, ce type de projet ne peut prétendre amorcer ne serait-ce qu’un début d’autonomie alimentaire pour une ville comme Grenoble et ses 160 000 habitants.

Fermes verticales : l’agriculture urbaine en mode high-tech

J’approfondis

Reste une question à élucider : pourquoi cette obsession de l’autonomie alimentaire ? Le territoire français fonctionne aujourd’hui selon une organisation éprouvée, avec des villes concentrant populations et activités économiques, et des campagnes davantage tournées vers la production agricole. Les unes dépendent des autres, et réciproquement. En quoi est-ce un problème ?

Cette quête d’autonomie, particulièrement marquée chez certains maires situés à gauche de l’échiquier politique, semble davantage nourrie par une angoisse de l’effondrement sociétal que par une analyse rationnelle des flux alimentaires. La porosité entre écologie politique et discours collapsologiques alimente sans doute cette crainte très urbaine d’être, un jour, « abandonné » par les campagnes.

Mais même dans ce scénario noir, ce ne sont pas quelques radis cultivés à la ferme Mille Feuilles qui sauveraient les citadins. Dès lors, une fois les chiffres posés, une question demeure : à quoi bon entretenir cette illusion ?

L’intérêt est ailleurs

On l’aura compris : l’intérêt de ce type de projets n’est pas réellement de restaurer la prétendue « fonction nourricière » des sols urbains, n’en déplaise à M. Piolle. Faut-il pour autant considérer qu’ils n’apportent rien ? Les bénéfices existent, mais ils se situent ailleurs.

D’abord, un espace végétalisé au cœur d’une agglomération, c’est a priori une bonne nouvelle. Dans un contexte de réchauffement climatique, où les populations urbaines sont de plus en plus exposées aux canicules, les fermes urbaines peuvent contribuer à limiter l’effet d’îlot de chaleur, grâce au pouvoir rafraîchissant des plantes. À condition, bien sûr, d’être correctement irriguées : sans eau, en pleine vague de chaleur, les cultures ne tardent pas à griller, et un couvert végétal desséché ne rafraîchit pas grand-chose.

Même dans ce cas favorable, la ferme urbaine reste toutefois moins efficace qu’un parc arboré. Les arbres offrent une surface foliaire bien supérieure à celle des cultures légumières, et les serres, quant à elles, sont plutôt connues pour emmagasiner la chaleur que pour rafraîchir l’atmosphère. Dès lors, une question simple s’impose : pourquoi ne pas investir directement dans des parcs, moins coûteux à l’installation comme à l’entretien, et nettement plus efficaces pour améliorer le confort thermique urbain ?

Les fermes urbaines peuvent également remplir une fonction sociale. Si leur potentiel de création d’emplois demeure limité, elles peuvent servir de supports pédagogiques, notamment à destination des écoles voisines. Enfants — et adultes, pourquoi pas — peuvent ainsi découvrir comment poussent les aliments et prendre conscience des contraintes associées à leur production. L’intention est louable. Le risque, en revanche, est de diffuser une vision très partielle, voire biaisée, du monde agricole. Les dimensions et les pratiques de ces micro-fermes sont en effet très éloignées des réalités de l’agriculture professionnelle.

Il est donc probable que ces projets servent avant tout de vecteurs de messages à forte charge idéologique, en particulier auprès de la jeunesse : défiance vis-à-vis de l’agriculture conventionnelle et des grandes exploitations, et, comme souvent, mise en avant des dangers supposés des pesticides, en omettant soigneusement les gains qu’ils ont permis en matière de rendements, de sécurité alimentaire et de conditions de travail.

C’est sans doute là que réside l’intérêt principal de ces fermes urbaines. Non pas pour la population dans son ensemble, mais pour les responsables politiques qui les subventionnent… avec notre argent. À défaut de constituer un levier crédible d’autonomie alimentaire, elles deviennent des outils de communication et des armes politiques, permettant de diffuser une certaine vision de l’écologie, même lorsqu’elle s’éloigne sensiblement des réalités agronomiques et économiques. Tout en offrant aux municipalités l’occasion de se parer d’une image « verte » et vertueuse.

Si le « rapport au foncier » des municipalités engagées dans ces projets était réellement aligné sur les préoccupations des populations socialement défavorisées, l’investissement irait sans doute en priorité vers le logement. Dans un contexte de forte pression immobilière, notamment sur le neuf, peut-on réellement se permettre de consacrer des hectares de terrain et des millions d’euros à des fermes urbaines qui ne profiteront, in fine, qu’à une minorité de citadins privilégiés, et ce au nom d’une écologie idéologique largement déconnectée des réalités ?

L’article Les fermes urbaines à l’épreuve des chiffres est apparu en premier sur Les Électrons Libres.

❌