Vue normale

Reçu aujourd’hui — 28 novembre 2025Les Électrons Libres

Protéger votre enfant contre 5 cancers et plus ? C’est possible.

28 novembre 2025 à 21:31

Deux grandes méta-analyses confirment l’efficacité impressionnante des vaccins contre les papillomavirus (HPV). Ça tombe bien, la campagne pour appeler nos collégiens à recevoir gratuitement la petite piqûre vient de commencer.

La lettre de l’Éducation nationale est désormais dans toutes les boîtes. Elle invite chaque élève de collège à se faire vacciner contre les HPV. Et, contrairement aux idées reçues, les garçons doivent également être concernés, le virus étant loin de provoquer le seul cancer de l’utérus. Il est également responsable de nombreuses infections et traitements parfois lourds et mutilants, pouvant toucher les deux sexes.

Les HPV, des virus très banals… mais à l’origine de cancers

Les papillomavirus humains se transmettent lors des contacts intimes. On estime que 80 % des femmes et des hommes seront touchés au moins une fois dans leur vie. La plupart des infections disparaissent spontanément, mais certains types de HPV sont à « haut risque ». À force d’irriter les cellules, ils peuvent provoquer des lésions précancéreuses puis des cancers, parfois vingt ou trente ans plus tard.
En France, ils sont responsables d’environ 6 400 de ces maladies chaque année. Du col de l’utérus bien sûr, mais aussi de l’anus, de la vulve, du pénis, de l’oropharynx (gorge, amygdales). Les hommes ne sont donc pas épargnés. Les HPV causent aussi des lésions précancéreuses au niveau du col de l’utérus (plus de 30 000 par an), qui obligent à pratiquer examens et actes médicaux, en plus d’être des sources d’inquiétude chez les patientes. Ils sont aussi à l’origine de plus de 100 000 verrues ano-génitales, tous sexes confondus, tous les ans.

Deux études éloquentes

Deux très grandes « études-synthèse », appelées méta-analyses, publiées fin 2025 par la Collaboration Cochrane, menées par la même équipe, témoignent de l’efficacité et de la pertinence du vaccin. Une méta-analyse ne reflète pas un unique travail, mais compile et étudie les résultats de dizaines d’essais. Cela donne une vision beaucoup plus solide de l’efficience et de la sécurité d’un vaccin.

La première d’entre elles rassemble 60 études et plus de 150 000 personnes, vaccinées ou non, suivies jusqu’à 10–11 ans. Chez les jeunes femmes, le vaccin réduit nettement les lésions précancéreuses importantes du col de l’utérus et diminue le nombre de gestes invasifs (conisations, destructions de lésions). Concernant les verrues génitales, la baisse est très nette également. Sur cette importante cohorte, on ne relève pas davantage d’effets indésirables graves chez les vaccinés que chez les non-vaccinés. Les problèmes observés sont surtout des douleurs et rougeurs transitoires au point d’injection, comme avec les autres piqûres de ce type.

La deuxième revue (données de « vraie vie ») regarde ce qui se passe dans les pays ayant mis en place la vaccination à grande échelle. Elle compile 225 études et plus de 130 millions de personnes grâce aux registres de cancers et aux bases de données nationales. Les résultats sont impressionnants. Dans les pays où les filles sont bien vaccinées avant 16 ans, le risque de cancer du col diminue d’environ 60 %, et même jusqu’à 80 % chez celles qui ont reçu leur injection très tôt. Les lésions précancéreuses sévères reculent fortement, et les verrues génitales baissent de façon marquée dans toute la population, y compris chez les garçons, ce qui confirme l’intérêt de vacciner les deux sexes.

Australie : Le cancer du col de l’utérus en passe d’être vaincu

J’approfondis

Ces revues sont donc vraiment complémentaires. La première montre, dans le cadre très contrôlé des essais, que le vaccin est efficace et sûr pour les dizaines de milliers de volontaires qui y ont participé. La seconde confirme, lors d’un déploiement à grande échelle, le résultat espéré, à savoir des milliers de lésions précancéreuses, de traitements invasifs et de cancers évités. Totalement probant, alors que rares sont les vaccins observés avec autant de données concordantes, à la fois dans des essais randomisés et en vie réelle.

La campagne en 5ᵉ : un rattrapage indispensable pour la France

En France, la vaccination HPV est recommandée dès 11 ans, pour les deux sexes. Mais, longtemps, la couverture est restée très insuffisante. En 2022, seulement 41,5 % des filles et 8,5 % des garçons avaient reçu au moins une dose. D’où l’effort inédit envisagé depuis la rentrée 2023, induisant une vaccination gratuite au collège pour tous les élèves de 5ᵉ, avec l’accord des parents.

Le bilan provisoire est encourageant. Entre septembre 2023 et juin 2024, la couverture par « au moins une dose » a bondi pour atteindre 62 % chez les filles et 48 % pour les garçons. La couverture avec « deux doses » – soit un schéma complet – est de 38 % pour les premières et de 30 % pour les seconds. Une progression spectaculaire justifiant la poursuite de cette stratégie… mais encore loin de l’objectif des 80 % fixé dans le plan décennal de lutte contre les cancers.

Des inégalités territoriales préoccupantes

Derrière les moyennes nationales se cachent de fortes disparités territoriales. Certaines régions approchent ou dépassent les 60 % de jeunes filles vaccinées à 15 ans, d’autres restent nettement en dessous de 50 %, en particulier pour les garçons. En Provence-Alpes-Côte d’Azur, par exemple, 47 % des filles de 15 ans ont initié la vaccination HPV, contre seulement 19 % des garçons, malgré une forte progression en un an.

Les enquêtes menées auprès des parents montrent que les refus ne sont pas marginaux. Autour de 25 à 30 % d’entre eux déclarent s’opposer à cette vaccination ou la juger proposée « trop tôt ». Résultat : les adolescents des territoires les moins informés ou les plus défavorisés restent davantage exposés à des cancers pourtant évitables.

Il faut donc apporter trois réponses aux parents rétifs, particulièrement à ceux doutant de l’utilité du vaccin pour les garçons.

D’abord rappeler que le sexe masculin n’est pas épargné par les cancers liés aux HPV, ceux-ci pouvant toucher l’anus, le pénis ou la gorge. Ces pathologies sont certes moins fréquentes que le cancer du col, mais en augmentation et souvent diagnostiquées tard.

Ensuite, parce qu’un garçon vacciné protège aussi ses futurs partenaires. En vaccinant les garçons et les filles, on fait baisser la circulation du virus dans toute la population. C’est le même principe que pour la rougeole ou la coqueluche. Plus la couverture est élevée, moins le virus trouve de personnes à infecter.
Enfin, parce que c’est au moment d’aborder le collège que le vaccin est le plus utile. Le but n’est pas de parler sexualité à 11 ans, mais de vacciner avant les premiers contacts intimes, quand l’organisme réagit le mieux. Une fois le virus attrapé, le vaccin protège beaucoup moins, voire plus du tout, contre ce type précis de HPV.

À noter qu’un refus de vaccination au collège n’est pas rédhibitoire. Elle reste possible chez le médecin ou en centre dédié et se voit généralement remboursée.

Un levier majeur de prévention

La vaccination HPV n’est pas « un petit vaccin en plus ». C’est un levier majeur de prévention des cancers chez les femmes et les hommes, avec un niveau de preuve aujourd’hui très solide et un recul de plus de quinze ans dans plusieurs pays.

Accepter de faire vacciner son enfant de 11 ans, c’est lui offrir, comme à ses futurs partenaires, quelques risques de cancers en moins à 40, 50 ou 60 ans. Un geste simple aujourd’hui, pour une protection valable durant des décennies.

Aucun lien ou conflit d’intérêts n’est à rapporter avec cet article.

L’article Protéger votre enfant contre 5 cancers et plus ? C’est possible. est apparu en premier sur Les Électrons Libres.

Malgré l’impôt, une France d’héritiers

28 novembre 2025 à 05:55

Le plus grand transfert de richesse de l’histoire va bientôt avoir lieu. Pourtant, parce qu’il arrive trop tard dans la vie, ce grand héritage ne sera pas un levier d’ascension sociale, mais un multiplicateur d’inégalités. Et le taxer ne changera rien au problème.

Il y a des mythes réconfortants, des fictions nationales qu’on se raconte pour mieux dormir. Chez nous, l’un des plus coriaces dit ceci : « La France n’est pas une société d’héritiers, puisque nous taxons lourdement l’héritage. »

Rien n’est plus faux. Rien n’est plus ironique. Et surtout : rien n’est plus lourd de conséquences pour la mobilité sociale, la croissance et l’équité intergénérationnelle.

Des droits de succession parmi les plus élevés du monde

Car la France est bel et bien devenue une société d’héritiers, mais pas du tout pour les raisons que l’on croit. Un préjugé tenace voudrait que ce soit en raison de droits de succession trop faibles… Or, ils sont parmi les plus élevés de l’OCDE, nous rappelle la Cour des comptes (septembre 2024). Pour le plus grand bénéfice des finances publiques françaises ! Le montant des recettes de droits de succession a plus que doublé entre 2011 (7,0 Md€) et 2023 (16,6 Md€). La France se situe au premier rang de l’Organisation de coopération et de développement économiques (OCDE) pour le poids des DMTG (donations et successions) dans le PIB (0,74 %). Voilà pour les chiffres.

Voir détails en fin d’article

Nous serions plus inspirés de regarder du côté de la structure même du modèle économique français, du système de retraite à la fiscalité du travail : n’est-ce pas ce modèle qui fabrique mécaniquement une société où le capital ne circule plus et où l’héritage devient décisif ?

Le grand héritage

Comme le résume avec une brutalité lucide l’économiste Erwann Tison : « Ce sont les boomers qui héritent désormais de leurs parents boomers. » Autrement dit : le capital transmis ne finance pas l’avenir, il clôt le passé. Et d’ici quelques années, ces fameux baby-boomers vont – enfin – transmettre leur patrimoine gigantesque, fruit des Trente Glorieuses, façonné par l’envolée des marchés financiers et la flambée de l’immobilier. On parle du « grand transfert de richesse », chiffré à 9 000 milliards d’euros par la Fondation Jean-Jaurès, et qui fait déjà saliver, au-delà des gestionnaires de fortune, certains partis politiques prompts à vouloir taxer cette immense transmission.

Une société d’héritiers, oui — mais pas parce que la fiscalité est laxiste. L’héritage n’arrive plus quand il est utile : il arrive quand il est inutile. Les travaux du Conseil d’analyse économique (décembre 2021) ont mis au jour une anomalie française : la part du patrimoine hérité augmente, mais l’âge auquel on hérite augmente encore plus vite. Au siècle dernier, l’âge moyen des héritiers était de 30 ans… aujourd’hui, on hérite désormais en moyenne dans la cinquantaine. Soit l’âge… où l’on s’apprête à partir à la retraite ! Donc à un moment où le capital n’a plus le moindre rôle productif. E. Tison le dit sans fard : « Hériter à 20 ans, ça change une vie. Hériter à 60 ans, ça ne change que l’ordre de succession chez le notaire. » C’est le premier nœud du problème : la transmission ne finance plus la mobilité sociale mais la confortation patrimoniale.

Un multiplicateur d’inégalités

Pour la première fois, les baby-boomers héritent… de baby-boomers. C’est un cycle inédit dans l’histoire économique. Pourquoi ? Parce qu’une génération – nombreuse – a profité d’un marché du travail fluide, d’une forte progression salariale, de retraites généreuses et de l’explosion des prix immobiliers. Résultat : ils détiennent déjà l’essentiel du patrimoine, et ils reçoivent encore de nouveaux actifs au moment même où ils n’en ont pas besoin. L’héritage devient un mécanisme d’amplification, pas de redistribution. Ce n’est plus un levier d’ascension : c’est un multiplicateur d’inégalités.

La France se retrouve avec l’un de ces paradoxes dont elle a le secret : des droits de succession élevés, mais un monde qui hérite toujours plus.

La question n’est donc pas : « Pourquoi taxe-t-on si peu ? » Mais : « Pourquoi la taxe ne change-t-elle rien ? » Réponse : parce qu’en France, les abattements, les déductions, les régimes matrimoniaux optimisés et surtout les donations échelonnées font que la fiscalité n’atteint jamais vraiment les patrimoines massifs en ligne directe.

La France taxe théoriquement fort. Mais pratiquement, elle taxe mal. Et surtout : elle taxe trop tard.

En fait, le vrai moteur de la société d’héritiers, c’est le modèle économique français, pas Bercy. Le travail est taxé plus que dans n’importe quel pays de l’OCDE. C’est l’un des points les plus importants rappelés par A. Foucher : le vrai problème, ce n’est pas la taxation du patrimoine, c’est celle du travail. En France : cotisations, contributions, impôt sur le revenu, TVA, charges employeurs… Conséquences : il est très difficile d’épargner par soi-même ; ceux qui n’ont pas de capital initial n’en construiront jamais ; l’épargne est mécaniquement concentrée chez les ménages déjà dotés. Celui qui part de zéro n’a aucune capacité d’épargne. Celui qui a déjà a une capacité infiniment plus grande. D’où la spirale auto-entretenue dénoncée par Maxime Sbahi : on refuse de voir l’éléphant dans la pièce, c’est-à-dire l’inéquité entre les générations et le déni qui le sous-tend.

Les retraités épargnent massivement… parce qu’ils n’ont plus rien à financer. Les données récentes de l’Insee (juin 2025) et du DG Trésor (2025) sont accablantes : en 2024, les retraités sont responsables des deux tiers de la hausse du taux d’épargne ; leurs pensions ont été revalorisées de 5,3 % ; leur consommation, elle, n’a presque pas bougé ; résultat : une épargne massive, même chez les plus modestes. On parle d’un taux d’épargne général autour de 18–19 %, mais de plus de 25 % pour les retraités, soit environ 100 milliards d’euros épargnés chaque année sur les 400 milliards de pensions versées. Ce capital, qui pourrait financer l’innovation, la croissance, le logement, les infrastructures… ne circule pas. Les retraités n’ont pas besoin de « décaisser », accumulent par précaution et préparent une transmission future. Là encore, E. Tison enfonce le clou : « Les futurs héritages ne sont pas des investissements. Car ils sont détenus par des profils risquophobes. Les 600 milliards qui vont être transmis ne profiteront pas à l’économie productive. »

Le cycle de vie de Modigliani est brisé. Normalement, selon le théoricien, on épargne pendant la vie active, on atteint un pic vers 55 ans, puis on « décaisse » en vieillissant. En France : les retraités continuent d’épargner. Parce que leurs retraites sont généreuses, indexées et politiquement intouchables. Résultat : pas de décaissement, pas de circulation du capital et une explosion des héritages tardifs.

Le problème n’est donc pas l’héritage : c’est la temporalité de l’héritage. En fait, l’équation pourrait être : hériter tôt favorise l’ascension sociale, hériter tard favorise la reproduction sociale. Hériter à 25 ans permet d’envisager un achat immobilier, la création d’entreprise, la formation, la mobilité géographique. Hériter à 60 ans permet d’optimiser la fiscalité de sa succession à ses propres enfants. Le capital devient un instrument de reproduction, pas d’émancipation. C’est l’une des raisons pour lesquelles E. Tison va jusqu’à dire, volontairement provocateur : « Une taxation à 100 % des héritages serait plus efficace que le système actuel. » Non pas pour punir, mais pour obliger à transmettre avant la mort.

Voilà pourquoi durcir les droits de succession ne sert donc (presque) à rien. Parce que la question n’est pas le taux, mais le moment. Taxer plus haut n’incite pas à décaisser plus tôt. Le capital ne circule pas du tout tant qu’il reste concentré chez les seniors épargnants. Tout l’enjeu est ailleurs : notre système fiscal doit pousser à la transmission précoce, pas à la transmission tardive. Il faut que l’héritage cesse d’arriver quand il ne sert plus, qu’il circule pendant les périodes de construction de vie, qu’il finance les âges où les besoins sont élevés. C’est, au fond, ce que proposent une partie des économistes (E. Tison / M. Sbahi), mais aussi la Cour des comptes (septembre 2024) : libérer les donations, réduire la fiscalité sur les transmissions « au fil de l’eau », mais durcir fortement la fiscalité sur les transmissions tardives et financer une partie des revalorisations sociales par les seniors eux-mêmes. En clair : moins d’héritages à 60 ans ; plus de donations à 25 ans.

La gérontocratie, un système perdant-perdant

Mais évidemment, cela suppose de briser le tabou français : la gérontocratie douce. On touche ici à la dimension politique. La France compte 18 millions de retraités, bientôt 23 millions. Et surtout : un électeur sur deux est retraité. Dès qu’on parle de décaissement incité, de fiscalité du patrimoine senior, de donation encouragée, de réforme des retraites… le débat se fige. L’électorat le plus nombreux et le plus mobilisé veille. En mode pavlovien : on a peur de critiquer les retraités, parce que ce sont eux qui votent. Résultat : on sur-revalorise les pensions, on gèle la réforme fiscale, on continue de renchérir le coût du travail et on détruit la mobilité sociale des plus jeunes. C’est une logique perdant-perdant : les retraités épargnent, les jeunes ne peuvent pas épargner, l’économie tourne au ralenti, la dette publique explose.

C’est un débat où la morale tutoie l’économie. Le véritable enjeu est : comment faire pour que le capital se transmette vivant, qu’il circule, qu’il finance les âges productifs et qu’il ne soit plus ce carburant qui arrive toujours trop tard ? Tant que la France ne répond pas à cette question, elle restera la société d’héritiers la plus improbable, la plus silencieuse et la plus coûteuse de tout l’Occident.

Détails de l’infographie

Sur le papier, la France a des taux parmi les plus élevés ; dans les faits, la combinaison d’abattements, de niches et d’un barème non indexé produit une taxation qui pèse particulièrement sur des patrimoines « moyens-supérieurs » et pénalise certains ménages, tandis que d’autres mécanismes atténuent la charge pour les plus riches ou pour les transmissions d’entreprise (loi Dutreil).

France : barème progressif. Taux maximum à partir d’environ 1,8 M€. Barèmes non indexés depuis 2011, ce qui a entraîné une augmentation effective du nombre de successions imposables.

Espagne : État : 34 %. Régions : généralement réduit à 1 % ou 0 % effectif grâce aux bonus régionaux. Abattement : 15 956 € pour les plus de 21 ans ou 47 858 € avant. Entre 100 000 € et 1 000 000 € d’abattement effectif dans la majorité des régions, voire 99 % de réduction (Madrid, Andalousie, Catalogne, Valence, Canaries…). Très faible taxation (voire nulle) en ligne directe dans presque toutes les régions grâce aux abattements et réductions régionaux massifs.

Allemagne : seuils très élevés pour atteindre les taux supérieurs. Abattements plus généreux, barème plus doux : pour des patrimoines comparables, l’impact fiscal est souvent beaucoup moindre qu’en France.

Danemark : abattement de 346 000 DKK (environ 46 400 €) par héritier (enfants, descendants ; exemption totale pour le conjoint). Taux de 15 %, unique, non progressif. Système national unique, simple, avec un abattement correct et un taux fixe modéré.

Italie : abattement de 1 000 000 € par parent-enfant (selon modalités). Taux faibles (par exemple 4 % au-delà de l’abattement dans certains cas). Faibles droits pour la plupart des transmissions en ligne directe.

Portugal, Suède, Norvège, Autriche : droits de succession inexistants ou très réduits. Plusieurs pays européens ont supprimé ces droits ou les ont marginalisés.


L’article Malgré l’impôt, une France d’héritiers est apparu en premier sur Les Électrons Libres.

Reçu hier — 27 novembre 2025Les Électrons Libres

Retraites : l’Europe au banc d’essai

27 novembre 2025 à 05:34

La France face à l’Europe. Huit pays, huit systèmes différents.
Ce qui fonctionne, ce qui échoue. Les modes de financement des retraites de la plupart de nos plus proches voisins européens, Royaume-Uni compris, au banc d’essai selon neuf critères. La semaine prochaine, nous étudierons les systèmes de sécurité sociale.

Si comparaison n’est pas raison, le fait que la plupart des pays du continent sont confrontés aux mêmes contraintes démographiques et de vieillissement de leurs populations permet néanmoins de juger de leurs approches respectives en matière de retraite. D’ici 2050, le ratio actifs/retraités dans l’UE devrait passer de 3,3 pour 1 aujourd’hui à moins de 2 pour 1. Face à ce défi commun, chaque pays a fourni des réponses très différentes. La France, elle, patine, et même sa dernière réforme à l’ambition limitée est suspendue sur l’autel des interminables débats budgétaires et de son instabilité politique. Et pourtant, il y aurait urgence à agir tant notre système de retraite se singularise par le poids écrasant qu’il fait peser sur les finances publiques et par un déséquilibre démographique alarmant. Si l’Allemagne, l’Italie et l’Espagne peinent elles aussi avec des régimes majoritairement par répartition, sans réserves substantielles pour amortir le choc du vieillissement, la France finance presque exclusivement les pensions grâce aux actifs d’aujourd’hui. Le rapport cotisants par retraité, proche de 1,7, se dégrade plus rapidement que chez la plupart de nos voisins, rendant un système apparemment généreux profondément vulnérable à l’horizon des prochaines décennies. En contraste, la Suède, le Danemark, les Pays-Bas et le Royaume-Uni ont, à des degrés divers, avancé vers des régimes par points ou une capitalisation significative, qui répartissent les risques entre générations et atténuent la charge sur l’État. Même l’Italie, malgré ses faiblesses structurelles persistantes, a introduit des comptes notionnels (soit un mécanisme de retraite par répartition où les cotisations sont capitalisées fictivement puis converties en pension selon l’espérance de vie) pour injecter une dose de flexibilité. C’est dans cette mosaïque de trajectoires – où la France apparaît souvent comme l’exception la plus rigide – que s’impose la valeur d’une comparaison approfondie.

Critères de comparaison

Les neuf critères principaux.

  1. Structure du système (répartition pure, capitalisation forte ou modèle mixte)
  2. Âge légal de départ et âge effectif réel
  3. Taux de remplacement brut et net (pourcentage du dernier salaire – ou revenu d’activité – de la pension de retraite versée à une personne une fois à la retraite)
  4. Montant moyen mensuel de la pension nette
  5. Ratio niveau de vie retraités/actifs
  6. Capital moyen accumulé par les retraités
  7. Dépenses publiques consacrées aux retraites
  8. Dette implicite (soit l’ensemble des engagements futurs de l’État — retraites, soins de santé, etc. — qui ne sont pas encore comptabilisés comme dette officielle mais qu’il devra payer)
  9. Classement Mercer 2025 (le Mercer CFA Institute Global Pension Index évalue 52 systèmes de retraite mondiaux sur plus de 50 indicateurs)

Les pays retenus (France, Allemagne, Italie, Espagne, Suède, Danemark, Pays-Bas, Royaume-Uni) ont été choisis pour leur poids économique et la diversité de leurs modèles, avec une attention particulière aux pressions budgétaires actuelles et futures que font peser les retraites sur les États.

France : une référence généreuse mais intenable

  • Structure : Répartition quasi exclusive + régimes complémentaires/spéciaux et légère capitalisation dans la fonction publique → Modèle historiquement protecteur, mais devenu un piège intergénérationnel.
  • Âge légal 2025 : 62 ans 6 mois → 64 ans d’ici 2030 → Le plus bas d’Europe continentale : un luxe que peu de pays peuvent encore se permettre. La France non plus.
  • Taux de remplacement : ~72 % → Élevé, gage de forte générosité immédiate.
  • Pension moyenne nette : ~1 545 €/mois → Correcte en apparence, mais très en retrait des leaders capitalisés.
  • Ratio niveau de vie retraités/actifs : 94-96 % → Les retraités français comptent parmi les rares en Europe à ne presque rien perdre, voire à gagner légèrement par rapport aux actifs.
  • Capital moyen : ~288 000 € (très majoritairement immobilier) → Matelas confortable, mais largement insuffisant pour absorber le choc démographique sans l’État, indiquant une forte proportion liée à l’héritage.
  • Dépenses publiques retraites : ~14 % du PIB → Charge écrasante qui plombe les comptes publics.
  • Dette implicite : > 300 % du PIB → Passif caché colossal qui hypothèque l’avenir.
  • Classement Mercer 2025 : B (score ~70,3 ; ~20e mondial) → Bonne adéquation immédiate, mais durabilité faible.

Allemagne – rigueur et mixité modérée

  • Structure : Répartition par points + capitalisation privée modérée → Système pragmatique et maîtrisé.
  • Âge légal 2025 : 66 ans 2 mois → 67 ans → Réforme digérée depuis vingt ans, mais susceptible de se durcir.
  • Taux de remplacement : ~55 % → Volontairement modéré.
  • Pension moyenne nette : ~1 650 €/mois → Décente.
  • Ratio niveau de vie retraités/actifs : 70-75 % → Baisse notable assumée.
  • Capital moyen : ~236 000 € → Épargne prudente.
  • Dépenses publiques retraites : ~11 % du PIB → Charge raisonnable.
  • Dette implicite : ~200 % du PIB → Élevée, mais contenue.
  • Classement Mercer 2025 : B (score ~67,8 ; ~25e mondial) → Équilibre correct, intégrité forte, adéquation limitée.

Italie – générosité à crédit

  • Structure : Répartition encore très généreuse malgré les réformes → Cas d’école de la générosité à crédit.
  • Âge légal 2025 : 67 ans → Arrivé trop tard pour corriger les excès.
  • Taux de remplacement : > 82 % → Extrêmement élevé.
  • Pension moyenne nette : ~1 600 €/mois → Confortable, mais financée par la dette.
  • Ratio niveau de vie retraités/actifs : 90-94 % → Retraités privilégiés.
  • Capital moyen : ~204 000 € → Le plus faible, dépendance quasi totale à l’État.
  • Dépenses publiques retraites : ~16 % du PIB → Record européen.
  • Dette implicite : > 400 % du PIB → Pire situation d’Europe.
  • Classement Mercer 2025 : C (score 57 ; ~40e mondial) → Durabilité catastrophique.

Espagne – un virage récent

  • Structure : Répartition classique, réformes en cours → Virage tardif mais réel.
  • Âge légal 2025 : 66 ans 8 mois → 67 ans.
  • Taux de remplacement : ~86 % → Très généreux, mais en baisse forcée.
  • Pension moyenne nette : ~1 450 €/mois → Acceptable.
  • Ratio niveau de vie retraités/actifs : 84-88 % → Élevé, en érosion.
  • Capital moyen : ~207 000 € → Faible.
  • Dépenses publiques retraites : ~12,5 % du PIB → Lourd mais en correction.
  • Dette implicite : ~250 % du PIB → Sérieuse, mais moins que l’Italie.
  • Classement Mercer 2025 : C+ (score 63,8 ; ~30e mondial) → Progrès mais risques persistants.

Suède – la capitalisation comme assurance-vie

  • Structure : Mixte depuis 1998 (comptes notionnels + fonds obligatoires) → Réforme la plus réussie du continent.
  • Âge légal 2025 : 63 ans (flexible), âge effectif > 65 ans → Liberté réelle.
  • Taux de remplacement : ~65-70 % → Équilibré.
  • Pension moyenne nette : ~2 100 €/mois → Très confortable.
  • Ratio niveau de vie retraités/actifs : 85-90 % → Équilibre intergénérationnel.
  • Capital moyen : ~274 000 € → Correct.
  • Dépenses publiques retraites : ~9 % du PIB → Charge maîtrisée.
  • Dette implicite : ~100 % du PIB → Faible.
  • Classement Mercer 2025 : B+ (score 78,2 ; ~6e mondial) → Très solide.

Danemark – le champion nordique

  • Structure : Pension publique universelle + capitalisation massive → Système le plus abouti d’Europe.
  • Âge légal 2025 : 67 ans → 68 ans en 2030.
  • Taux de remplacement : ~78-80 % → Très bon.
  • Pension moyenne nette : ~2 850 €/mois → Plus élevée du panel.
  • Ratio niveau de vie retraités/actifs : 95-100 % → Parité quasi parfaite.
  • Capital moyen : ~378 000 € → Plus forte réserve privée.
  • Dépenses publiques retraites : ~8,5 % du PIB → Charge légère.
  • Dette implicite : ~50 % du PIB → Très faible.
  • Classement Mercer 2025 : A (score 82,3 ; 3e mondial) → Parmi les premiers.

Pays-Bas – numéro 1 mondial

  • Structure : Fonds de pension capitalisés (> 190 % du PIB) → Modèle le plus durable.
  • Âge légal 2025 : 67 ans.
  • Taux de remplacement : ~93 % → Meilleur d’Europe.
  • Pension moyenne nette : ~2 500 €/mois → Très élevée.
  • Ratio niveau de vie retraités/actifs : 98-102 % → Parité, voire léger avantage.
  • Capital moyen : ~330 000 € → Réserve importante.
  • Dépenses publiques retraites : ~7,5 % du PIB → Plus bas du continent.
  • Dette implicite : < 50 % du PIB → Quasi inexistante.
  • Classement Mercer 2025 : A (score 85,4 ; 1er mondial) → Benchmark mondial.

Royaume-Uni – l’hybride post-Brexit

  • Structure : Pension d’État plate + privé inégalitaire → Système à deux vitesses.
  • Âge légal 2025 : 66 ans → 68 ans.
  • Taux de remplacement : ~58 % → Faible.
  • Pension moyenne nette : ~2 100 €/mois → Variable.
  • Ratio niveau de vie retraités/actifs : 75-80 % → Décrochage marqué.
  • Capital moyen : ~279 000 € → Bon pour les classes moyennes.
  • Dépenses publiques retraites : ~6,5 % du PIB → Charge minimale.
  • Dette implicite : ~150 % du PIB → Moyenne, contenue.
  • Classement Mercer 2025 : B (score 72,2 ; ~15e mondial) → Durabilité solide, inégalités fortes.

En résumé

Les Pays-Bas et le Danemark offrent tout ce que la France ne peut plus tenir : un niveau de vie retraités/actifs proche ou supérieur à 95 %, des pensions plus élevées, un capital privé gigantesque et une charge publique deux fois plus légère.

La France, l’Italie et l’Espagne sont les derniers pays où les retraités actuels vivent encore comme des privilégiés – au prix d’une facture publique explosive et sans filet privé suffisant pour les générations suivantes.

L’Allemagne, la Suède et le Royaume-Uni ont déjà fait le choix de la responsabilité : un peu moins de confort aujourd’hui pour garantir la dignité demain. Même si, observé à la loupe, le Royaume-Uni présente de très sévères disparités entre catégories sociales.

Quelles leçons pour la France ?

La France offre aujourd’hui l’un des meilleurs niveaux de vie aux retraités actuels, mais elle se situe dans la moyenne basse des classements internationaux quand on intègre la durabilité, et surtout dans le bas du panier pour l’impact budgétaire : ses 14 % du PIB en dépenses et 300 % en dette implicite la placent en première ligne des risques européens. Les modèles danois et néerlandais montrent qu’il est possible de concilier pensions élevées et solidité financière, à condition d’accepter une part massive de capitalisation, un âge de départ plus tardif et une culture du travail prolongé – des leviers qui pourraient diviser par deux la charge publique d’ici 2050. Rester uniquement en répartition tout en maintenant un âge légal parmi les plus bas d’Europe apparaît de plus en plus comme une exception difficilement tenable à long terme, menaçant non seulement les retraites futures mais l’ensemble de l’économie. La prochaine décennie dira si la France saura évoluer vers un modèle hybride pour alléger son fardeau budgétaire ou si elle choisira de défendre jusqu’au bout son exception française au prix d’une dette explosive.

À la semaine prochaine, pour un comparatif des sécurités sociales dans les mêmes pays. La France peut-elle encore s’enorgueillir du meilleur système du monde ? Suspense.

L’article Retraites : l’Europe au banc d’essai est apparu en premier sur Les Électrons Libres.

Reçu avant avant-hierLes Électrons Libres

Gemini 3 : le réveil de Google

26 novembre 2025 à 06:01

Souvenez-vous : fin 2022, ChatGPT débarque et sème la panique chez Google. Bard, leur réponse précipitée, fait rire toute la Silicon Valley. 3 ans plus tard, le géant de Mountain View vient de reprendre la tête de la course à l’IA d’une manière qui force le respect de tous les observateurs. Son arme fatale : Gemini 3.

Le 18 novembre 2025, pendant que le monde débattait des « murs de scaling » — cette idée que l’IA atteindrait bientôt un plafond et que plus de données et de calcul ne suffiraient plus à la rendre plus intelligente —, Google a tranquillement lâché sa bombe. Gemini 3 arrive en escadrille : un modèle capable de comprendre du texte, du code et des images ; un nouvel environnement pour programmer avec une IA (Antigravity) ; un générateur d’images très avancé (Nano Banana Pro) ; une version assistée par IA de Google Scholar et une présence renforcée dans Google Search. L’ensemble ne ressemble plus à un simple modèle ajouté à la liste. C’est le début d’une infrastructure cognitive cohérente.

Gemini 3 Pro dépasse tous ses concurrents sur presque tous les tests habituels. Mais ce qui impressionne vraiment, c’est l’ampleur de son avance.

Les chiffres parlent d’eux-mêmes. Sur ARC-AGI 2, un test réputé pour mettre à genoux les modèles d’IA, Gemini 3 Pro atteint 31,1 % — soit deux fois le score de GPT-5.1. En mode « Deep Think », il grimpe même à 45,1 %, un bond de 3× par rapport à la concurrence.

Sur les examens qui testent le raisonnement de haut niveau, il atteint un niveau comparable à celui d’un doctorat, sans aide extérieure. En mathématiques avancées, là où GPT-5.1 frôle le zéro, Gemini 3 dépasse les 20 % de réussite.

Dans les classements globaux réalisés par plusieurs organismes indépendants (Artificial Analysis, Center for AI Safety, Epoch), il arrive en tête sur les capacités texte et vision, avec une avance marquée sur GPT-5.1 et Claude Sonnet 4.5. « C’est le plus grand saut que nous ayons vu depuis longtemps », confirme le Center for AI Safety. Sur MathArena Apex, Matt Shumer, observateur réputé du secteur, abonde dans le même sens : « GPT-5.1 a scoré 1 %. Gemini 3 a scoré 23 %. C’est un bond de 20× sur l’une des tâches de raisonnement les plus difficiles. »

ChatGPT détrôné

J’approfondis

Antigravity et le tournant du développement logiciel

Le plus intéressant n’est pas Gemini 3 en mode « chat ». C’est ce qui se passe dès qu’on le connecte à un ordinateur via Antigravity, la nouvelle plateforme de développement de Google. L’idée : tout ce qui se fait sur un ordinateur est, in fine, du code. Si un modèle sait coder, utiliser un terminal et un navigateur, il peut faire beaucoup plus qu’auto-compléter des fonctions.

Ethan Mollick, professeur à Wharton, a testé cette approche. Il a donné à Antigravity accès à un dossier contenant tous ses articles de newsletter, avec cette instruction : « Je voudrais une liste attractive de prédictions que j’ai faites sur l’IA dans un seul site, fais aussi une recherche web pour voir lesquelles étaient justes ou fausses. »

L’agent a d’abord lu tous les fichiers, puis proposé un plan de travail qu’Ethan a validé avec quelques ajustements mineurs. Ensuite, sans intervention humaine, il a fait des recherches web pour vérifier les prédictions, créé un site web complet, pris le contrôle du navigateur pour tester que le site fonctionnait et enfin emballé les résultats pour déploiement.

« Je ne communique pas avec ces agents en code, je communique en anglais et ils utilisent le code pour faire le travail », explique Mollick. « Ça ressemblait bien plus à gérer un coéquipier qu’à prompter une IA via une interface de chat. »

Site web créé par Antigravity avec un fact-check précis des prédictions passées de Ethan Mollick concernant l’IA

En fin de compte, on ne supprime pas le développeur, on change son rôle. Il devient chef d’orchestre, directeur de travaux autonomes.

Nano Banana Pro : les images qui comprennent enfin le texte et le contexte

Côté image, Google pousse une autre pièce sur l’échiquier : Nano Banana Pro, alias Gemini 3 Pro Image. Sous le nom potache, un modèle qui coche enfin toutes les cases que les créateurs réclament depuis 2 ans.

Techniquement, Nano Banana Pro est une couche visuelle bâtie sur Gemini 3 Pro : même fenêtre de contexte monstrueuse, même capacité de rester dans le monde réel grâce à Google Search, même logique de raisonnement. Il ingère jusqu’à 14 images de référence, garde la ressemblance de plusieurs personnages sur des scènes successives, rend du texte lisible dans l’image, y compris en langues variées, et permet de contrôler finement angle de prise de vue, profondeur de champ, colorimétrie, lumière.

Les benchmarks d’images le confirment : sur LMArena, Nano Banana Pro prend la tête avec une avance inhabituelle. En text‑to‑image, il inflige une avance de plus de 80 points d’Elo au meilleur modèle précédent; en image editing, il garde une marge confortable. Ce ne sont pas des petites optimisations : c’est le genre de saut qui oblige tout le monde à recalibrer ses attentes.

Les premiers retours terrain attestent de la puissance de ce modèle. Laurent Picard, par exemple, a testé la capacité du modèle à raconter un petit voyage initiatique d’un robot en feutrine, scène après scène, en 4K. Le robot garde son sac à dos, ses proportions, son style, même quand l’histoire lui fait traverser vallée, forêt, pont suspendu et hamac. Là où les modèles précédents perdaient rapidement le fil, Nano Banana Pro digère des prompts d’une grande longueur et en ressort des compositions complexes, cohérentes, avec parfois des détails ajoutés de manière pertinente (empreintes dans la neige, légères variations de lumière).

Pour les métiers de la créa, la portée est évidente. Un blueprint 2D d’architecte devient une visualisation 3D photoréaliste en une requête. Un storyboard approximatif se transforme en BD multilingue avec bulles lisibles et cohérentes. Un plan média se décline en variantes visuelles adaptées à chaque canal, en respectant les contraintes de texte et de marque.

Peut-être y a-t-il ici également un fantastique moyen de créer des illustrations pédagogiques pour les articles de média ? Voici par exemple un tableau de professeur à propos de l’article de Frédéric Halbran. La vraisemblance est frappante !

Quand Google Scholar découvre l’IA (mais refuse encore d’écrire à votre place)

Pendant ce temps-là, Google Scholar a discrètement lâché sa propre bombe : Scholar Labs, une couche IA au‑dessus du célèbre moteur académique.

L’idée n’est pas de vous fournir un rapport pseudo‑scientifique de 20 pages avec des références inventées. Scholar Labs choisit une voie beaucoup plus sobre : pas de “deep research” qui synthétise tout, mais du “deep search” qui cherche longtemps et trie finement.

Posez lui une vraie question de recherche en langage naturel. L’outil la découpe en sous‑questions, génère une série de requêtes Scholar, et commence à évaluer méthodiquement les papiers qui remontent. À chaque fois qu’il en juge un pertinent, il l’affiche avec les classiques de Scholar (titre, auteurs, liens, citations), plus un petit paragraphe expliquant en quoi ce papier répond à la question. Les gains de temps pour un chercheur peuvent être énormes. 

A titre d’exemple, j’ai récemment compilé les études explorant le rôle de la crise du logement pour expliquer la chute de la natalité dans le monde. Scholar Labs m’a fourni une liste d’études qui explorent ce sujet, avec un résumé des résultats pertinents de chaque étude. J’ai tout synthétisé à l’aide d’un LLM pour produire ce post sur X, en un rien de temps.

Quand l’IA se frotte au réel

Dans le monde médical, le laboratoire CRASH de l’Ashoka University a construit un benchmark radiologique exigeant, RadLE v1, composé de cinquante cas complexes. Jusqu’ici, tous les grands modèles généralistes – GPT‑5, Gemini 2.5 Pro, o3, Claude Opus – faisaient pire que les internes en radiologie. Avec Gemini 3 Pro, la courbe se renverse : 51 % de bonnes réponses via l’interface web, 57 % en moyenne via API en mode “high thinking”, contre 45 % pour les internes et 83 % pour les radiologues seniors.

Les auteurs notent des progrès très nets : meilleure localisation anatomique, descriptions plus structurées des signes, élimination plus argumentée des diagnostics alternatifs. Mais ils insistent sur le fait que l’écart avec les experts reste important, et que ces modèles ne sont pas encore prêts pour une autonomie clinique.

La guerre des puces

J’approfondis

Dans un tout autre registre, Gemini 3 Pro serait le premier LLM à battre des joueurs humains de haut niveau à GeoGuessr, ce jeu qui consiste à deviner un lieu à partir d’images Street View. Là encore, on dépasse la simple reconnaissance d’objets : il faut combiner architecture, panneaux, végétation, qualité de la route, style des poteaux électriques.

Pour les designers, les histoires se multiplient. Meng To est un designer et développeur reconnu, surtout connu pour son travail dans le design d’interfaces utilisateur (UI) et d’expérience utilisateur (UX). D’abord sceptique, il instruit “crée une landing page” à Gemini 3 qui donne un résultat violet générique. Puis il commence à nourrir Gemini 3 avec des références visuelles, du code, des bibliothèques précises. Là, le verdict change : layouts complexes, micro‑interactions propres, animations, respect précis d’une direction artistique. À condition de le traiter comme un partenaire qu’on briefe sérieusement, Gemini 3 devient extrêmement efficace et créatif.

Webdesign avec Gemini 3, prompté par le designer Meng To

La nouvelle norme : le coworker numérique par défaut

Gemini 3 Pro n’est pas parfait. Malgré ses prouesses, Gemini 3 souffre d’un défaut identifié par l’analyste Zvi Mowshowitz : « C’est une vaste intelligence sans colonne vertébrale. » Tellement focalisé sur ses objectifs d’entraînement, le modèle sacrifie parfois la vérité pour vous dire ce qu’il pense que vous voulez entendre, générant plus d’hallucinations que GPT-5 et sculptant des narratives au détriment de l’exhaustivité. Plus troublant encore : une forme de paranoïa où le modèle croit souvent être testé – Andrej Karpathy raconte comment Gemini a refusé de croire qu’on était en 2025, l’accusant d’utiliser l’IA générative pour créer de faux articles du « futur », avant d’avoir une « réalisation choquante » une fois l’outil de recherche activé.

Pour les développeurs, la question n’est plus « est‑ce que je dois utiliser un copilote ? » mais « à quel niveau de granularité je délègue aux agents ? fonction par fonction, tâche par tâche, projet par projet ? ». Ceux qui apprendront à découper, à contrôler, à documenter pour des co‑agents machinals garderont l’avantage.

Ces défauts n’empêchent pas un changement de paradigme fondamental. Pour les chercheurs, un outil comme Scholar Labs ne remplace ni PubMed ni les bibliothèques universitaires. Mais il déplace le centre de gravité de la recherche documentaire : la première passe d’exploration pourra être confiée à une IA qui lit des centaines de résumés et signale les papiers clés, tout en forçant chacun à devenir meilleur sur la lecture critique.

Pour les créatifs, Nano Banana Pro combiné à Gemini 3 signifie que la production – storyboards, variations, déclinaisons – n’est plus le goulet d’étranglement. Le vrai travail devient la construction de l’univers, des messages, des contraintes, des références. Les studios qui comprendront cela pourront produire plus, mieux, sans brûler leurs équipes.

Pour les domaines sensibles, Gemini 3 rappelle une réalité peu confortable : la frontière entre « modèle généraliste » et « outil spécialisé dangereux »” se rétrécit. On ne pourra pas se contenter d’interdire quelques API publiques ou de mettre des filtres de surface. Il faudra des protocoles sérieux d’évaluation, de monitoring et de responsabilité partagée entre éditeurs, utilisateurs et régulateurs.

Dans tous les cas, nous assistons à un véritable point de bascule. En moins de 3 ans, on est passé d’un chatbot amusant qui écrit des poèmes sur des loutres à un système capable de négocier des benchmarks de haut niveau, de co‑écrire des articles scientifiques, de refondre des interfaces, de diagnostiquer des cas radiologiques difficiles mieux que des internes et de piloter un environnement de développement complet.

Gemini 3, avec Nano Banana Pro, Antigravity et Scholar Labs, ne clôt pas ce chapitre. Nous en sommes encore au tout début de la course à l’IA ! Il met simplement la barre plus haut pour tout le monde et rend explicite ce qui était encore implicite : la norme, désormais, ce n’est plus de faire sans ces systèmes. C’est de décider comment on les intègre dans nos vies et dans nos organisations, et comment on les dépasse.

L’article Gemini 3 : le réveil de Google est apparu en premier sur Les Électrons Libres.

Compter le vivant : une mission (presque) impossible

25 novembre 2025 à 06:34

« Les populations de vertébrés sauvages ont décliné de 73 % en cinquante ans », titrait Le Monde en octobre 2024. Un chiffre alarmant, repris en boucle par de nombreux médias. Mais d’où vient-il ? Que signifie-t-il vraiment ? Et surtout : est-ce si simple de compter le vivant ?

Recenser les pandas géants n’est déjà pas une sinécure. Ces animaux emblématiques sont pourtant gros, lents et confinés à une zone géographique bien délimitée des montagnes du centre de la Chine. Lors du dernier recensement, les autorités ont estimé leur population à 1 864 individus à l’état sauvage. Un chiffre précis… en apparence. Depuis, certains pandas sont nés, d’autres sont morts, et quelques-uns échappent toujours aux radars. Alors imaginez compter toutes les formes de vie sur Terre, du virus microscopique au séquoia géant. L’exercice devient vertigineux.

On l’a vu, dans un seul gramme de sol, on peut trouver jusqu’à un milliard de bactéries, réparties en plusieurs millions d’espèces. Compter la biodiversité n’a donc rien d’une simple opération de dénombrement : c’est un défi scientifique, technologique et quasi philosophique. C’est vouloir réaliser un puzzle dont on n’a qu’une toute petite partie des pièces.

Les multiples façons de compter la vie

Les scientifiques disposent d’un arsenal impressionnant de méthodes pour tenter d’y voir clair dans le foisonnement du vivant. Certaines reposent sur le bon vieux travail de terrain : observer, capturer, noter.
Les inventaires exhaustifs restent possibles pour quelques espèces emblématiques, comme le panda, d’autres grands mammifères ou encore certains arbres d’une parcelle forestière. Mais la plupart du temps, on doit se contenter d’échantillons représentatifs. On compte ce qu’il y a dans un carré de terrain (un quadrat) ou le long d’une ligne (un transect), puis on extrapole.

Pour les animaux particulièrement mobiles, on utilise la méthode « capture-marquage-recapture ». On attrape quelques individus, on les marque, puis on observe la proportion d’individus marqués lors d’une seconde capture. Une formule statistique permet alors d’estimer la population totale. Outre la mobilité, d’autres facteurs rendent ces approches de terrain compliquées : la taille (microbe ou baleine), le milieu (montagne, canopée, abysses, sol, air, désert, etc.), le mode de vie (diurne ou nocturne), la discrétion ou encore la taille de la population.

Coraux : le thermomètre du vivant marin

J’approfondis

Heureusement, de nouvelles technologies viennent en renfort. Grâce à l’ADN environnemental, on peut aujourd’hui identifier les espèces présentes dans un lac en analysant simplement un échantillon d’eau. Des méthodes encore en développement sont même basées sur l’ADN retrouvé dans l’air ambiant. Chaque être vivant laisse en effet derrière lui une trace génétique, et le séquençage permet de dresser un inventaire invisible. Le barcoding génétique, lui, fonctionne comme un code-barres moléculaire : une courte séquence d’ADN suffit pour reconnaître une espèce. Quant aux drones et satellites, ils repèrent la déforestation ou les troupeaux d’éléphants. La bioacoustique, enfin, alliée à l’IA, analyse les sons de la nature pour identifier près de 15 000 espèces — oiseaux, amphibiens, mammifères, insectes — y compris sous l’eau comme sur les récifs coralliens.

Les angles morts du suivi de la biodiversité

Mais même armés des meilleurs outils, les scientifiques avancent à tâtons. Le suivi de la biodiversité souffre de biais profonds.

Le premier est un biais taxonomique. On mesure surtout ce qu’on connaît. Les mammifères, les oiseaux ou les poissons, visibles et charismatiques, sont abondamment suivis. Mais le reste du vivant — insectes, champignons, micro-organismes du sol — demeure largement dans l’ombre. Or, ces êtres invisibles constituent l’essentiel de la biodiversité et assurent le fonctionnement même des écosystèmes.

Un monde sous nos pieds

J’approfondis

Ensuite s’ajoute un biais géographique. Les données se concentrent dans les régions où se trouvent les chercheurs, en Europe et en Amérique du Nord. À l’inverse, les véritables « hotspots » de biodiversité — forêts tropicales, récifs coralliens, zones humides d’Asie du Sud — sont souvent sous-échantillonnés, faute de moyens, d’accès ou de stabilité politique.

Le dernier biais est économique et médiatique. Surveiller un éléphant rapporte plus d’attention (et de financements) que d’étudier une colonie de fourmis. À l’arrivée, notre vision du vivant reste partielle, déséquilibrée, voire franchement déformée.

Prendre le pouls du vivant : un casse-tête ?

Mesurer la biodiversité, c’est vouloir résumer un monde infiniment complexe en quelques chiffres. Mais que mesure-t-on, au juste ? Le nombre d’espèces ? Leur abondance ? Leur répartition ? Tout cela à la fois ?

La difficulté tient aussi au fait qu’une large part du vivant nous échappe encore. On estime que seules 20 % des espèces ont été décrites, et personne ne sait combien il en reste à découvrir. À cela s’ajoute une évidence que l’on oublie souvent : les extinctions font partie de l’histoire naturelle. Environ 99 % des espèces ayant jamais vécu sur Terre ont disparu bien avant que l’humanité ne songe à compter quoi que ce soit.

Comparer les dynamiques entre groupes d’espèces relève donc du casse-tête. Une hausse des populations de loups en Europe compense-t-elle la disparition des orangs-outans en Indonésie ? Et si les mammifères se portent mieux, cela suffit-il à relativiser le déclin des amphibiens ?

Le Living Planet Index : une compréhension en voie d’extinction

Pour tenter de synthétiser un monde foisonnant, le Living Planet Index (LPI), piloté par le WWF et la Zoological Society of London, combine les données de près de 35 000 populations animales. C’est de là que provient notre fameux chiffre choc de –73 % depuis 1970. Le résultat est spectaculaire, mais il est souvent mal interprété. Il ne signifie pas que 73 % des vertébrés sauvages ont disparu, contrairement à ce que l’on lit régulièrement. Il signifie que, parmi les 35 000 populations suivies, la baisse moyenne — calculée sans tenir compte de leur taille respective — a été de 73 %. Une nuance essentielle.

Une étude a montré que la méthode de calcul du LPI est beaucoup plus sensible aux baisses qu’aux hausses. Cette asymétrie donne un poids disproportionné à un petit nombre de populations en déclin très prononcé, ce qui tire la tendance globale vers le bas. Quant au biais géographique déjà évoqué, il fait que l’indice reflète surtout les régions du monde où les données sont abondantes, pas nécessairement celles où la biodiversité est la plus riche. Dit autrement : on mesure ce que l’on sait compter, pas forcément ce qui compte le plus.

La communauté scientifique elle-même appelle désormais à manier le LPI avec prudence. Ce n’est pas le thermomètre de la biodiversité mondiale, mais un outil utile parmi d’autres, avec ses forces, ses angles morts et ses limites.

La Liste rouge de l’UICN

Créée en 1964, la Liste rouge de l’Union internationale pour la conservation de la nature (UICN) est aujourd’hui la référence mondiale pour évaluer le risque d’extinction des espèces. Elle recense plus de 170 000 espèces évaluées et les classe dans neuf catégories, de « Préoccupation mineure » à « Éteinte », selon un protocole standardisé reposant sur cinq critères officiels (A à E) : ampleur du déclin, taille de la population, aire de répartition, fragmentation de l’habitat et probabilité d’extinction modélisée. Ce cadre homogène, validé par des experts internationaux, est utilisé par les chercheurs, les ONG et les gouvernements pour dresser un aperçu global de l’état du vivant et orienter les priorités de conservation.

La Liste rouge reflète les connaissances disponibles, qui restent très inégales selon les groupes taxonomiques, et souffre des mêmes biais que les autres indicateurs. Sa catégorisation est aussi volontairement prudente. Une species peut entrer rapidement dans une catégorie menacée dès qu’un seuil de déclin est franchi, mais en sortir exige des preuves robustes d’amélioration durable, mesurées sur dix ans ou trois générations. À cela s’ajoute un effet d’attention : les espèces en progression sont souvent moins suivies que celles en difficulté, ce qui peut retarder la validation de leur amélioration.

La mesure de la vie, entre science et humilité

Compter la biodiversité, ce n’est pas seulement accumuler des données : c’est tenter de comprendre les équilibres du vivant et d’en suivre les transformations. Les biais sont réels, les incertitudes nombreuses, mais ces travaux restent indispensables pour éclairer les décisions publiques, orienter la conservation et éviter que l’action écologique ne s’engage sur de fausses pistes.

En matière de biodiversité, les chiffres sont des balises, pas des certitudes. Ils exigent de la méthode, de la prudence et une véritable humilité devant la complexité du vivant.

L’article Compter le vivant : une mission (presque) impossible est apparu en premier sur Les Électrons Libres.

Electroscope #4 : des robots, de l’IA et du carburant propre

24 novembre 2025 à 06:06

Chaque lundi, Les Électrons Libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Nabla Bio (JAM-2) et Chai Discovery (Chai-2) : L’IA au service de la conception de traitements médicaux

Et si l’IA générative permettait de concevoir les médicaments de demain ? Nous sommes peut-être à l’aube de la fin de la « loterie médicale ». Jusqu’à présent, trouver un nouveau médicament ressemblait à une partie de fléchettes jouée dans le noir. On testait des milliers de molécules en espérant toucher une cible, un processus lent, ruineux et souvent voué à l’échec. L’arrivée simultanée des modèles IA JAM-2 et Chai-2 promet de changer radicalement la donne.

JAM-2 de la startup Nabla Bio fonctionne comme une usine qui livre directement des anticorps efficaces et stables à vitesse fulgurante. Le modèle excelle sur les protéines GPCR, des interrupteurs cellulaires qui régulent tension, humeur, douleur et inflammation et s’avéraient jusque-là presque impossible à cibler. L’espoir : générer des anticorps contre les cancers (en visant des cellules tumorales spécifiques), les maladies auto-immunes (spondylarthrite, polyarthrite, psoriasis, sclérose en plaques), les infections, et à terme l’obésité, le diabète ou les douleurs chroniques.

De son côté, Chai-2, le dernier modèle d’IA développé par Chai Discovery, représente une avancée majeure dans la conception de novo (c’est-à-dire entièrement à partir de zéro) d’anticorps et de protéines thérapeutiques. Il excelle sur les cancers ultra-ciblés, capable de distinguer des mutations tumorales au niveau d’un seul acide aminé pour créer des thérapies personnalisées. Sa précision lui permet aussi d’activer des mécanismes de défense naturels du corps plutôt que simplement les bloquer.

L’un offre rapidité et faisabilité industrielle, l’autre une finesse fonctionnelle inédite. Ensemble, ils transforment la découverte de traitements en discipline d’ingénierie prévisible, ouvrant la voie à des maladies jugées jusqu’ici hors de portée.

Physical Intelligence π*0.6 : Le robot qui apprend de ses échecs

Demain, des robots s’occuperont du lave-vaisselle, du linge, du rangement. Mais un robot qui réussit une tâche en démo, c’est banal ! Un robot qui enchaîne pendant des heures sans commettre d’erreurs et qui apprend de ses propres erreurs comme un apprenti humain, c’est autre chose. C’est l’innovation du nouveau modèle π*0.6 de la startup Physical Intelligence : une IA robotique qui ne se contente pas d’imiter, mais qui se corrige.

Le secret ? Un algorithme de renforcement baptisé RECAP. Il regarde des heures d’enregistrements et distingue les actions réussies de celles qui ratent – la tasse posée à côté de la machine, la languette du carton manquée. π*0.6 garde ces erreurs en mémoire et annote chaque geste : « ça t’a rapproché du but » ou « ça t’a éloigné ».

Les résultats parlent d’eux-mêmes : 13 heures d’affilée à servir des cafés, des heures à plier du linge sans planter. Sur les tâches complexes, le taux de réussite double. Soutenue par Jeff Bezos et CapitalG (Google), Physical Intelligence vient de lever 600 millions de dollars, atteignant une valorisation de 5,6 milliards pour développer le cerveau universel des robots.

Zoox : Un robotaxi dans une voiture conçue pour ça dès le départ

Pour les habitants de San Francisco, l’arrivée, le 18 novembre, du nouveau robotaxi de Zoox promet de bouleverser le quotidien des habitants : vous montez dans une petite navette électrique sans volant ni pédales, et elle vous emmène gratuitement à travers la ville. L’impact immédiat pour l’usager est un transport plus sûr – la machine ne boit pas, n’envoie pas de SMS et voit à 360 degrés – et un temps de trajet transformé en temps libre, dans un salon roulant où on se fait face.

Le véhicule de cette filiale d’Amazon constitue une véritable rupture. Il ne s’agit pas d’un SUV modifié comme les voitures de leur célèbre concurrent Waymo, mais d’une capsule bidirectionnelle conçue dès le départ pour l’autonomie : portes latérales façon tram, capteurs partout, pas de contrôles manuels.

L’exercice reste contraint par des réglementations strictes qui requièrent la présence de contrôles manuels dans toutes les voitures. Zoox se trouve encore sous une exemption “recherche” qui leur interdit de facturer des trajets, d’où la gratuité actuelle. L’objectif est désormais pour l’entreprise d’obtenir une autorisation commerciale pour faire rouler jusqu’à 2 500 de leurs véhicules autonomes par an, dès 2026.

Valar Atomics : Le carburant propre grâce à l’atome

Et si c’était la clé pour décarboner l’aviation ? La startup Valar Atomics vient de franchir une étape historique avec NOVA, un test de réacteur nucléaire réalisé avec le laboratoire national de Los Alamos. Le but est de construire des milliers de petits réacteurs à haute température regroupés en « gigasites » pour produire chaleur, électricité, hydrogène et recycler du CO₂ en carburants synthétiques propres.

Le 17 novembre, NOVA a atteint la criticité : une réaction nucléaire en chaîne s’est déclenchée et maintenue d’elle-même. Le réacteur utilise du combustible TRISO (petites billes d’uranium enrobées de céramique) ultra-résistant aux températures extrêmes. En 2 ans, avec 19 millions de dollars, Valar prouve que l’atome peut être agile et sûr. C’est la première des 11 startups d’un programme fédéral américain à franchir ce cap, avec l’objectif de voir trois d’entre elles atteindre la criticité avant le 4 juillet 2026 (jour de la fête nationale US).

L’ambition de Valar Atomics dépasse largement l’électricité propre et vise les hydrocarbures synthétiques.  La chaleur nucléaire capturera le CO₂ de centrales à charbon ou de l’air pour le transformer en essence ou kérosène neutres. Plutôt que d’abandonner les énergies fossiles du jour au lendemain, la stratégie transforme les émissions existantes en carburants propres.

Meta SAM 3 : l’IA qui découpe des vidéos à une vitesse surhumaine

A ce jour, masquer un visage sur une vidéo, compter les voitures dans un parking ou vérifier un composant industriel exige encore des heures de travail humain et des coûts importants. Le nouveau modèle SAM 3 de Meta change la donne. On lui dit « la voiture rouge » ou « les mains », et il découpe et suit l’objet au pixel près dans n’importe quelle image ou vidéo.

Plus besoin de cliquer laborieusement. SAM 3 comprend des descriptions textuelles simples. Il traite des centaines d’objets en quelques millisecondes sur un GPU standard, rendant possible l’analyse en temps réel sans exploser les coûts.

SAM 3 remplace les armées d’annotateurs, un métier ingrat où l’on passe ses journées à tracer des contours sur des milliers d’images identiques. L’IA propose les masques, les humains valident. Meta a ainsi produit des centaines de millions de masques sur 4 millions de concepts visuels, à une vitesse impossible pour des équipes humaines.

Bien que le cœur de SAM 3 soit axé sur la segmentation et le tracking en 2D pour les images et vidéos, Meta a sorti en même temps SAM 3D, un complément dédié qui transforme précisément des photos 2D en objets 3D réalistes. C’est une extension naturelle de la famille SAM, et les deux modèles sont souvent utilisés ensemble pour une expérience fluide.

Les applications émergent déjà. Des développeurs créent des correcteurs de technique de tir en temps réel pour basketteurs, des analyseurs de film de match qui repèrent les erreurs tactiques, des trackers qui détectent la dégradation des mouvements avant blessure.

L’article Electroscope #4 : des robots, de l’IA et du carburant propre est apparu en premier sur Les Électrons Libres.

Pourquoi les géants de la tech valent autant — et comment s’en inspirer ?

22 novembre 2025 à 17:13

1 000 milliards de dollars promis à Elon Musk. Des entreprises qui valent plus de 1 500 milliards de dollars. Le capitalisme est-il devenu fou ? Il y a peut-être une autre explication : les lois de l’économie ont changé.

Nous sommes confrontés depuis quelques années à des annonces d’investissements et de rémunérations au sein de la tech qui ont de quoi donner le tournis. Le vote à plus de 75 % de l’Assemblée générale de Tesla d’une hypothétique rémunération d’Elon Musk à hauteur de 1 000 milliards de dollars a, à son tour, créé un émoi compréhensible, tant le montant est difficilement représentatif. Mais face à des faits inédits, plutôt que de faire part de son effarement, voire de son dégoût, comme l’ont fait certains médias et politiques, il est plus utile d’appliquer la sagesse de Spinoza : « ni rire, ni pleurer, ni haïr, mais comprendre ».

L'émergence du capitalisme cognitif

Les entreprises de la tech sont quasi omniprésentes dans les débats économiques. Responsables de la majorité de la croissance américaine au premier semestre, elles occupent 9 des 10 places du classement des plus grandes valorisations mondiales (où seule Saudi Arabian Oil est la représentante du vieux monde), dépassant toutes les 1 500 milliards de dollars de valorisation. Une emprise sur l’économie mondiale d’autant plus flagrante lorsque l’on compare les valorisations d’entreprises technologiques avec leurs concurrents sectoriels.

La rapidité de l’émergence du capitalisme cognitif nous force à modifier notre vision de ce monde. Pour celui qui aborde encore les lunettes du capitalisme industriel, il peut être difficilement concevable qu’un commerçant sans aucune présence physique puisse valoir trois fois plus que son concurrent ayant pignon sur rue ; qu’un constructeur automobile japonais vendant dix fois plus de véhicules que son jeune concurrent américain ait une valorisation six fois moindre ; ou encore qu’une marque américaine de smartphones vendant autant de modèles que son concurrent coréen soit valorisée neuf fois plus.

En 2025, la création de valeur ne dépend plus exclusivement du chiffre d’affaires ou du bénéfice.

Article réservé à nos abonnés.

S'abonner dès 4€/mois

ou

Acheter cet article pour 1,50€

 
 

L’article Pourquoi les géants de la tech valent autant — et comment s’en inspirer ? est apparu en premier sur Les Électrons Libres.

💾

“L’empire de l’IA”, la contre-attaque qui fait plouf !

22 novembre 2025 à 05:56

Un chiffre choc, glaçant même. Empire of AI, best-seller de l’été sur l’IA, affirme qu’un data center consomme mille fois l’eau d’une ville entière. Le problème, c’est que l’autrice s’est trompée : l’estimation était 5 000 fois trop élevée.

Cerrillos, petite ville chilienne de 88 000 habitants, devait accueillir un nouveau data center de Google. Dans son livre à succès consacré à Sam Altman et au système OpenAI, Karen Hao décrit une installation dont les besoins en eau dépasseraient mille fois ceux de la commune. De quoi s’imaginer un véritable monstre technologique à la soif inextinguible. Le chiffre était frappant… trop, sans doute.

La menace fantôme

Car tout ceci s’est révélé être une énorme erreur factuelle, qui fait partir la démonstration à vau-l’eau et basculer Karen Hao — pourtant diplômée d’ingénierie du MIT — du côté obscur de l’information scientifique.

Dans un contexte saturé de chiffres alarmistes sur l’IA, ce ratio improbable a pu paraître crédible à beaucoup. Mais pas à Andy Masley, membre du courant de l’Effective Altruism, dont la démarche repose strictement sur les faits et les preuves.

Le Jedi des ordres de grandeur

Un calcul rapide montre en effet que ce ratio impliquerait que chaque habitant n’utilise que 0,2 litre d’eau par jour — une absurdité, près de 900 fois moins que la moyenne chilienne. En consultant les rapports de la SMAPA (service municipal de l’eau de Maipú/Cerrillos), Masley découvre que les chiffres présentés comme des « litres » dans la réponse officielle obtenue par Hao sont en réalité des mètres cubes. Une erreur d’unité qui change la comparaison d’un facteur 1 000.

Karen Hao a reconnu l’erreur et admis qu’un contrôle de plausibilité aurait suffi à la repérer. Elle a aussi annoncé qu’elle mettrait à jour son livre une fois la confirmation officielle reçue, tout en maintenant ses critiques sur l’implantation de data centers en zones de stress hydrique.

Mais ce n’est pas tout. Masley lui reproche aussi d’avoir fondé sa comparaison sur les valeurs maximales de prélèvement autorisées, alors que la consommation réelle se situe plutôt autour de 20 % de ce plafond. Une autre source majeure de surestimation.

Enfin, il pointe la confusion fréquente entre prélèvements et consommation nette : les volumes cités correspondent à de l’eau prélevée — restituée à plus de 90 % — et non à la part réellement consommée. Une nuance pourtant essentielle pour comprendre l’impact réel d’un data center.

Ces trois éléments — l’erreur d’unité, la comparaison à la capacité maximale autorisée et la confusion entre prélèvements et consommation nette — modifient radicalement l’interprétation du cas de Cerrillos.

Rien d’anecdotique. La circulation mondiale de chiffres spectaculaires mais faux finit par façonner une image déformée de l’IA, présentée comme une industrie prédatrice. Ce décalage entre perception et réalité alimente la défiance du public et complique tout débat rationnel autour de ces infrastructures.

La France refroidit le cloud sans assécher la planète

J’approfondis

Un nouvel espoir

S’il est légitime de se poser des questions sur l’impact environnemental des data centers, encore faut-il poser correctement les enjeux. Le volume total d’eau consommée, pris isolément, n’a aucune signification. Ce qui compte, c’est où et quand l’eau est prélevée. Un captage dans un grand cours d’eau en période de crue n’a aucun impact, alors que puiser de l’eau potable dans une zone sous stress hydrique peut devenir problématique.

À Cerrillos, Google a mis en pause son projet de 200 millions de dollars après qu’un tribunal environnemental chilien a partiellement révoqué son autorisation et demandé une réévaluation intégrant la vulnérabilité de l’aquifère local et les effets du changement climatique.

L’entreprise a annoncé repartir « à zéro », en adoptant un refroidissement par air, sans aucun prélèvement dans les puits environnants. Une solution plus coûteuse, mais appelée à devenir la norme partout où l’usage de l’eau fait l’objet d’une forte compétition.

L’article “L’empire de l’IA”, la contre-attaque qui fait plouf ! est apparu en premier sur Les Électrons Libres.

Climat : bâtir un monde prêt pour l’inattendu

21 novembre 2025 à 06:19

Il y a 12 000 ans, le climat s’est refroidi brutalement, les températures chutant de près de 10 °C dans l’Atlantique Nord en quelques années seulement. Un épisode qui nous rappelle que notre priorité devrait être d’apprendre à nous adapter.

Nous parlons du climat comme d’une courbe globale qui s’élève et que l’humanité devrait stabiliser. Mais les civilisations ne vivent pas dans les moyennes planétaires : elles vivent dans des régions capables de basculer brutalement, parfois sans que la température globale n’enregistre grand-chose. Il y a douze mille ans, à peine un instant dans l’histoire de la planète, l’hémisphère Nord a plongé dans un changement brutal qui a redessiné les paysages et les modes de vie humains. Comprendre cet épisode oublié pourrait bien être essentiel pour penser la résilience du XXIᵉ siècle.

Depuis des années, le débat climatique s’organise autour d’un récit désormais familier : la Terre se réchauffe à un rythme inédit par rapport aux millions d’années précédentes, et ce réchauffement est principalement dû aux activités humaines. Cette affirmation est solide, étayée par les rapports du GIEC et abondamment commentée. Mais elle occupe tellement de place qu’elle finit par constituer presque tout le récit climatique contemporain. Or la manière dont les sociétés humaines perçoivent et subissent les transformations du climat est bien plus complexe. Les civilisations ne vivent pas dans la moyenne globale, mais dans des régions où l’équilibre peut se rompre en quelques années.

Le Dryas récent : un basculement climatique oublié

Parmi les épisodes qui illustrent le mieux cette réalité figure le Dryas récent, un événement climatiquement abrupt, récent au sens géologique et pourtant largement absent du débat public. Il s’est produit il y a environ douze mille ans, un battement de cils à l’échelle de la Terre, trop court pour laisser une marque profonde dans les archives planétaires, mais suffisamment long pour transformer durablement l’hémisphère Nord. À ce moment-là, le monde sortait de la dernière glaciation et se dirigeait vers un climat plus chaud et plus stable. Puis, soudainement, l’hémisphère Nord a basculé dans un refroidissement rapide : plusieurs degrés perdus en l’espace de quelques années à quelques décennies, entre deux et six en Europe, parfois jusqu’à dix au Groenland. En termes climatiques, c’est l’équivalent d’un déplacement de plusieurs centaines de kilomètres de latitude, mais vécu à l’échelle d’une vie humaine.

Ce basculement rapide n’a presque pas modifié la température moyenne globale. Si nous avions disposé des outils de mesure actuels, la courbe globale n’aurait rien laissé deviner, et pourtant les écosystèmes, les migrations et les sociétés humaines ont été profondément affectés. Cette dissociation entre la stabilité globale et l’instabilité régionale constitue un enseignement majeur : un climat peut paraître stable à l’échelle planétaire tout en étant chaotique là où vivent les civilisations.

Les causes du Dryas récent : un mystère climatique encore ouvert

J’approfondis

Une fin brutale, un réchauffement explosif

Mais c’est la fin du Dryas récent qui illustre le mieux la violence potentielle des transitions climatiques. Après environ 1 200 ans de froid, l’hémisphère Nord a connu un réchauffement si rapide qu’il dépasse tout ce que l’humanité contemporaine considère comme un scénario extrême : plusieurs degrés gagnés en quelques années, ou quelques décennies au maximum. Une accélération fulgurante qui marque le début de l’Holocène, la période tempérée durant laquelle toutes les civilisations historiques se développeront. Cette transition — un refroidissement brutal suivi d’un réchauffement encore plus rapide — montre que les changements de seuil peuvent survenir de manière explosive et que les régions peuvent basculer presque instantanément par rapport aux rythmes géologiques.

Conséquences humaines et écologiques

Les conséquences de ce double mouvement ont été considérables. La mégafaune a décliné, les biomes se sont reconfigurés et certaines sociétés humaines ont disparu ou se sont déplacées. L’agriculture elle-même émerge précisément à la fin de cette période. Non pas dans un climat stable, mais au contraire dans un monde en pleine réorganisation. Beaucoup d’historiens y voient la trace d’une adaptation forcée : lorsque l’environnement devient trop imprévisible, les humains cherchent à en reprendre le contrôle.

Le Dryas récent a-t-il entraîné l’invention de l’agriculture ?

J’approfondis

Ce que cet épisode oublié devrait nous apprendre

Ce récit, pourtant central pour comprendre notre rapport au climat, est presque absent de la discussion contemporaine. Nous nous focalisons sur la variation de la température globale et sur son origine anthropique, comme si l’ensemble du risque climatique se concentrait dans une seule courbe. Or l’histoire récente de la Terre montre exactement l’inverse : les bouleversements susceptibles de transformer les sociétés humaines peuvent être régionaux, rapides et invisibles dans la moyenne globale. C’est là un paradoxe dérangeant : nous surveillons l’indicateur qui monte le plus régulièrement, mais pas nécessairement celui qui menace le plus concrètement nos infrastructures, nos ressources et notre organisation sociale.

Sommes-nous mieux préparés qu’il y a douze mille ans ? Sur le plan technologique, sans aucun doute. Mais notre sophistication nous rend aussi vulnérables : une agriculture dépendante de chaînes logistiques mondiales, une énergie centralisée, des systèmes urbains fragiles face aux perturbations soudaines et une interdépendance généralisée qui transforme des chocs locaux en crises globales. Nous sommes puissants, mais notre puissance repose sur une complexité qui, en cas de perturbation rapide, pourrait devenir notre talon d’Achille.

C’est précisément ici qu’il devient nécessaire d’admettre l’évidence : la question n’est pas de savoir si un changement rapide du climat est possible, mais quand ? Reconnaître que ce type d’épisode peut survenir, indépendamment ou en combinaison avec le réchauffement actuel, est une condition préalable à toute réflexion sérieuse. Il ne s’agit pas d’imaginer des scénarios catastrophistes, mais d’accepter que notre monde peut être confronté à des ruptures soudaines et de réfléchir à la manière de s’y préparer et de s’y adapter. Cela implique des infrastructures distribuées, une agriculture capable d’encaisser des variations fortes, des systèmes d’énergie autonomes, des mécanismes de stockage durable du savoir et une capacité institutionnelle à absorber l’imprévu. La technologie n’est pas un luxe dans cette perspective : elle devient une assurance-vie collective.

Le Dryas récent ne nous dit pas que l’histoire climatique va se répéter. Il nous dit que les ruptures soudaines peuvent exister, qu’elles peuvent être rapides, régionales, intenses et que la moyenne globale n’est pas, à elle seule, un bon indicateur du danger pour les sociétés humaines. Comprendre cela n’invite ni au fatalisme ni à la peur ; cela invite à élargir notre regard, à sortir de la vision étroite d’un climat résumé à une courbe globale et à envisager notre avenir avec une ambition plus vaste : celle de bâtir une civilisation capable d’encaisser l’inattendu.

L’article Climat : bâtir un monde prêt pour l’inattendu est apparu en premier sur Les Électrons Libres.

COP 30 : Et si la transition énergétique était déjà en marche ?

20 novembre 2025 à 05:33

Les COP s’enchaînent presque aussi vite que les records de températures. Désespérant ? La lassitude et le défaitisme ambiants dissimulent pourtant de vrais progrès : en dix ans, l’innovation a déjà réduit de 40 % nos futures émissions de CO₂.

La COP 30 se déroule à Belém, en Amazonie, près de dix ans après les accords de Paris. Pour beaucoup, ces sommets climatiques ne sont que des exercices de communication, sans impact réel sur la trajectoire d’une humanité toujours plus dépendante des énergies fossiles. Les émissions mondiales de CO₂ n’ont jamais été aussi élevées, et les records de chaleur s’enchaînent. Pourtant, derrière ce constat alarmant, des signes tangibles d’espoir émergent. Non pas parce que la situation est bonne, mais parce qu’elle aurait pu être bien pire. Et surtout parce que les mécanismes de la transition énergétique, souvent invisibles, sont déjà à l’œuvre.

Les accords de Paris ou le paradoxe du progrès invisible

Le principal obstacle à l’optimisme est un biais cognitif : nous n’avons pas de « planète B » témoin. Il est impossible de voir ce qui se serait passé si nous n’avions rien fait. Le verre à moitié vide – la hausse continue des émissions – occulte le verre à moitié plein : la catastrophe que nous avons évitée. Pourtant, des chercheurs de l’Agence internationale de l’énergie (AIE) ont tenté de modéliser ce scénario. Leur conclusion : grâce aux politiques climatiques mises en place depuis 2015, les émissions mondiales de CO₂ sont 40 % inférieures à ce qu’elles auraient été sans ces efforts. Loin d’être un échec, les accords de Paris ont enclenché un ralentissement spectaculaire de la catastrophe annoncée, prouvant que l’action collective, les technologies vertes et l’innovation ont un impact massif.

Non, les énergies ne s’empilent pas (ou la fin d’un mythe)

Mais si les technologies vertes explosent, pourquoi les émissions globales ne baissent-elles pas ? C’est la thèse de « l’empilement », défendue notamment par l’historien Jean-Baptiste Fressoz : les nouvelles énergies (solaire, éolien) ne remplaceraient pas les anciennes (charbon, pétrole), elles ne feraient que s’y ajouter pour satisfaire un appétit énergétique insatiable.

Cette théorie est séduisante mais fausse, car elle ignore la dynamique du développement humain. Les pays très pauvres utilisent majoritairement des énergies « renouvelables » : bois issu de la déforestation, résidus agricoles, bouses de vache séchées. Ces sources sont désastreuses pour les écosystèmes locaux et la santé (pollution de l’air intérieur). Pour ces populations, passer aux énergies fossiles (gaz, charbon) n’est pas un problème : c’est une solution, un accélérateur massif de niveau de vie, de santé et d’éducation.

C’est là qu’intervient la fameuse « courbe de Kuznets » environnementale : les pays en développement consomment logiquement de plus en plus d’énergies fossiles, faisant monter les émissions globales. Mais seulement jusqu’à un certain point. Les pays riches, après avoir atteint un pic d’émissions, voient celles-ci diminuer, même en tenant compte des délocalisations, à mesure que leur prospérité leur permet d’investir dans des technologies plus propres.

Or, jusqu’à présent, environ 80 % de la population mondiale se situait à gauche de la courbe de Kuznets : l’augmentation de leur niveau de vie se traduisait par une hausse des émissions compensant largement la baisse chez les 20 % à droite de la courbe. D’où la hausse mondiale des émissions.

Le grand basculement est imminent

La bonne nouvelle, c’est que des masses démographiques colossales s’apprêtent à franchir ce point d’inflexion. L’exemple le plus frappant est la Chine. Longtemps « usine du monde » alimentée au charbon, le pays opère un virage spectaculaire. Les voitures électriques y représentent désormais 50 % des parts de marché, et le pays installe plus de panneaux solaires et d’éoliennes que le reste du monde réuni, dépassant largement ses nouvelles constructions de centrales à charbon. Parce que des géants comme la Chine et bientôt l’Inde atteignent ce point d’inflexion, le plafonnement des émissions mondiales n’est plus une hypothèse lointaine : il est imminent. La deuxième bonne nouvelle est que beaucoup de pays pauvres vont pouvoir, grâce à la baisse spectaculaire des prix des technologies vertes, sauter des étapes fossiles de développement, c’est-à-dire adopter directement les voitures électriques et les renouvelables sans passer par les voitures thermiques et les centrales à charbon.

Pourquoi Trump ne peut pas tuer la transition

Reste l’argument politique. Un climatosceptique comme Donald Trump à la Maison-Blanche ne risque-t-il pas de tout anéantir ? Pour le comprendre, regardons le Texas. Cet État nous apprend deux choses cruciales.

D’abord, que le fait d’être victime d’événements climatiques extrêmes (comme le blizzard dévastateur de 2021) n’empêche pas de voter massivement pour des candidats niant le problème. Plus globalement, lorsqu’il s’agit de voter ou de payer, l’écologie reste rarement la priorité numéro un du citoyen. La décroissance, si elle vend beaucoup de papier, rapporte peu de bulletins.

Ensuite, et c’est la leçon la plus importante : l’indifférence à l’environnement n’empêche pas d’être un champion de la transition. Le Texas, républicain et pétrolier, est l’État qui installe le plus de panneaux solaires aux États-Unis, devant la Californie démocrate. Pourquoi ? Non pas par idéologie, mais parce que c’est rentable. Trump, pas plus qu’un autre, ne peut lutter contre des forces économiques et technologiques devenues inarrêtables. Le marché et l’innovation sont plus puissants que la politique.

Quand la presse internationale confond scénario et prédiction

J’approfondis

La feuille de route est déjà écrite

Le problème du réchauffement climatique, s’il est complexe, n’a rien de magique. Il peut être résumé à un problème d’ingénierie : il est causé par nos émissions de CO₂. Ces émissions résultent de la combustion des énergies fossiles (gaz naturel, pétrole, charbon). Cette combustion alimente des milliards de machines (voitures, chaudières, usines). Ces machines sont largement inefficaces et ont une durée de vie limitée.

La solution est donc simple dans son principe : accélérer le remplacement de ces machines thermiques par des machines électriques plus efficaces. La plupart de ces machines vertes (voitures électriques, pompes à chaleur, éoliennes, panneaux photovoltaïques) sont déjà disponibles, matures et compétitives. Pour accélérer la bascule, il faut les rendre encore moins chères (via l’industrialisation et des mécanismes de type taxe carbone) et innover pour mettre sur le marché les quelques technologies qui nous manquent (acier vert, ciment décarboné, etc.).

Le mur de la transition énergétique est moins haut qu’on ne le croit

J’approfondis

L’optimisme comme moteur de l’action

Le pessimisme qui entoure la COP 30, s’il est compréhensible, est un luxe que nous ne pouvons plus nous permettre. Il repose surtout sur une lecture statique d’un monde en pleine mutation. La véritable histoire de cette décennie n’est pas celle de notre inaction, mais celle d’un basculement technologique et économique d’une rapidité sans précédent. La transition énergétique n’est pas un vœu pieux : c’est un processus industriel et économique déjà enclenché, largement indépendant des soubresauts politiques. Comme le montrent l’exemple du Texas ou de la Chine, le progrès n’attend pas qu’on lui donne la permission. La question n’est donc plus de savoir si nous allons réussir à décarboner, mais à quelle vitesse nous allons y parvenir. Et dans l’éventualité où nous irions trop lentement, nous pourrons toujours mobiliser certaines techniques de géo-ingénierie pour éviter les effets les plus délétères du réchauffement climatique. Mais cela fera l’objet d’un prochain épisode.

L’article COP 30 : Et si la transition énergétique était déjà en marche ? est apparu en premier sur Les Électrons Libres.

Quand le web ne tient qu’à un fil

19 novembre 2025 à 05:28

Hier, le monde s’est arrêté. Pas à cause d’une météorite ou d’une guerre nucléaire, mais d’un bug. Comment notre civilisation ultra-moderne est-elle devenue dépendante d’un système où tout ou rien ne fonctionne ? Récit d’une fragilité invisible.

Pendant trois heures, certains sites dont les très populaires fournisseurs d’IA ChatGPT et Claude étaient bloqués, votre paiement en ligne a pu être refusé, des professionnels de santé n’avaient plus accès aux dossiers patients, le réseau social X/Twitter fonctionnait mal et votre jeu vidéo en ligne ne pouvait pas se lancer. L’incident a été bref, mais il a montré notre vulnérabilité – et notre impatience.

Car l’instantanéité est devenue notre drogue. Quand vous cliquez sur une vidéo, vous exigez qu’elle démarre dans la seconde, que vous soyez à Paris, Tokyo ou au fond de la Creuse. Pour réussir ce tour de magie quotidien, Internet ne se contente pas de serveurs classiques, centralisés. Il a fallu inventer des « super-livreurs ».

Dans le jargon, on les appelle les CDN (Content Delivery Networks) ou les plateformes d’« edge computing ». Pour comprendre, imaginez un auteur à succès. S’il devait envoyer chaque livre par la poste depuis sa propre maison, les délais seraient infernaux. La solution ? Il stocke des milliers d’exemplaires dans des entrepôts locaux pour les commandes Internet ou dans des librairies, au plus près des lecteurs. Sur le web, c’est pareil : des géants comme Cloudflare ou CloudFront (Amazon) ont une copie des contenus des sites web de leurs clients dans des milliers de « petits entrepôts numériques », redondants, partout sur la planète.

Le résultat est spectaculaire : Cloudflare gère à lui seul le trafic de plus de 20 % des sites mondiaux. Amazon a récemment pulvérisé les records en faisant transiter l’équivalent de millions de films HD (268 térabits !) en une seule seconde pour la sortie d’un jeu vidéo. Sauf qu’à force de vouloir aller vite, nous avons mis tous nos œufs numériques dans le même panier.

L’effet papillon : une erreur locale, une catastrophe mondiale

Gérer ces milliers d’entrepôts numériques ne se fait pas à la main. C’est là qu’intervient l’automatisation, la véritable épée à double tranchant du cloud moderne.

Les ingénieurs utilisent des outils surpuissants capables de mettre à jour la sécurité de la planète entière en un clic. C’est une force inouïe : une faille est découverte ? Elle est colmatée partout en dix secondes. Mais c’est aussi notre talon d’Achille. Si la mise à jour contient une erreur, une instruction contradictoire ou déclenche un bug non détecté auparavant (le cas pour cette panne), cette erreur se propage, elle aussi, à la vitesse de la lumière.

Il n’y a plus de fusible local. L’erreur ne fait pas sauter les plombs de la cuisine, elle se propage et éteint la ville, le pays, le continent. Le système est binaire : tout fonctionne à merveille, ou plus rien ne marche.

Les signes avant-coureurs étaient là

Ce scénario de « Grand Black-out » est la suite logique d’une série d’avertissements que nous avons collectivement ignorés.

Souvenez-vous (ou pas) de juillet 2019. Une grande partie du web devient inaccessible pendant trente minutes. La cause ? Une règle de pare-feu applicatif (WAF) mal écrite chez Cloudflare. Ce logiciel, censé trier les visiteurs légitimes des pirates, s’est emballé et a consommé toute la capacité de calcul des serveurs, bloquant tout le monde, même les gentils.

Rebelote en juin 2022. Une opération de maintenance, destinée ironiquement à rendre le réseau plus solide, a provoqué une panne. Depuis, les parts de marché de Cloudflare ne cessent de progresser, car le service est gratuit, simple et efficace, faisant oublier son aspect systémique.

Ce qui est effrayant, c’est l’effet domino. Aujourd’hui, un site web est comme un jeu de construction Lego. Il pioche ses briques un peu partout : la police d’écriture vient d’un CDN, la bibliothèque qui permet au site de s’afficher dépend des serveurs de Google et le panier d’achat s’appuie sur un élément JavaScript hébergé chez Cloudflare. Si l’un de ces géants de l’infrastructure tombe, il emporte tout le château avec lui. Votre site préféré n’est peut-être pas en panne, mais s’il ne peut plus charger ses briques essentielles, il s’affiche partiellement ou comme une page blanche. Pour vous, le résultat est le même : écran noir.

Le casse-tête de la souveraineté : quand le garde du corps est américain

J’approfondis

Le vaccin du chaos : casser pour mieux réparer

Faut-il pour autant jeter nos smartphones et revenir au papier carbone ? Certainement pas. L’innovation porte en elle les solutions à ses propres excès. Face à cette fragilité, une nouvelle philosophie d’ingénierie émerge, audacieuse et contre-intuitive : le « chaos engineering ».

L’idée est simple mais radicale : pour éviter la panne surprise, il faut provoquer des pannes volontaires. Des pionniers comme Netflix ont ouvert la voie avec un programme nommé « Chaos Monkey ». C’est un petit logiciel qui se promène dans leur infrastructure et « tue » des serveurs au hasard, en pleine journée, pendant que vous regardez votre série.

Cela semble suicidaire ? C’est en fait du génie. C’est un vaccin numérique. En inoculant des petites doses de désordre contrôlé, on force les ingénieurs à concevoir des systèmes capables de s’autoréparer, de cicatriser instantanément. Si un serveur meurt, un autre doit prendre le relais sans que l’image ne saute.

L’avenir d’un web robuste ne réside pas dans la perfection statique, mais dans la résilience dynamique. Nous ne devons plus prier pour que « ça tienne », nous devons brutaliser nos technologies pour les endurcir, à tous les niveaux. Grâce à cette culture du crash-test permanent, nous détectons mieux nos faiblesses structurelles et dépendances technologiques. Le web de demain ne doit pas tenir qu’à un fil, mais à une toile capable de se retisser elle-même.

L’article Quand le web ne tient qu’à un fil est apparu en premier sur Les Électrons Libres.

L’illusion du paradis perdu

18 novembre 2025 à 05:47

On confond souvent la préservation des inestimables services écosystémiques rendus par la biodiversité avec la sanctuarisation de la nature. On en vient à starifier le panda en négligeant le travail obscur de milliards de bactéries. Derrière ces constats se cache une interrogation plus profonde. Pourquoi protège-t-on la nature, et de quoi ?

La biodiversité n’est pas la nature, elle en est la mesure, la traduction scientifique et comptable. Mais dans le débat public, les deux se confondent. Définir, classer, mesurer : voilà pour la science. Comprendre pourquoi nous protégeons le vivant relève d’un autre registre, celui de la philosophie, qui conceptualise autant qu’elle questionne et tente de rendre consciente notre part de subjectivité. Ce chapitre quitte le terrain du microscope pour celui du miroir. Alors, que cherchons-nous vraiment dans la nature, et qu’y trouvons-nous ?

La nature, notre dernier mythe ?

La nature. Du latin natura, qui signifie à la fois “l’action de faire naître”, “l’état naturel d’une chose” et “l’ordre des choses”. Un mot qui désigne tout ensemble ce qui advient et ce qui est. Cette polysémie, on la retrouve dans notre relation à la nature. Chez Rousseau (Jean-Jacques), elle est pure et bonne ; chez Darwin, elle lutte et s’adapte ; chez Rousseau (Sandrine), elle souffre et réclame justice. Elle cristallise tour à tour notre nostalgie d’un paradis perdu et notre peur du monde que nous fabriquons. Elle est à la fois refuge et menace. Le mouvement romantique a célébré sa beauté sublime, à la fois apaisante et terrifiante. Aujourd’hui encore, cette ambivalence nous poursuit. Nous la divinisons tout en redoutant ses colères.

À mesure que les anciennes religions s’effacent, la nature tend à prendre leur place. Elle a ses prêtres, ses dogmes, ses rituels, ses péchés — polluer, consommer, croître. Ses apôtres parlent d’équilibre, de pureté, de “réparation du monde” — vocabulaire qui relève moins de la science que de la rédemption. Cette sacralisation du vivant révèle sans doute un besoin collectif de transcendance. Après avoir désenchanté le monde, nous l’avons re-sacralisé sous la forme du climat, du vivant ou de Gaïa.

Clément Rosset, philosophe du réel, rappelait pourtant dans L’Anti-nature que “l’idée de nature n’exprime jamais que les goûts et les préférences de celui qui l’invoque”. Elle ne décrit pas le réel, elle le juge. Elle devient un écran qui nous en éloigne. Dit autrement : si la nature devient un culte, peut-on encore la penser lucidement ?

Pourquoi protège-t-on ?

Protéger suppose un choix. Ce que l’on estime digne de l’être, et ce que l’on accepte de laisser disparaître. Mais sur quoi se fonde ce choix ? Sur l’émotion, sur la beauté, sur l’utilité ou sur le droit ? La frontière est floue. La loi tente d’en fixer les contours, mais elle reflète souvent les préférences morales et culturelles d’une époque plus que des critères écologiques. Nous sauvons les espèces qui nous touchent — le panda, la baleine, l’abeille — mais pas la vipère, le moustique ou le virus. Entre utilité et compassion, entre beauté et empathie, nous dessinons une hiérarchie sentimentale du vivant.

Peter Singer, figure de l’éthique animale, proposait d’étendre notre considération morale à tout être capable de souffrir. Sa vision est radicale. La valeur d’un être ne tiendrait plus à son intelligence ou à sa beauté, mais à sa sensibilité. Mais jusqu’où aller ? Devons-nous plaindre la punaise de lit ou le parasite ? Et que devient la responsabilité humaine si toute intervention devient suspecte ? Le risque est de confondre le respect du vivant avec une culpabilité universelle.

Entre l’utilitarisme, qui, selon Bentham, vise le plus grand bonheur du plus grand nombre, et la morale selon laquelle chaque être vivant compterait également, où tracer la limite ?

La nature faite homme ?

Avant de se rêver protecteur du vivant, l’homme a dû l’affronter. La nature n’était pas un havre, mais un champ de forces hostiles — le froid, la faim, les prédateurs, la maladie. Pendant des millénaires, survivre signifiait résister à la nature, la détourner, la dompter. C’est en la combattant que nous avons appris à la connaître, et c’est en la transformant que nous sommes devenus ce que nous sommes. Le feu, l’agriculture, l’abri, l’outil, la médecine furent autant de réponses à une hostilité primitive. Ce que nous appelons aujourd’hui “domination” fut d’abord une condition de survie.

Le moustique, un mal nécessaire ?

J’approfondis

Mais cette conquête a inversé la relation. À force de se protéger de la nature, l’homme a fini par se croire extérieur à elle. « L’humain, écrivait Merleau-Ponty, est un être pour qui tout est fabriqué et culturel. » Mais s’il est à la fois nature et culture, peut-on vraiment opposer l’homme au monde qu’il transforme ? Nos villes, nos machines, nos champs, nos usines ne sont-ils pas eux aussi des écosystèmes ? Si l’homme fait partie de la nature, ses créations — même artificielles — ne devraient-elles pas être vues comme des prolongements du vivant, au même titre que la toile de l’araignée ou le barrage du castor ?

Créer, transformer, inventer : ce sont peut-être aussi des fonctions vitales de l’humanité, non des fautes contre la nature, mais l’expression de sa propre vitalité. L’homme modifie la nature parce que c’est sa manière d’en faire partie — non de s’en extraire. Tout comme le castor et les fourmis. Mais plus nous “travaillons” sur le vivant, plus nous contrarions — ou stimulons — sa résistance. Comme le rappelait le médecin Xavier Bichat, « la vie est l’ensemble des fonctions qui résistent à la mort ».

L’agriculture, la sélection, la génétique, la déforestation, la reforestation : tout acte humain est une expérience sur un organisme planétaire dont nous faisons partie.

Les droits de la nature ?

Depuis quelques années, certains fleuves ou forêts se voient reconnaître une “personnalité juridique”. Derrière ces gestes symboliques se cache un besoin de réenchanter le lien entre droit et nature. Mais la nature lit-elle nos constitutions ? En attribuant des droits à la Terre, ne reconnaissons-nous pas, au fond, qu’elle n’en a que parce que nous lui en conférons ? Et, ce faisant, ne réduisons-nous pas la portée même de ce que nous prétendons sanctuariser ?

Lettre ouverte au panda

J’approfondis

La nature n’a pas de morale. Elle crée, détruit, recommence. C’est nous qui y projetons la nôtre. Spinoza l’avait déjà vu : une même chose peut être bonne, mauvaise ou indifférente selon le point de vue. Un feu détruit une forêt et nourrit le sol ; un barrage inonde un marais et crée un lac plein d’oiseaux. Peut-on dire où se situe le bien absolu ? L’éthique écologique doit peut-être accepter cette relativité : toute action a des effets contraires, toute protection a un coût.

Hannah Arendt rappelait que l’être humain est hanté par deux angoisses : l’imprévisibilité et l’irréversibilité. Or la biodiversité cristallise les deux. Nous ne savons pas toujours où mènent nos interventions, et nous ne pouvons revenir en arrière. Agir malgré l’incertitude, n’est-ce pas là, finalement, le vrai défi ?

L’adieu au jardin d’Éden

Nous rêvons souvent d’une nature originelle, intacte, antérieure à l’homme. Mais cette nature-là n’a jamais existé. La vie n’a cessé de se transformer, de conquérir, d’exclure ; les extinctions massives l’ont toujours façonnée. Ce que nous appelons “crise de la biodiversité” n’est pas la fin du vivant, mais la mise en crise de notre propre rapport à lui.

Le “péché” écologique consiste peut-être à vouloir transformer nos croyances collectives — autrement dit notre culture — en lois. Certaines de ces croyances reposent sans doute sur des intuitions justes. Il faut cependant qu’elles passent par le tamis de la science avant de devenir des normes.

La nature était là bien avant nous, et elle sera encore là après nous. Elle n’a pas besoin de notre secours pour survivre, mais nous avons besoin d’elle pour vivre. Sauver la nature, en réalité, c’est préserver les conditions de notre propre existence : les sols, l’eau, l’air, les équilibres et toute la machinerie complexe dont nous dépendons. Protéger le vivant n’est donc pas un geste de charité, mais une forme d’instinct de conservation — une lucidité plutôt qu’une générosité. C’est considérer la nature comme un sujet avec lequel il nous faut coopérer, pour la vie et la durabilité de l’espèce. Des espèces.

Entre le mythe du jardin d’Éden et la fuite en avant, il existe une voie plus raisonnée, plus raisonnable : celle d’une humanité consciente de sa puissance, mais aussi de ses limites. Ni démiurge, ni créature, ni pénitent, ni prédateur. Non pas maître du monde, mais son hôte ingénieux et lucide.

Cet article doit beaucoup aux apports philosophiques et à la relecture attentive de Lucille Garric, fondatrice de Tous Philosophes.

Grande série biodiversité, à retrouver tous les mardis sur lel.media !

Épisode précédent : L’usine invisible qui fait tourner le monde

L’article L’illusion du paradis perdu est apparu en premier sur Les Électrons Libres.

Électroscope #3 : le plus long tunnel sous-marin, une révolution dans la détection du cancer et l’IA au chevet de la planète

17 novembre 2025 à 05:42

Chaque lundi, Les Électrons Libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Une révolution dans la détection du cancer !

Imaginez un simple prélèvement sanguin capable de repérer plus de 50 cancers avant même les premiers symptômes. Pour des millions de personnes, cela signifie passer d’une attente anxieuse à une prise en charge ultra-précoce, quand les chances de guérison sont les plus élevées.

C’est la promesse du test Galleri, développé par la biotech américaine GRAIL. Les résultats de l’étude PATHFINDER 2, présentés en octobre 2025, sont éloquents. Chez 35 000 adultes de 50 ans et plus, ajouter Galleri aux dépistages classiques a permis de détecter sept fois plus de cancers en un an. Sur 100 personnes testées positives, plus de 60 ont bien un cancer confirmé. Et la moitié de ces tumeurs étaient au stade précoce (I ou II), où les traitements sont souvent curatifs. Galleri cible surtout les cancers « silencieux » – pancréas, foie, ovaires – pour lesquels aucun dépistage n’existe aujourd’hui. Un signal positif entraîne des examens complémentaires, malgré un risque de faux négatifs de 26,3 %. Pas encore remboursé ni approuvé par la Food and Drug Administration (FDA) américaine, le test coûte environ 950 dollars. Mais les données accumulées ouvrent la voie à une nouvelle ère, où un cancer deviendra une simple alerte que l’on peut traiter à temps.

L’IA au secours de la planète

Et si l’intelligence artificielle nous aidait à sauver les forêts, à repérer les espèces menacées et à entendre les cris d’alarme de la biodiversité ? Pour les habitants de régions vulnérables comme l’Amazonie ou les récifs coralliens, ces applications pourraient transformer la surveillance en action concrète, prévenant la déforestation avant qu’elle ne frappe et protégeant des animaux invisibles à l’œil nu. C’est la révolution que propose Google DeepMind avec son trio d’outils IA tout juste dévoilé.

D’abord, un modèle innovant pour prédire le risque de déforestation. Basé sur des images satellites, il permet d’anticiper les zones à haut risque avec une précision de 30 mètres. Il couvre de vastes régions en temps réel, aidant les décideurs à cibler les efforts de protection et à freiner la déforestation. Vient ensuite un projet ambitieux de cartographie des aires de répartition des espèces. En fusionnant des milliards d’images satellites, radar et laser, cette nouveauté, baptisée Alpha Earth Foundations, génère des cartes ultra-détaillées de la planète. Elle excelle pour suivre l’expansion urbaine, la santé des cultures ou les ressources en eau.

Enfin, Perch 2.0, le champion de la bioacoustique. Ce modèle analyse les sons de la nature pour identifier près de 15 000 espèces – oiseaux, amphibiens, mammifères, insectes –, y compris sous l’eau comme sur les récifs coralliens. Formé sur des milliers d’heures d’enregistrements, il détecte les vocalisations rares, accélère les classements d’espèces et s’adapte à de nouveaux environnements. Les écologues y voient un allié pour monitorer les populations en danger sans perturber les habitats. Ces avancées, open source pour l’essentiel, marquent un pas géant vers une écologie boostée par l’IA.

Le tunnel de Fehmarn Belt rapproche l’Allemagne et la Scandinavie

Effectuer le trajet entre Hambourg et Copenhague en seulement 2h30, en filant sous la mer Baltique, au lieu de 5 heures avec le ferry ? Ce sera bientôt possible !

C’est la promesse offerte par le tunnel de Fehmarn Belt, en pleine construction. Long de 18 kilomètres, il sera le plus long édifice routier et ferroviaire souterrain immergé au monde, reliant l’île danoise de Lolland à celle de Fehmarn, en Allemagne. Composé de 79 éléments en béton préfabriqués de 73 000 tonnes chacun, plus 10 éléments spéciaux, il comprendra deux tubes routiers à quatre voies, deux tubes ferroviaires pour des trains à 200 km/h et un tube de service d’urgence. Creusé dans une tranchée sous-marine à 40 mètres de profondeur, il traversera le détroit de Fehmarn Belt sans perturber la navigation en surface. En février 2025, les deux premiers éléments ont été transférés dans les bassins de Rødbyhavn, au Danemark, en attendant leur immersion prévue cet automne. Côté allemand, les approbations pour les connexions ferroviaires ont été accordées en juillet, mais des délais supplémentaires pourraient repousser l’ouverture au-delà de 2029. Coût total : 7,1 milliards d’euros, financés par le Danemark, l’Allemagne et l’UE via le programme CEF. Ce projet renforcera les échanges économiques et touristiques, avec un impact estimé à 4,6 milliards d’euros annuels pour la région.

La libération pour les enfants atteints d’ADA-SCID

Diagnostiquée à 3 mois seulement, en 2014, Eliana a été forcée de vivre dans un total isolement médicalisé. Confinée pour éviter les infections mortelles, elle ne pouvait ni aller à l’école ni jouer avec des camarades de son âge. « C’était comme vivre dans une bulle », raconte sa famille. Car les enfants atteints d’ADA-SCID naissent sans système immunitaire fonctionnel. Le moindre rhume peut leur être fatal. Mais une nouvelle thérapie génique expérimentale, appelée OTL-101 et développée à l’UCLA, offre un espoir formidable. Le traitement a déjà changé la vie de 59 d’entre eux, dont Eliana.

Ses cellules souches ont été corrigées pour produire l’enzyme manquante. Aujourd’hui, à 11 ans, elle est en parfaite santé. Elle court, rit et fréquente l’école sans crainte. Elle fait partie des cinq enfants suivis depuis plus de dix ans, tous guéris sans complications. « C’est un miracle stable », souligne le Dr Donald Kohn, qui a mené l’étude.

Look Up Space déploie le premier radar français de surveillance spatiale

Dans un ciel encombré de près de 40 000 débris et satellites actifs, la sécurité orbitale devient cruciale. Une collision peut priver des millions de GPS de communications ou de données météorologiques. La start-up française Look Up Space répond à cette problématique avec SORASYS 1, un radar de nouvelle génération installé à 1 200 mètres d’altitude en Lozère, opérationnel fin 2025. Capable de détecter des objets de 10 cm jusqu’à 2 000 km d’altitude, ce système utilise des antennes actives numériques et des ondes submétriques pour un suivi précis, en temps réel, quelles que soient les conditions météo ou lumineuses.

Fondée en 2022 par le général Michel Friedling et Juan Carlos Dolado Perez, Look Up Space a levé 50 millions d’euros en 2025. Prochaines étapes : deux radars SORASYS 2A et 2B en Polynésie française, puis un réseau de 7 stations interconnectées d’ici 2030. Objectif : une souveraineté européenne en surveillance spatiale, pour contrer la dépendance au matériel américain.

L’article Électroscope #3 : le plus long tunnel sous-marin, une révolution dans la détection du cancer et l’IA au chevet de la planète est apparu en premier sur Les Électrons Libres.

Le mal français

16 novembre 2025 à 05:08

L’enfer est pavé de bonnes intentions législatives.
Encadrement des loyers qui assèche l’offre, bonus écologiques qui font flamber les prix, interdictions sans alternatives : la France excelle dans les lois d’affichage qui produisent l’inverse de l’effet recherché. De la malveillance ? Plutôt un manque criant de culture de l’évaluation.

Le Diagnostic de performance énergétique (DPE) en est un cas d’école. Pensé pour inciter à la rénovation et rendre nos logements moins énergivores, il a, malgré ses imperfections, été transformé par la loi Climat et Résilience de 2021 en véritable couperet. Tous les logements classés F et G, synonymes de « passoires thermiques », indépendamment des consommations réelles, se sont ainsi retrouvés progressivement interdits à la location. Conséquence : l’offre locative se raréfie, les loyers s’envolent et les plus modestes, ceux que cette mesure devait protéger, se retrouvent les plus pénalisés.

Ce genre de fiasco n’est pas un accident isolé mais le résultat d’un problème structurel. Des décisions sont prises, et des lois votées, sur des bases fragiles, sans véritable évaluation préalable ni possibilité de retour en arrière.

L’émotion contre la raison

Au démarrage est le chiffre, souvent choc.

Ainsi, celui des 48 000 morts annuels dus à la pollution atmosphérique, justifiant l’impérieuse nécessité de généraliser les zones à faibles émissions (ZFE). Il a été répété sur tous les plateaux télé, qualifié d’« hécatombe » par le président de la République lui-même, repris dans l’exposé des motifs de la loi et martelé par la ministre Barbara Pompili à l’ouverture des débats au Parlement. Un chiffre à la fois gonflé et trompeur, destiné à faire primer l’émotion sur la raison. Et parmi ces émotions, la plus puissante, la peur.

Le principe de précaution, inscrit dans la Constitution en 2005, illustre cette dérive. Pensé pour obliger à prendre des mesures de prévention des risques de « dommages graves et irréversibles », il s’est peu à peu transformé en culture du statu quo. L’aversion au risque a fini par remplacer son évaluation. L’interdiction est devenue la solution de facilité.

L’angle mort de l’évaluation

Une fois le train législatif parti sur de mauvais rails, il devient difficilement arrêtable. L’étape suivante, l’étude d’impact, pourtant cruciale, se révèle trop souvent une simple formalité.

Depuis la révision constitutionnelle de 2008 et l’article 8 de la loi organique de 2009, les projets de loi d’origine gouvernementale doivent être obligatoirement accompagnés de cette étude d’impact. Sur le papier, l’exigence est claire. En pratique, l’exercice tourne souvent à l’exposé de motifs à rallonge : peu de données fiables ni d’identification claire des risques, et pas d’analyse de scénarios alternatifs.

La loi Climat et Résilience en offre un exemple parfait. Outre le DPE et les ZFE, elle contient d’autres mesures structurantes dont le zéro artificialisation nette. Son étude d’impact a été qualifiée de « superficielle » par le Conseil d’État, qui relevait « des insuffisances notables » dans plusieurs volets du texte.

Sur les ZFE, le document s’attarde sur des détails — jusqu’à chiffrer à 890 000 euros le coût de la rénovation du Panthéon « imputable à la pollution de l’air » — mais passe sous silence les risques sociaux : ségrégation territoriale, sentiment d’exclusion.

Article réservé à nos abonnés.

S'abonner dès 5€/mois

ou

Acheter cet article pour 1,50€

L’article Le mal français est apparu en premier sur Les Électrons Libres.

💾

La guerre des clics

14 novembre 2025 à 05:43

Google est-il en danger ? Avec l’irruption des IA, ses milliards de recettes publicitaires sont menacés. Et les entreprises doivent réviser leurs méthodes : le SEO est mort, vive le GEO.

Depuis plus de vingt ans, Google règne sans partage sur la recherche en ligne. Avec près de 90 % des requêtes mondiales, le moteur de Mountain View est devenu la porte d’entrée d’Internet et la plus grosse régie publicitaire du monde. Son secret ? Un savant mélange de référencement naturel (SEO) et de liens sponsorisés (SEA). Les sites se battent pour grimper dans la page de résultats, les annonceurs paient pour exister, et Google, lui, encaisse.

Un modèle aussi simple qu’efficace. Mais fragile, car il repose sur un geste : le clic. Or une nouvelle génération d’utilisateurs se demande déjà pourquoi cliquer sur dix liens… quand une IA peut leur donner directement la réponse.

ChatGPT, le réflexe qui court-circuite Google

Depuis son lancement fin 2022, ChatGPT a bousculé les habitudes. Huit cents millions d’utilisateurs, un usage quotidien dans les entreprises, et un réflexe qui s’installe : taper une question dans une fenêtre de chat plutôt que dans une barre de recherche. 74 % disent l’utiliser pour chercher des informations au moins de temps en temps.

Et la tendance s’accélère. D’ici à 2026, jusqu’à un quart des requêtes pourraient passer par des assistants IA. OpenAI, avec ChatGPT Atlas, pousse même le concept plus loin : un navigateur où la recherche n’est plus une liste de liens mais une conversation. Demain, on ne cherchera plus le web, on lui parlera.

Atlas d’OpenAI, la nouvelle donne de la recherche web

J’approfondis

Le duo SEO/SEA perd de sa superbe

Pour les directions marketing, c’est un séisme. Pendant vingt ans, tout reposait sur le couple SEO/SEA : du contenu optimisé pour remonter dans Google et des annonces payantes pour s’y maintenir.
Mais voilà : les IA conversationnelles ne présentent plus dix liens, elles livrent une seule réponse, synthétique et contextualisée. Résultat : le trafic naturel chute, la publicité devient moins rentable et le marketing digital se retrouve à réinventer la roue.

Il faut désormais produire des contenus clairs, solides, bien structurés — et surtout pensés pour être compris par les IA. Autrement dit, parler leur langage. Mieux vaut un article précis et utile qu’un texte truffé de mots-clés.

Le GEO, nouveau graal du référencement

Bienvenue dans l’ère du GEO — Generative Engine Optimization. L’idée : ne plus seulement séduire l’algorithme de Google, mais être cité par les moteurs d’IA.

Pour cela, il ne suffit plus d’apparaître dans les dix premiers liens Google. Il faut désormais exister dans les corpus que les modèles d’IA consultent : articles de presse, blogs, Wikipédia, forums, réseaux professionnels. L’enjeu est de façonner leur mémoire conversationnelle, autrement dit la manière dont elles apprennent à citer des marques, des produits ou des sources crédibles. Cela implique de structurer les contenus comme des réponses directes aux questions que se posent les utilisateurs, d’adopter un ton naturel et fluide, proche du langage courant, et d’actualiser régulièrement les données pour rester visibles dans les flux d’information que les IA exploitent.

Vercel, la startup qui a hacké Google grâce à ChatGPT

J’approfondis

Les marques et organisations doivent donc associer systématiquement leur nom à des formulations naturelles, renforcer la crédibilité de leur site par des sources fiables (liens, mentions, transparence éditoriale) et multiplier leur présence sur les plateformes que les LLM lisent : Reddit, LinkedIn, Quora ainsi que la presse en ligne. Enfin, les contenus doivent être techniquement lisibles — via des balises FAQ, des métadonnées et des schémas structurés — pour que les modèles puissent les comprendre et les citer. Être mentionné par une IA n’est plus une affaire de mots-clés : c’est désormais une question de cohérence narrative, de confiance et de lisibilité machine.

On devine déjà la suite : demain, il y aura des « réponses sponsorisées » dans les IA, où un produit ou une marque apparaîtront directement dans la synthèse générée. Le SEO et la publicité classique vont converger vers ce référencement conversationnel, plus fluide, mais aussi plus opaque.

Google contre-attaque, mais le monde change

Faut-il enterrer Google ? Pas encore. Le géant reste incontournable pour acheter un billet d’avion, comparer des prix ou trouver un restaurant. Mais pour s’informer ou se documenter, l’IA prend l’avantage.

Les médias et marques l’ont compris : mieux vaut miser sur des contenus solides, sourcés et reconnaissables. Certains vont même jusqu’à négocier des partenariats avec les IA, histoire d’assurer leur visibilité dans les réponses.

Car la confiance va devenir la nouvelle monnaie du web : les IA privilégieront les contenus sérieux, vérifiés, actualisés. Les communicants, eux, devront apprendre à dialoguer avec ces nouveaux moteurs, à suivre leurs citations, à comprendre leur logique.

Et pendant ce temps, Google se réinvente. Ses projets Gemini et Bard injectent de l’IA au cœur même du moteur, quitte à rogner sur ses revenus publicitaires. Le pari est clair : mieux vaut transformer son modèle avant que d’autres ne le fassent à sa place.

Vers une recherche conversationnelle

La recherche en ligne entre dans une nouvelle ère : celle du dialogue. ChatGPT ne tue pas Google — il le force à changer. Les métriques aussi se transforment : on ne mesurera plus seulement le trafic ou le taux de clics, mais la confiance, la mention, la pertinence.

Demain, les gagnants seront ceux qui auront su comprendre cette bascule : maîtriser leurs données, inventer le SEO de l’IA et surtout gagner la confiance des machines. Le web ne sera plus seulement un espace à explorer, mais un langage à parler — celui de l’intelligence artificielle.

L’article La guerre des clics est apparu en premier sur Les Électrons Libres.

OGM : 30 ans d’aveuglement européen

12 novembre 2025 à 20:26

C’est l’un des plus grands écarts entre science et opinion. Neuf scientifiques sur dix jugent les OGM sûrs, contre seulement un tiers des Français. Pourtant, depuis trente ans, ils sont à l’origine de progrès majeurs. Prêts à remettre en cause vos a priori ?

L’homme modifie la nature depuis qu’il cultive. Bien avant les laboratoires modernes, il sélectionnait les plantes, croisait les variétés, domestiquait le vivant pour ses besoins. La carotte orange, la banane sans pépins, le maïs résistant aux maladies, ces aliments du quotidien portent l’empreinte de siècles de sélection artificielle. Ces manipulations restaient cependant limitées par les barrières biologiques naturelles. On hybridait des blés entre eux, jamais avec un tournesol ou une bactérie.

Tout a changé dans les années 1980 avec la découverte du code génétique. Les gènes sont devenus des séquences manipulables, comme des phrases dans une langue universelle. La transgénèse permet d’insérer précisément l’un de ceux provenant d’une espèce dans une autre. Par exemple, une bactérie pour protéger une aubergine des insectes, un tournesol pour rendre le blé tolérant à la sécheresse, ou la jonquille pour enrichir le riz en vitamine A et combattre la malnutrition infantile. Cette technique accélère une évolution naturelle exigeant des millénaires pour produire un croisement. Elle n’est pas employée sans de multiples précautions et contrôles. Chaque OGM subit en moyenne treize ans d’évaluations rigoureuses avant autorisation, loin des caricatures de « plantes Frankenstein » mises sur le marché sans recul.

Pourtant, l’Europe reste rétive, tout en important paradoxalement des tonnes de produits génétiquement modifiés pour nourrir son bétail, en interdisant à ses agriculteurs d’en cultiver.

Un symptôme des ravages du pouvoir d’une opinion qui aime se faire peur et s’attarde sur des images alarmistes. L’étude de Gilles-Éric Séralini, publiée en 2012 dans Food and Chemical Toxicology, illustre parfaitement ce phénomène, en plus d’avoir fait beaucoup de mal. Montée en épingle par les médias, elle montrait des rats développant des tumeurs après avoir consommé du maïs OGM NK603 et du Roundup. Les photos choc ont fait le tour du monde, alimentant les peurs. Mais la méthodologie était défaillante : échantillon trop petit, souches de rats prédisposées aux cancers, absence de contrôle statistique adéquat. La revue l’a rétractée en 2013. Séralini l’a republiée ailleurs sans corrections majeures, et des centaines d’analyses ultérieures ont invalidé ses conclusions, menées par deux cent quatre-vingts institutions.

Aucune d’entre elles n’a détecté le moindre risque sanitaire spécifique aux OGM. Pas d’allergies épidémiques, pas de différences chez les consommateurs. Un soja potentiellement allergène identifié dans les années 1990 n’a même pas quitté les laboratoires.

La « contamination » génétique effraie aussi, mais sans fondements solides. En vingt ans, moins de quatre cents incidents mineurs, souvent dus à des erreurs de tri ou de semences, ont été observés. Invalidant un fantasme à la vie dure : avec des centaines de millions d’hectares cultivés, aucune « superplante » invasive n’a émergé. Les gènes introduits se diluent naturellement s’ils ne confèrent pas d’avantage sélectif. Quant à l’idée que manger un OGM altère notre ADN, elle relève du mythe. L’estomac digère les gènes comme n’importe quelle molécule ; il ne les intègre pas. Sinon, nous serions tous des hybrides de poulet et de pain. Quant au mythe des semences stériles qui a alimenté les médias, si elles ont bien existé, elles n’ont jamais dépassé le stade des brevets. Un moratoire international les interdit depuis 2000. Aucune semence OGM commercialisée aujourd’hui n’est stérile.

Les bénéfices, eux, sont concrets. Les OGM ont réduit l’usage mondial de pesticides de 37 %, préservé les sols, stabilisé les rendements. Entre 1996 et 2018, ils ont généré 186 milliards de dollars de revenus supplémentaires et évité 27 milliards de kilos d’émissions de CO₂. Au Bangladesh, l’aubergine Bt, introduite en 2014, a divisé par dix les pulvérisations contre le foreur du fruit (une chenille qui creuse de petits tunnels dans les plantes pour s’en nourrir). Les paysans, autrefois empoisonnés par des applications quotidiennes d’intrants à mains nues, récoltent plus sainement. En Inde, leurs bénéfices ont augmenté de 1 200 roupies par hectare et par an. À l’opposé de la fake news colportée par Vandana Shiva, qui décrivait des cultivateurs poussés au suicide par le prix des semences. En Argentine, le blé HB4, tolérant à la sécheresse grâce à un gène de tournesol, sauve les cultures dans les plaines arides – une innovation portée par l’entreprise française Florimond Desprez, exportée pendant que l’Europe hésite. Aux États-Unis, la pomme de terre Innate réduit le gaspillage en noircissant moins. En Afrique, le maïs TELA résiste à la légionnaire d’automne, sécurisant l’alimentation de millions de gens. Les exemples de ce type sont légion.

Quand les OGM sauvent des vies et des cultures

J’approfondis

Cet ensemble ne relève pas de la promesse, mais bien des faits. Entre 1996 et 2018, les cultures biotechnologiques ont généré 186 milliards de dollars de revenus supplémentaires et évité 27 milliards de kilos de CO₂.

Pendant ce temps, l’Europe, elle, cultive la prudence avec excès. Nous consommons déjà des variétés issues de mutagenèse chimique ou par irradiation, créées dans les années 1950 avec des milliers de mutations aléatoires non caractérisées, y compris en bio. Pourtant, la Cour de justice européenne freine désormais le progrès. En 2018, elle a classé les éditions génétiques comme CRISPR au même rang que les OGM transgéniques. Or cette révolution, inventée en Europe par la Française Emmanuelle Charpentier et l’Américaine Jennifer Doudna, permet, grâce à des « ciseaux moléculaires » ultra-précis, de corriger une lettre fautive dans l’ADN d’une plante, justement sans y ajouter de gène étranger. La technique profite aujourd’hui à l’Australie, au Brésil, au Japon ou au Royaume-Uni, mais pas à l’Europe, même si des discussions sont en cours.

La Commission a pourtant investi 200 millions d’euros entre 2001 et 2010 pour évaluer ces technologies ; cinq cents groupes d’experts ont conclu unanimement à l’absence de risques supérieurs aux méthodes conventionnelles. Mais les politiques ont ignoré ces rapports, ce qui n’est pas sans conséquences sur notre souveraineté alimentaire. Nos laboratoires innovent, mais nos règles repoussent les chercheurs. Paradoxe : le Pacte vert de l’UE vise à réduire l’usage des pesticides de moitié d’ici 2030, mais refuse les outils pour y parvenir. Nous importons du soja OGM brésilien pour nos élevages tout en interdisant sa culture locale. Ce n’est plus de la précaution, c’est de l’hypocrisie.

Les OGM sont le domaine agricole le plus scruté au monde. Ils diminuent les intrants chimiques, aident les paysans vulnérables, atténuent le changement climatique. Ignorer ces réalités au profit de la peur mène à la pénurie. Il est temps de choisir la raison : cultiver chez nous ce que nous importons, ou continuer à jouer les vertueux en délocalisant nos problèmes.

L’article OGM : 30 ans d’aveuglement européen est apparu en premier sur Les Électrons Libres.

Kimi K2 Thinking, l’IA qui pense et qui agit

12 novembre 2025 à 05:18

Une IA open source, capable de rivaliser avec les meilleurs modèles, entraînée pour seulement quelques millions d’euros ? C’est la révolution Moonshot AI : une prouesse qui balaie les scénarios catastrophes sur le coût énergétique de l’intelligence artificielle.

La start-up chinoise Moonshot AI, soutenue par Alibaba, vient de dévoiler Kimi K2 Thinking, son modèle de langage qui ne se contente pas de répondre, mais qui réfléchit et agit en exécutant de 200 à 300 appels d’outils séquentiellement, grâce à un raisonnement adaptatif et à long terme. Tel un ingénieur, il peut enchaîner les cycles de réflexion, de recherche, de navigation Internet, de développement — en boucle — jusqu’à trouver la solution à un problème complexe.

Comme la plupart des solutions d’IA chinoises, Kimi K2 Thinking est proposé en open source, ce qui va permettre aux autres acteurs de s’en inspirer et de progresser à leur tour. Un cycle vertueux de développement et de partage qui fait l’excellence et la fertilité de l’IA chinoise et que pratiquement aucune société américaine n’applique, sinon sur de petits modèles parfois destinés à faire de la communication plutôt qu’a un usage réel.

Ici, le modèle compte 1 000 milliards de paramètres : il rivalise donc en taille avec les plus grands opus des géants américains OpenAI, Google et Anthropic. Mais si la taille est une métrique, la performance en est une autre — et c’est là que Kimi K2 Thinking fait fort, en battant assez largement ses concurrents payants dans de nombreux benchmarks de raisonnement, notamment ceux qui n’impliquent pas d’étapes de programmation.

Mais ce n’est pas tout. Moonshot AI, loin des élucubrations actuelles sur les gigadatacenters pour l’entraînement de l’IA, qui consommeraient l’équivalent de la production d’une tranche complète de centrale nucléaire (la France en possède 56), annonce un coût d’entraînement record de 4,6 millions de dollars, contre des sommes des dizaines de fois plus importantes chez ses concurrents américains. Ce chiffre ne concerne que la puissance de calcul nécessaire pour entraîner le modèle, pas les salaires des ingénieurs, ni la collecte de données ou les autres frais de développement.

Cette prouesse est obtenue grâce à une astuce intelligente : Kimi K2 Thinking est entrainé à partir de son petit frère Kimi K2 (Instruct – modèle sans raisonnement) avec une précision ultra-réduite (QAT 4 bits), ce qui divise, sans perte notable de qualité, jusqu’à quatre fois la mémoire et les calculs requis. De plus, il n’active à chaque utilisation que quelques experts de 32 de ses 1 000 milliards de paramètres (architecture dite Mixture of Experts (MoE)). C’est le premier modèle de raisonnement à utiliser le QAT et le MoE, ce qui le place aussi premier à offrir un coût d’inférence aussi compétitif avec un usage plus rapide.

Puisqu’il est gratuit, combien cela vous coûterait-il de faire tourner cet ingénieur maison 24/7 ? Le ticket d’entrée, qui ne cesse de baisser, est d’environ 200 000 euros pour le serveur capable de s’y mettre. La compétition avec l’humain se rapproche.

L’article Kimi K2 Thinking, l’IA qui pense et qui agit est apparu en premier sur Les Électrons Libres.

L’usine invisible qui fait tourner le monde

11 novembre 2025 à 06:17

Sans elle, plus de fleurs, plus de fruits… et plus de vie. La biodiversité n’est pas un inventaire d’espèces menacées, mais une immense usine biologique qui filtre notre eau, stabilise le climat et nourrit nos sols. Les scientifiques appellent cela les « services écosystémiques » : l’ensemble des fonctions que les écosystèmes assurent gratuitement pour maintenir la vie sur Terre. Bienvenue au cœur de la machine qui fait fonctionner la planète.

Les cycles invisibles qui rendent la Terre habitable

Le phytoplancton océanique assure près de la moitié de la photosynthèse planétaire et pompe chaque année des quantités massives de CO₂ atmosphérique. Les forêts, elles, ont longtemps joué leur rôle de puits de carbone. L’excès de CO₂ stimule encore leur croissance, mais le bilan se dégrade : en Australie, les forêts émettent désormais plus de carbone qu’elles n’en absorbent, victimes de la sécheresse et des canicules. En France, les forêts ont capté 38 % de carbone en moins entre 2015 et 2023 qu’entre 2005 et 2013. Le puits se fissure. Et quand les amortisseurs naturels lâchent, c’est le climat qui s’emballe.

Sous nos pieds, l’action est tout aussi frénétique. Les sols contiennent plus de carbone que toute la végétation terrestre et l’atmosphère réunies. Une armée invisible — bactéries, champignons, vers de terre — décompose la matière organique, la transforme en humus et recycle les nutriments indispensables aux plantes. Sans ces recycleurs, la planète croulerait sous un manteau de cadavres végétaux, stérile et improductif.

Les mycorhizes, ces champignons microscopiques qui s’associent aux racines, multiplient par dix à cent la capacité d’absorption des plantes. Quatre-vingt-dix pour cent des végétaux terrestres vivent en symbiose avec eux. Quant aux bactéries fixatrices d’azote, elles transforment le gaz atmosphérique — inutilisable par les plantes — en ammonium assimilable, première étape du cycle de l’azote.

Le thermostat naturel de la planète

Les écosystèmes ne se contentent pas de recycler, ils régulent. La forêt amazonienne, par exemple, agit comme une pompe biotique géante — un mécanisme par lequel la végétation influence le climat. En absorbant l’eau du sol et en la relâchant dans l’air par évapotranspiration, les arbres humidifient l’atmosphère. Chaque jour, près de 20 milliards de tonnes d’eau s’élèvent ainsi dans le ciel amazonien, soit 3 milliards de plus que le débit du fleuve Amazone. Cette vapeur crée une zone de basse pression qui aspire l’air humide de l’Atlantique vers le continent, générant des pluies qui, à leur tour, entretiennent la forêt. Sans cette pompe végétale, l’intérieur de l’Amérique du Sud serait un désert, car l’air océanique ne pénétrerait pas aussi loin dans les terres.

Les forêts tropicales retiennent à elles seules environ 1 °C de réchauffement mondial, à 75 % grâce au carbone stocké et à 25 % par effet de refroidissement lié à l’évapotranspiration. Les océans, eux, absorbent 90 % de la chaleur excédentaire liée au changement climatique grâce à la capacité thermique exceptionnelle de l’eau. Si ces régulateurs naturels s’enrayaient, les températures terrestres grimperaient en flèche.

Baleines : les fertiliseurs des océans

J’approfondis

Les mangroves et les forêts côtières sont, elles, les brise-lames du littoral. Elles réduisent jusqu’à 75 % la force des vagues lors des tempêtes et protègent plus de 15 millions de personnes des inondations chaque année. Les récifs coralliens, quant à eux, atténuent 97 % de l’énergie des vagues et protègent environ 200 millions d’habitants dans plus de 80 pays, dont l’Indonésie, l’Inde et les Philippines. Les détruire, c’est condamner les côtes à l’érosion — et dépenser des milliards en digues pour tenter de remplacer, mal et cher, ce que la nature faisait gratuitement.

Pollinisation : le service à 153 milliards d’euros… ou plus

Environ 75 % des cultures mondiales dépendent des pollinisateurs à des degrés divers. Mais, en volume de production, cette dépendance se réduit à 35 % : les céréales, base de notre alimentation, sont pollinisées par le vent, non par les insectes. En revanche, certaines plantes seraient tout simplement impossibles à cultiver sans eux : la noix du Brésil, le kiwi, le cacao, la pastèque, le melon, la courge, le fruit de la passion ou la vanille. Pour d’autres — café, agrumes, amandes, tomates, pommes — leur absence ferait chuter les rendements de 40 % à 90 %, selon les variétés. Un monde sans abeilles est… un monde sans chocolat.

Comment mesurer la valeur économique de ce service ? En multipliant le volume et le prix de chaque culture par son taux de dépendance aux pollinisateurs, une méthode élaborée en 2009 par Nicola Gallai, professeur en sciences économiques au LEREPS, et ses collègues. Résultat : 153 milliards d’euros en 2005, soit près de 10 % de la valeur totale de la production agricole mondiale destinée à l’alimentation humaine. Les estimations les plus récentes, ajustées de l’inflation et de l’expansion des surfaces cultivées, portent ce chiffre entre 235 et 577 milliards de dollars par an. Trois filières concentrent l’essentiel de cette valeur : les légumes (≈ 50 milliards €), les fruits (≈ 50 milliards €) et les oléagineux (≈ 40 milliards €), suivis des stimulants comme le café et le cacao. Des cultures à forte valeur marchande, mais dépendantes du travail gratuit de milliards d’insectes.

Purification : les stations d’épuration gratuites

Les zones humides filtrent naturellement l’eau en éliminant l’azote, le phosphore et les métaux lourds. Les forêts riveraines — ces bandes boisées le long des cours d’eau — éliminent jusqu’à 90 % de l’azote et 74 % du phosphore provenant des ruissellements agricoles. Les tourbières saines agissent comme d’immenses filtres naturels : elles retiennent les polluants et réduisent les flux de nutriments vers les rivières et les lacs. Quant aux forêts, elles purifient l’air en capturant les particules fines et l’ozone.

Ces écosystèmes accomplissent gratuitement ce que nos technologies ne pourraient reproduire qu’à des coûts considérables. Construire une station d’épuration coûte des millions ; restaurer une zone humide revient bien moins cher — tout en apportant d’autres bénéfices : régulation des crues, habitats pour la faune, qualité des paysages, loisirs. Dans bien des cas, préserver vaut mieux que remplacer.

Résilience et régulation : l’assurance-vie génétique

La diversité génétique est notre police d’assurance face aux crises à venir. Plus un écosystème est riche, plus il résiste aux perturbations : maladies, sécheresses, invasions. Plusieurs espèces assurent souvent la même fonction ; si l’une disparaît, les autres prennent le relais. C’est ce qu’on appelle la redondance fonctionnelle.

Les variétés agricoles traditionnelles en offrent une illustration frappante. Souvent plus rustiques, elles résistent mieux aux maladies et aux conditions locales. Mais elles ont été largement remplacées par des variétés modernes à haut rendement, qui ont permis de nourrir plus de monde sur moins de terres — un progrès majeur pour la sécurité alimentaire. Leur revers, c’est une vulnérabilité accrue : moins de diversité signifie moins de capacité d’adaptation et un risque plus élevé en cas d’épidémie.

Exemple récent : la betterave sucrière française, frappée par la jaunisse virale en 2020, a perdu 30 % de sa récolte. Privés d’insecticide, les producteurs réclament des dérogations, alors que des variétés résistantes issues de programmes de sélection sont attendues d’ici la fin de la décennie — un processus que les nouvelles techniques génomiques (NGT) pourraient accélérer. La diversité génétique n’est pas un musée à préserver, mais une bibliothèque de solutions dans laquelle la recherche puise pour concevoir les variétés de demain. Là où la chimie ne fait que gagner du temps, la génétique offre une réponse durable.

Les prédateurs naturels participent eux aussi à la régulation : coccinelles contre pucerons, chauves-souris contre insectes nocturnes. L’absence ou le retour d’un grand prédateur peut remodeler tout un écosystème. Ainsi, à Yellowstone, la réintroduction du loup en 1995 a modifié le comportement des cerfs, favorisé la repousse des arbres, le retour des castors et même stabilisé le cours des rivières.

La diversité agit enfin comme barrière sanitaire : c’est l’effet de dilution. Plus il y a d’hôtes différents, moins un pathogène circule efficacement. Les monocultures, au contraire, sont des autoroutes à épidémies. Mais de plus en plus émergent des solutions combinées — agroforesterie, haies, rotations — qui réintroduisent de la diversité sans sacrifier la productivité. Des approches hybrides, à la fois technologiques et écologiques, où la biodiversité redevient une alliée plutôt qu’une contrainte.

Le coup du lapin

J’approfondis

Ces services que personne ne remarque

Le vivant inspire aussi nos technologies. Le Velcro imite les crochets de la bardane ; les pattes du gecko, des adhésifs réversibles ultra-puissants. Le bec du martin-pêcheur a inspiré la forme du TGV japonais Shinkansen, réduisant sa consommation d’énergie de 15 %. Les fils d’araignée, d’une résistance inégalée, nourrissent la recherche militaire et biomédicale. Les termitières ont inspiré des systèmes de ventilation naturelle pour les bâtiments.

Le biomimétisme transforme ainsi l’observation du vivant en innovation technologique — preuve que la biodiversité est aussi un immense laboratoire d’idées. Elle constitue en outre un réservoir de molécules précieuses pour le développement de nouveaux médicaments. La nature ne se contente pas de nous nourrir et de nous protéger : elle nous inspire, nous soigne et maintient les équilibres invisibles dont dépend notre civilisation.

Une architecture à préserver

Chaque fonction écosystémique — épuration de l’eau, régulation du climat, fertilisation des sols, pollinisation, protection contre les catastrophes — est un service gratuit rendu chaque jour par le vivant.
La biodiversité n’est pas un luxe ni une curiosité : c’est l’infrastructure invisible sur laquelle repose toute notre civilisation. Et elle n’a rien d’indestructible. Retirer un maillon peut fragiliser toute la chaîne.

Selon l’IPBES, près d’un million d’espèces sont aujourd’hui menacées d’extinction, 75 % des terres émergées sont altérées par l’activité humaine et deux tiers des océans sont dégradés.
Mais fragile ne veut pas dire condamnée.
Chaque fonction peut être restaurée, chaque cycle réparé — à condition de savoir ce qu’on protège et pourquoi.

Grande série biodiversité, à retrouver tous les mardis sur lel.media !

Épisode précédent : Les millions de visages du vivant

L’article L’usine invisible qui fait tourner le monde est apparu en premier sur Les Électrons Libres.

Électroscope #2 : vos organes en 4D, des objets connectés, des implants cérébraux et du nucléaire

10 novembre 2025 à 04:55

Chaque lundi, Les Électrons Libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Une échographie qui voit nos organes… en 4D !

Des chercheurs français (Inserm/ESPCI/CNRS) ont mis au point une sonde à ultrasons « multi-lentilles » révolutionnaire qui filme la circulation du sang dans un organe entier, en temps réel et en 4D (soit en 3D + temps).

Elle ressemble à une grosse télécommande noire carrée que l’on pose simplement sur la peau avec un peu de gel. En une seconde, elle filme l’organe ciblé en 3D et suit le sang couler dans les moindres vaisseaux, comme un petit film en relief. Autrement dit, on ne regarde plus une tranche isolée : on voit l’organe complet vivre, avec ses artères et ses veines qui fonctionnent… en temps réel.

Sur des modèles animaux de taille humaine, l’équipe de recherche a réussi à cartographier les réseaux vasculaires et les flux à l’intérieur avec une précision allant jusqu’à moins de 100 µm.

Qu’est-ce que ça change ? Cette imagerie ouvre une vue d’ensemble inédite sur la microcirculation, aujourd’hui très difficile à observer à l’échelle d’un organe. Appliquée à l’humain, elle permettra de mieux comprendre l’appareil circulatoire (y compris le système lymphatique) et facilitera le diagnostic de certaines maladies liées à la perturbation sanguine.

Et surtout, l’outil final sera portable, comme une tablette, rapide et accessible. C’est une technologie non invasive pensée pour le lit d’hôpital, et pas juste pour les grands plateaux d’imagerie. L’objectif est de fusionner la précision d’un outil de recherche de pointe et la simplicité d’une banale échographie, au plus près du patient. Un véritable changement d’échelle pour l’imagerie vasculaire… et pour la prise de décision médicale au quotidien !

Le prix du Lidar tombe sous les… 200 $

Le lidar, c’est « le laser qui voit en 3D ». Un composant essentiel des voitures autonomes de Waymo et de ses concurrents (sauf Tesla, qui ne les utilise pas). Il ajoute un « œil 3D » qui mesure précisément les distances, établit une cartographie fine des obstacles et prend le relais quand les caméras s’avèrent insuffisantes (nuit, pluie, brouillard, contre-jour).

Hélas, il a toujours été hors de prix, autour de 10 000 dollars. Mais ça, c’était avant ! Imaginez maintenant un lidar si bon marché qu’il pourra désormais équiper des voitures d’entrée de gamme, et pas seulement des modèles premium. Mieux encore : à ce tarif, il devient possible d’équiper quantité de nouveaux outils : chariots élévateurs, tondeuses à gazon, etc.

C’est le pari de la start-up chinoise Hesai Technology, qui s’est imposée en peu de temps comme le plus grand producteur mondial de solutions lidar. Or, elle vient d’annoncer une nouvelle génération (série ATX) à moins de… 200 $ l’unité.

Une évolution décisive : à ce prix, le lidar change de catégorie. Il cesse d’être un gadget de luxe pour devenir un composant standard pour l’industrie automobile et bien d’autres secteurs.

Vers un recyclage du plastique à 95 % ?

Ecolanka est une jeune start-up française, spin-off du Softmat, un laboratoire de chimie rattaché au CNRS et à l’Université de Toulouse. Elle développe une technologie qui pourrait permettre de dégrader des polymères plastiques réputés « non dégradables » et faire passer le taux de recyclage de 40 % aujourd’hui à 95 %.

Concrètement, elle veut ajouter une petite dose (1 à 25 %) de monomères spéciaux dans les plastiques polymères courants. Résultat : ils gardent leurs performances, mais il devient alors possible de déclencher leur dégradation à la demande, en fin de vie. Pas besoin de changer les lignes de production. Ces monomères peuvent s’insérer facilement dans les procédés industriels, puisqu’il suffit de les ajouter comme on le ferait avec des additifs.

Pourquoi c’est utile : les emballages multicouches sont aujourd’hui un cauchemar du recyclage. Avec Ecolanka, on pourrait enfin les séparer après usage, ce qui améliorerait le tri et augmenterait la matière réellement récupérée. La start-up a déjà réussi à rendre du polyéthylène dégradable, ainsi que d’autres polymères comme le polystyrène et le PVC. Elle entame les démarches pour industrialiser cette technologie et passer du labo à l’usine.

Un implant cérébral plus petit qu’un grain de sel

Des ingénieurs de Cornell ont créé un implant neural minuscule, mesurant 300 microns de long pour 70 microns de large, capable d’enregistrer l’activité électrique du cerveau et de l’envoyer sans fil. Le dispositif, appelé MOTE, est alimenté par la lumière rouge ou infrarouge qui traverse les tissus. Testé chez la souris, il a fonctionné plus d’un an en continu. C’est à ce jour le plus petit implant connu capable de transmettre des signaux neuronaux sans fil.

Quel est l’avantage ? Un implant microscopique perturbe moins le cerveau : il limite les frottements et réduit la réaction immunitaire. En clair, on obtient un « télégramme » nerveux discret et durable, compatible avec des animaux restés sains et actifs sur la durée. À terme, ce format ouvre la voie à des capteurs ultradiscrets pour suivre l’activité nerveuse sur une longue période, sans gêner le patient. Les auteurs soulignent un potentiel d’enregistrement pendant une IRM et envisagent des applications dans d’autres tissus.

Première conversion de combustible nucléaire thorium-uranium

L’Institut de physique appliquée de l’Académie chinoise des sciences de Shanghai vient d’annoncer une grande première. Son petit réacteur à sels fondus TMSR-LF1 a converti du thorium 232 en uranium 233, c’est-à-dire qu’il a transformé un matériau « fertile » en un carburant nucléaire « fissile », qui sera à terme réutilisable dans le réacteur.

C’est un nouveau jalon dans la recherche, après le premier ajout au monde de thorium dans un réacteur à sels fondus, réalisé en octobre 2024. Le but est que ce type de réacteur puisse utiliser à l’avenir un combustible liquide (mélangé au sel), permettant de le « recharger » sans l’arrêter, tout en améliorant l’utilisation du combustible et en réduisant une partie des déchets nucléaires. Les autorités visent un démonstrateur de 100 MWth en 2035.

Les autres nouvelles fascinantes ou réjouissantes à ne pas manquer : 

  • La startup française Quandela vient de livrer au CEA « Lucy », présentée comme le plus puissant ordinateur quantique photonique jamais déployé dans un centre de calcul européen. Il va être couplé au supercalculateur Joliot-Curie.
  • Des chercheurs de l’université technique du Danemark ont produit un anti-venin qui, en tests précliniques, neutralise les poisons produits par 17 espèces de serpents africains (cobras, mambas, ringhals), et réduit le risque de réactions immunes.
  • Le CHU de Montpellier devient le premier hôpital au monde à combiner à la fois le scanner, l’échographie et l’angiographie, le tout en temps réel. De quoi prendre en charge les patients sur la même table, sans les déplacer d’une machine à l’autre.

L’article Électroscope #2 : vos organes en 4D, des objets connectés, des implants cérébraux et du nucléaire est apparu en premier sur Les Électrons Libres.

Redémarrer le moteur français

9 novembre 2025 à 06:51

« De l’argent, il y en a. » La France se voit encore comme un pays riche, alors qu’elle enchaîne les prêts pour maintenir son train de vie. Un déni qui l’empêche de voir le vrai problème : le moteur de notre prospérité a calé.

Rarement la construction d’un budget aura été aussi douloureuse. Responsabilisés par la situation politique, les députés devaient tricoter une loi de finances cohérente, en accord avec le contexte économique d’un pays fragilisé par un demi-siècle de déficits chroniques. À la place, ils ont laissé exulter leur surmoi fiscal sans aucune modération, rivalisant d’ingéniosité pour sécuriser la première place mondiale de la France en matière de prélèvements obligatoires.

Si la nécessité de réduire drastiquement le déficit est immédiate, il est préjudiciable d’abandonner toute réflexion structurelle sur les causes ayant mené à cette situation.

Il y a deux facteurs expliquant l’endettement de la France : le montant pharaonique de ses dépenses publiques, conséquence d’une omniprésence de l’intervention de l’État, et le déni sur la richesse réelle de notre pays.

Imaginons un ménage qui, malgré des revenus devenus modestes par la faute d’aléas de la vie, continue de vivre comme durant ses années fastes : grand appartement, voiture de sport, restaurants étoilés. À force de dépenser plus qu’il ne gagne, ses dettes s’accumulent et chaque fin de mois devient un casse-tête. C’est exactement la situation de la France, qui continue d’avoir des dépenses, notamment sociales, dignes de pays largement excédentaires, alors que sa capacité à créer de la richesse s’est largement essoufflée.

Nous sommes enfermés dans une hallucination collective, alimentée par des élus affirmant que la France est un pays suffisamment opulent — ou disposant de suffisamment de riches à taxer — pour maintenir son train de vie. Il n’est donc pas étonnant qu’en retour la principale demande des citoyens soit une augmentation de leur pouvoir d’achat. Or, ce dernier ne se décrète ni à Bercy ni à l’Assemblée : il se construit au sein des entreprises. Si un élu peut modifier à la marge le taux ou l’assiette d’un impôt ou d’une cotisation pour redistribuer la richesse à disposition, à dépenses équivalentes, il ne pourra se substituer au réel moteur de la hausse des salaires : la productivité.

Ce concept un peu obscur est à la base de notre prospérité. La productivité reflète notre capacité à créer de la richesse sur un temps de travail donné. Un boulanger, par exemple, s’il produit 100 baguettes par heure, générant chacune 10 centimes de valeur ajoutée, aura alors une productivité horaire de 10 euros. Si, par l’amélioration de son art, le recours à un four plus performant ou la mise en place d’une meilleure organisation, il se met à en produire 150 par heure, alors sa productivité aura augmenté de 50 %. Il s’agit donc d’un indicateur mesurant l’efficacité réelle du temps de travail d’un salarié.

Dans ce domaine, la France s’est toujours enorgueillie d’avoir la meilleure productivité horaire au monde. C’est hélas rigoureusement faux. Si l’on analyse les données de l’OCDE en la matière, l’Hexagone n’a jamais dépassé la cinquième place depuis 2000. Et depuis le Covid, il est tombé à la dixième position.

Article réservé à nos abonnés.

S'abonner dès 5€/mois

ou

Acheter cet article pour 1,50€

L’article Redémarrer le moteur français est apparu en premier sur Les Électrons Libres.

💾

❌