Vue normale

Reçu aujourd’hui — 1 juillet 2025Les Électrons Libres

Taxe Zucman : prendre aux riches n’est pas donner aux pauvres

1 juillet 2025 à 04:21

Taxer les milliardaires, c’est toujours populaire. Surtout en période de tensions budgétaires. L’idée de les faire payer davantage semble à la fois logique, morale, voire réparatrice. Pourquoi, après tout, un boulanger devrait payer plus d’impôts sur ses revenus (en proportion) qu’un milliardaire ? C’est ce sentiment d’injustice fiscale que la « taxe Zucman » prétend corriger. Au risque d’appauvrir tout le monde ?

Son principe : imposer un minimum de 2 % du patrimoine pour les très grandes fortunes – à partir de 100 millions d’euros. La logique est redoutablement séduisante : si vous avez 1 milliard d’euros de patrimoine, et que vous ne payez qu’un petit million d’impôt sur le revenu et un autre d’IFI, il vous reste trop, beaucoup trop. La taxe Zucman propose de prélever 2 % de ce magot chaque année. En l’occurrence ici : 18 millions de plus à verser à l’État.

Une mesure qui ne concernerait principalement que quelques centaines de foyers, mais qui, selon ses promoteurs, rapporterait beaucoup. De quoi financer une partie des retraites ou sauver quelques services publics en souffrance. Une sorte de contribution républicaine. Ciblée, juste, symbolique. Presque indolore.

Saper les piliers de la prospérité ?

Si l’idée est politiquement irrésistible, économiquement, elle se révèle beaucoup plus fragile. D’une part parce qu’elle repose sur des hypothèses discutables (Cf. encadré), surtout parce que ses effets sur l’investissement, l’innovation et la croissance pourraient se retourner contre l’intérêt général.

Les riches payent-ils trop peu d’impôts ?

J’approfondis

Commençons par l’investissement, car c’est peut-être le point le plus préoccupant de cette taxe. L’économie a besoin de capitaux patients. De personnes qui mettent leur argent dans des projets risqués, innovants, incertains. Ce sont souvent eux — business angels, fondateurs, investisseurs familiaux — qui financent les start-ups, les biotech, les cleantech, etc.

Or la taxe Zucman frappe exactement ce type de capital. Celui qui ne distribue rien, qui mise à long terme, qui accepte de perdre dix fois pour gagner une fois. En imposant ces fortunes sur la simple détention d’actifs, on les contraint à désinvestir ou à externaliser leurs fonds. Un « business angel » qui voit son rendement amputé de 2 % par an peut tout simplement investir ailleurs. Une start-up française à la recherche de financement se retrouvera face à des investisseurs plus frileux, ou à des exigences de rendement plus élevées. C’est le financement de l’innovation qui trinque.

Et cette fragilisation n’est pas théorique. Une fiscalité trop lourde sur le capital a des conséquences concrètes : moins de créations d’entreprises, moins de levées de fonds, moins d’emplois qualifiés créés. Et donc, à terme, moins de croissance.

Le patrimoine est souvent illiquide. Pour payer la taxe, certains contribuables devraient vendre des parts, chaque année. Cela pèse sur les marchés, fait baisser la valeur des actifs, et réduit mécaniquement l’assiette de l’impôt. Un cercle pas très vertueux. On peut accepter une forme de redistribution. Mais encore faut-il qu’il y ait quelque chose à redistribuer.

La morale ne remplit pas les caisses

L’autre grand écueil de la taxe Zucman, c’est l’évasion par le haut. Si la mesure n’est appliquée qu’au niveau national, elle risque tout simplement d’encourager les plus riches à changer de pays, délocaliser leur patrimoine, ou restructurer leurs holdings à l’étranger. Les grands patrimoines sont mobiles, les fiscalistes inventifs, et la concurrence fiscale reste bien réelle. Pour éviter ces effets de fuite, la taxe devrait au moins être européenne.

Mais cette perspective, si elle est théoriquement séduisante, reste hautement improbable à court terme. La récente tentative de mettre en place un impôt mondial sur les multinationales, par exemple, a déjà montré les limites de la coopération internationale. Alors espérer une taxe coordonnée sur les ultra-riches ? Il faudrait un degré d’accord politique inédit.

Du danger des idéaux

Enfin, il faut garder en tête quelques proportions, car, de fait, la taxe Zucman, même dans les scénarios les plus optimistes, ce n’est pas non plus le grand soir. Ses partisans parlent de 20 milliards d’euros par an. En admettant même que cela n’ait aucun effet sur la croissance, on est très loin des 140 milliards d’euros de déficit prévu pour 2025.

La taxe Zucman envoie un signal. Elle incarne un idéal. Mais puisqu’elle s’appuie sur des hypothèses contestables, elle risque surtout d’avoir des effets délétères. La vérité est plus brutale : la soutenabilité budgétaire passe aussi par des choix plus profonds, moins idéalistes, parfois plus impopulaires. C’est une affaire collective, pas seulement morale, car on ne fait pas de la bonne politique avec du ressentiment.

L’article Taxe Zucman : prendre aux riches n’est pas donner aux pauvres est apparu en premier sur Les Électrons Libres.

Reçu avant avant-hierLes Électrons Libres

Antisémitisme, l’éternel retour

29 juin 2025 à 22:35

Qui aurait imaginé il y a encore quelques années que l’antisémitisme reviendrait en force au cœur de nos sociétés ? Sans doute personne. Pourtant, il est bien de retour. Suralimenté par le terrible conflit post 7 octobre 2023. Mais pas seulement. Il reprend les clichés qui ont traversé les siècles et semblent, hélas, éternels.

En 1945, la découverte de l’horreur des camps nazis avait frappé de tabou l’antisémitisme politique. Mais quatre-vingts ans plus tard, au moment où s’éteignent les derniers survivants de la Shoah, transformant le judéocide en Mémoire, la haine anti-juive submerge à nouveau le monde.

Loin d’emprunter des concepts nouveaux, cet antisémitisme politique ressuscité renouvelle les tropes antisémites déclinés au fil de l’histoire. Sous une apparence originale, les accusations d’endogamie, de double allégeance (entre Israël et le pays de résidence), de pouvoir occulte, de dissolution des sociétés environnantes, de génocide, de vols d’organes, de troubles de la virilité, de perversion sexuelle, font écho à des diffamations anciennes que l’on imaginait (à tort) définitivement disparues.

Les antiques racines du mal

Pour saisir la persistance séculaire de l’antisémitisme, il faut revenir sur l’histoire de cette hostilité protéiforme. Et rappeler la singularité du judaïsme — singularité que l’ethnocentrisme des sociétés occidentales tend à occulter. À la différence du christianisme ou de l’islam, fondés sur la foi des fidèles, le judaïsme est l’ethno-religion d’un peuple. Il repose moins sur la croyance personnelle que sur le respect des rites par ses pratiquants. En conséquence, le judaïsme ignore la vocation universelle qui anime le christianisme et l’islam, et ne renie pas ses apostats : on peut être juif et athée.

La haine anti-juive remonte à l’Antiquité. Dans un monde polythéiste, le monothéisme juif suscite l’incompréhension. L’adoration d’un dieu unique est perçue comme une menace envers les autres cultes mais aussi envers les autorités politiques qui occupent successivement la Judée. La résistance opposée à l’hellénisation (révolte des Maccabées en 167-140 avant notre ère) et à l’Empire romain (révoltes de 66-70 et 132-135) nourrit l’antijudaïsme païen. Trois motifs ressortent des écrits de l’historien grec Hécatée d’Abdère et du prêtre égyptien Manéthon : les Juifs seraient un peuple insociable. Descendants des lépreux, ils seraient frappés d’une souillure héréditaire, biologique. Enfin, alors même que leurs textes sacrés prohibent formellement le sacrifice humain (le sacrifice d’Isaac remplacé par un bélier), les Juifs sont pourtant accusés de pratiquer le meurtre rituel.

A l’antijudaïsme païen succède l’antijudaïsme chrétien antique, qui marque une évolution notable, par sa systématicité et par la nature de ses critiques. L’accusation de « peuple déicide » apparaît au IVe siècle avec Jean Chrysostome, Père de l’Eglise. Le crime rituel imputé aux Juifs change de nature : il ne consiste plus seulement en sacrifices humains, mais dans l’assassinat de Dieu lui-même lors de la Crucifixion. Les Juifs, qui n’ont pas su le reconnaître quand il s’est incarné dans son Fils, sont rejetés par Dieu qui se détourne de son peuple pour former une nouvelle Alliance. La dispersion des Juifs (l’empereur Hadrien renomme en 135 la province de Judée en Syrie-Palestine) est le signe de ce châtiment divin, peu importe l’absence de pertinence historique de ce mythe. Aux V-VIe siècle, les discriminations deviennent systématiques : les Codes Théodosien et Justinien interdisent le mariage mixte avec les chrétiens, prohibent le prosélytisme et excluent les juifs de certaines fonctions publiques. 

De l’antijudaïsme à l’antisémitisme

En Occident, le déclenchement des croisades à partir du XIe siècle enflamme l’antijudaïsme chrétien. Le concile de Latran en 1215 impose des signes visibles de discrimination : rouelle, chapeau spécifique, vêtement de couleur jaune. Ces marques soulignent en creux le degré d’intégration des Juifs à la société médiévale : s’il faut les distinguer, c’est précisément parce qu’ils font jusqu’à présent corps avec la société (le rabbin Rachi de Troyes, Juif le plus célèbre de l’époque, qui a marqué par ses travaux le développement de la langue française, est vigneron de métier). Mais à partir du XIIè siècle, le processus de construction de l’État-nation en France et en Angleterre, puis en Espagne, exige le rejet des corps considérés comme extérieurs : les hérétiques (Cathares, Vaudois, Bogomiles) et les mécréants (Juifs et Maures d’Espagne). L’accusation de crime rituel est l’une des plus fréquentes, sous ses deux formes. Le meurtre d’humains : à partir du XIIe siècle, les Juifs sont accusés de tuer rituellement des chrétiens pour mélanger leur sang à la pâte des matzot, le pain de Pessah. La profanation du sacré : les Juifs sont accusés de poignarder crucifix, icônes et hosties. Les légendes accusant les Juifs d’empoisonner les puits et de propager la peste synthétisent les trois accusations remontant à l’Antiquité : insociabilité, souillures, assassinats. « Peuple à la nuque raide » (selon l’expression d’Augustin, autre Père de l’Eglise), les Juifs manqueraient de reconnaissance envers les peuples qui les accueillent. Ils sont réputés « perfides » : l’usure (qu’en réalité la société les contraint à exercer, leur interdisant de nombreuses professions) leur permet de donner libre cours à leur cupidité cruelle. Le mythe du « Juif errant » qui émerge est un écho à la légende de la dispersion comme châtiment divin. Enfin, le Juif est insociable et souillé parce qu’il n’est pas vraiment humain : on soutient que les hommes juifs ont des mamelles et des menstrues. Juifs et Juives (par ailleurs affectés d’une sexualité animale) sont des démons affublés de cornes, de griffes. Cette insistance sur des traits physiques caractéristiques, se retrouve dans l’antisémitisme moderne.

Léon Poliakov, l’un des grands historiens de l’antisémitisme, auteur du « Bréviaire de la haine », où est fait le décompte des victimes de la Shoah, séparait celui-ci en deux époques :

  • l’ère de la foi, dans les mondes antique et médiéval, quand la haine anti-juive est animée par des considérations religieuses. On parle d’antijudaïsme.
  • l’ère de la science, dans le monde moderne et contemporain, quand la haine anti-juive est animée par des considérations pseudo-scientifiques. On parle d’antisémitisme.

L’antisémitisme moderne naît au XIXe siècle avec le développement de la biologie, de la génétique et des théories de l’évolution, dans un monde en profonde mutation avec la Révolution industrielle qui provoque l’exode rural, le bouleversement des fortunes et du rapport au temps (la vapeur, le gaz et l’électricité transforment la journée de travail jusqu’alors calée sur le rythme solaire). Dans des termes strictement opposés, l’antisémitisme anticapitaliste de gauche et l’antisémitisme anti-socialiste de droite accusent les Juifs de dissoudre la société : c’est le vieux thème du Juif insociable. Les uns accusent le Juif de dominer le monde par l’argent, les autres de fomenter la révolution pour nuire au corps national auquel sa nature même lui interdit d’appartenir. Selon La France juive d’Edouard Drumont et Les Protocoles des Sages de Sion, rédigé par la police tsariste, le Juif perfide recourt aux complots occultes pour dissoudre les sociétés qui l’accueillent.

Les Protocoles des sages de Sion : faux document, vrai moteur de l’antisémitisme

J’approfondis

Le meurtre rituel n’est plus sanglant mais symbolique : le nazisme prétend protéger le peuple allemand contre les manigances des Juifs, par l’exclusion des Juifs hors du corps social (lois de Nuremberg), avant leur extermination physique. Car le Juif serait non seulement insociable mais souillé d’un abâtardissement biologique insurmontable : le nazisme pratique la zoomorphisation, qualifiant les juifs de rats ou de vermines, et les compare à une pieuvre asphyxiant le monde, conformément à l’iconographie antisémite du XIXe siècle à nouveau vivace de nos jours.

De l’antisémitisme à l’antisionisme

Après la Shoah, on a pu croire que la haine anti-juive disparaîtrait. En réalité, si son expression publique a été frappée de tabou en Occident, la haine s’est contentée de se couler sous une nouvelle forme, d’autant plus perverse qu’elle prenait les apparences du progressisme : l’antisionisme. L’opposition à la création en Palestine mandataire d’un État juif fondé sur le droit des peuples à disposer d’eux-mêmes, est bien antérieure à 1948 : dès le XIXe siècle, les élites arabes, habituées à voir les Juifs confinés dans le statut inégalitaire de dhimmi, ont refusé toute perspective de création d’une entité juive souveraine sur le territoire historique des royaumes de Juda et d’Israël. Après avoir initialement soutenu la création de l’État d’Israël, dont les fondateurs suivaient une idéologie socialisante, l’URSS s’est brutalement opposée au sionisme afin de se rapprocher du monde arabo-musulman et son pétrole. L’accusation de « cosmopolitisme » formulée dès 1952 lors des procès de Prague est la forme renouvelée de l’accusation d’insociabilité et de perfidie (onze des quatorze dirigeants accusés sont juifs). On en trouve l’écho dans la résolution 3379 de l’Assemblée générale des Nations Unies en 1975, puis la déclaration finale de la conférence de Durban en 2001, qui qualifient le sionisme de « forme de racisme et de discrimination raciale », transformant un mouvement d’émancipation nationale en entreprise coloniale. De même l’accusation de génocide est la forme renouvelée de l’accusation de crime rituel. Elle apparaît dès la création de l’État d’Israël, donc bien avant le conflit actuel à Gaza qui l’a popularisée. L’élaboration du terme « Nakba » (ou « catastrophe »), décalque du mot « Shoah » utilisé pour désigner l’entreprise génocidaire nazie, en est un indice. On assiste alors à une inversion totale de la perspective et des références historiques. Est forgé le mot « nazisioniste » qui nazifie les descendants des victimes, ainsi transformés en bourreaux. Chaque année à Noël des polémiques présentent Jésus comme palestinien (en niant sa judéité). L’objectif est double : contester la légitimité historique des Juifs sur le territoire d’Israël et revivifier le mythe du peuple déicide. En tuant les Palestiniens aujourd’hui, les Juifs réitèrent le meurtre du palestinien Jésus il y a 2000 ans. Une parlementaire LFI bien connue nourrit son discours antisioniste d’une multiplicité de tropes antisémites : en affirmant que l’armée israélienne vole les organes de Palestiniens qu’elle tuerait pour entretenir son commerce, sont mobilisées à la fois les accusations de crime rituel et les préjugés sur le mercantilisme des Juifs cupides (le personnage de Shylock dans le théâtre de Shakespeare). Peu importe que cette mise en cause soit dépourvue de toute vraisemblance médicale : on ne transfère pas les organes de personnes décédées. L’important est de nourrir les schémas mentaux créés par deux millénaires de haine anti-juive. La même personne, alimentant la rumeur de la perversité sexuelle des Juifs, accuse Israël de pratiquer le viol systématique des détenus palestiniens par des chiens. Même l’accusation absurde affublant les soldats israéliens de couches Pampers correspond à un trope antisémite : le trouble de la virilité qui transforme les Juifs en non-humains.

Si la critique de la politique israélienne, de son gouvernement ou de la façon dont est menée la guerre à Gaza, est parfaitement légitime et nécessaire, les tropes de la haine anti-juive profitent du conflit pour laisser libre cours au même déferlement antisémite qui a traversé les siècles sur des bases fantasmées et mortifères. N’oublions pas quelles en furent les conséquences.

L’article Antisémitisme, l’éternel retour est apparu en premier sur Les Électrons Libres.

Doctrine Monroe : le mensonge de l’isolationnisme made in USA

28 juin 2025 à 22:46

Depuis le président Monroe et sa doctrine isolationniste édictée en 1823, jusqu’à Donald Trump, les États-Unis ne cessent de brandir leur volonté de ne pas intervenir dans les affaires du monde pour mieux… faire exactement le contraire.                                        

Souvenez-vous : Trump a fait campagne sur la volonté de l’Amérique de ne plus s’impliquer dans des guerres à l’étranger, ou tout au moins de ne pas en déclencher. 

Il a d’ailleurs abondamment reproché à Barack Obama d’être un président belliqueux, notamment pour ses interventions au Moyen-Orient. Ironie, quand tu nous tiens : on se souvient même qu’il l’accusait, en 2011, d’être à la fois faible et inefficace et de vouloir « déclencher une guerre en Iran pour se faire réélire ».

America First

Tant d’un point de vue commercial, stratégique, politique que militaire, pour Trump c’est America First, l’Amérique d’abord. Cette posture, marquée par la défiance envers les alliances traditionnelles, l’a poussé à se retirer de nombre d’entre elles. Si l’on pense, entre autres, à l’accord de Paris sur le climat, à celui sur le nucléaire iranien, à l’OMS (retrait annulé par Joe Biden), à l’UNESCO, comme au Partenariat transpacifique de libre-échange avec une partie de l’Asie et de l’Océanie. Elle est associée à une volonté de voir l’Europe se charger de sa propre défense, marquant une rupture avec le rôle traditionnel de garant de la sécurité du monde que les États-Unis jouaient depuis le dernier conflit mondial.

Ce choix s’inscrit dans la droite ligne d’un principe d’isolationnisme politique datant de la première partie du XIXe siècle, qui énonce que les États-Unis n’interviendraient plus dans les affaires du monde, hormis dans sa propre zone d’influence et si ses intérêts étaient en jeu : la doctrine Monroe. Ce principe théorisé en 1823 par James Monroe, le cinquième président américain, avance que toute intervention européenne dans l’hémisphère occidental serait considérée comme une menace pour la sécurité du pays (qui, on le rappelle, s’était libéré du joug britannique moins d’un demi-siècle auparavant).

On y va, on n’y va pas : de Washington à Roosevelt, l’isolationnisme à géométrie variable

J’approfondis

Les États-Unis n’ayant jamais été à une contradiction près, cet isolationnisme n’entrava en rien ses aspirations expansionnistes. Une stratégie fondée sur l’élargissement  frénétique de ses frontières à grands coups de chemins de fer, de pionniers en chariots bâchés, d’extermination des Indiens et de guerres avec ses voisins – fussent-ils européens. En effet, la doctrine Monroe n’empêcha pas la guerre contre le Mexique (1846-1848) qui déboucha sur l’annexion du Texas et de la Californie, ni celle contre l’Espagne en 1898, qui fit des États-Unis une véritable puissance impériale : Cuba, Porto Rico, les Philippines et Guam passant alors dans le giron américain. C’est d’ailleurs depuis cette victoire que le pays contrôle la fameuse base militaire cubaine de Guantanamo.

Cet isolationnisme à géométrie variable se retrouve maintenant dans la politique de Donald Trump. Il claironne sa fidélité à la doctrine Monroe, tout en lui donnant de grands coups de canif depuis le début de son second mandat : en ordonnant des frappes contre les Houthis au Yémen, en Somalie contre l’État Islamique et contre le régime iranien et ses installations nucléaires. Aujourd’hui comme au XIXe siècle, les grands principes finissent toujours par se heurter à la réalité et à ses impératifs.

En 1904, Theodore Roosevelt énonça ce qui sera nommé le « corollaire Roosevelt » pour justifier l’interventionnisme américain en dépit de la doctrine Monroe : « L’injustice chronique ou l’impuissance conduisant à un relâchement général des règles de la société civilisée peut, au bout du compte, exiger, en Amérique ou ailleurs, l’intervention d’une nation civilisée et, dans l’hémisphère occidental, l’adhésion des États-Unis à la doctrine de Monroe peut forcer les États-Unis, bien qu’à contrecœur, dans des cas flagrants d’injustice et d’impuissance, à exercer un pouvoir de police international », prononça-t-il dans un discours resté célèbre, le 6 décembre 1904, à l’occasion de la troisième session du 58è Congrès des États-Unis. Un changement de paradigme largement reproduit depuis. La preuve par Trump.

Une diplomatie de mâle alpha

Si l’actuel président américain entend officiellement limiter l’interventionnisme, il ne renonce pas pour autant à une diplomatie offensive qui semble un peu saugrenue à notre époque. Elle n’est pas sans rappeler la théorie de « Destinée manifeste » qui prévalait en Amérique au XIXe siècle et servait de justification à l’agrandissement du territoire d’un océan à l’autre. La tentation d’annexer le Groenland pour des raisons aussi stratégiques que minérales en est une bonne illustration. Tout comme l’annonce, lors de son discours d’investiture, de sa volonté de reprendre le contrôle du canal de Panama, ou  l’évocation répétée d’un Canada qui deviendrait le 51e État américain. Toutes ces intentions s’inscrivent symboliquement dans une continuité expansionniste digne de l’Amérique de la conquête de l’Ouest.

Mais l’action trumpiste marque néanmoins une différence avec celle de ses prédécesseurs. Elle exprime davantage une forme de diplomatie de mâle alpha, qui menace beaucoup pour obtenir peu, et dont les visées sont avant tout économiques.

La liberté, une histoire de gros sous ?

J’approfondis

Là où la doctrine Monroe invoquait la non-ingérence européenne pour mieux asseoir une influence américaine naissante, Trump revendique une Amérique forte, indépendante, recentrée sur elle-même et dégagée des contraintes de l’ordre international. Cette Amérique-là, il la veut avant tout commerçante et commerciale ; la guerre n’est pas son affaire. S’il était philosophe, il dirait sans doute qu’il nous faut cultiver notre jardin — mais c’est un businessman, alors c’est, encore et toujours, America First. Mais aussi  Americarmy, avec un budget militaire en hausse de 13% en 2026, dont une grande part de dépenses discrétionnaires. Alors, que vaut la promesse d’un pacifisme menaçant, qui, adepte du  « en même temps », affûte ses armes ?

L’article Doctrine Monroe : le mensonge de l’isolationnisme made in USA est apparu en premier sur Les Électrons Libres.

Capitalisation vs répartition : victoire par K.O

27 juin 2025 à 22:25

Vous pensez que la retraite par capitalisation consiste à jouer vos économies en bourse ?  Rassurez-vous. Malgré les vifs débats qu’elle suscite, elle est au cœur des meilleurs systèmes du monde, sans s’exposer aux risques dont on l’accuse.

Dérive française

En France, les retraites sont presque intégralement versées en prélevant directement une portion des revenus des actifs, qui sont ensuite redistribués aux bénéficiaires. Chaque année, sur 100 € de richesse créée, 14 € sont reversés aux retraités. Tous prélèvements confondus, le travailleur moyen abandonne  l’équivalent de 28 % de son salaire dans le système. L’un des taux les plus élevés au monde.

Au total, 330 milliards d’euros sont reversés chaque année  Il s’agit  tout simplement du premier poste de dépenses publiques. Et celui-ci a augmenté en proportion du PIB de 40% depuis les années 1990.

Cette explosion du poids des retraites dans les comptes de la nation et sur les fiches de paie ne doit rien au hasard et résulte de nombreux phénomènes. Parmi eux, l’augmentation de l’espérance de vie, alors même que l’âge de départ a beaucoup moins reculé que chez nos voisins. Mais aussi la baisse de la fécondité, qui a entraîné un papy boom. A ces dangereuses conditions s’ajoutent un ralentissement marqué des gains de productivité au cours des 20 dernières années et un passage aux 35 heures ayant fait baisser l’assiette de prélèvement depuis les années 2000.

En 1990, pour un senior de plus de 65 ans, on dénombrait 4 personnes en âge de travailler. Cette proportion tombe aujourd’hui à 2,5 et les projections nous amèneraient à 1,8 en 2050. Et en prenant en compte le taux d’activité de la population, le taux de cotisants par retraité s’établit désormais à 1,8 . Il s’élevait à 2,0 il y a 20 ans et devrait tomber sous les 1,5 à partir de 2050.

Le poids de la retraite dans les comptes publics n’est donc pas près de diminuer. Mais plusieurs variables peuvent jouer pour infléchir cette réalité : les gains de productivité mais aussi l’innovation, l’immigration, la baisse du chômage, la hausse de la fécondité ou encore le nombre d’heures travaillées. A conditions macro-économiques équivalentes et sans changement de système, trois curseurs peuvent également être ajustés :  le niveau des cotisations, en les augmentant, celui des pensions, hélas en les baissant, et l’âge de départ, contraint à reculer.

Autant de réformes fortement impopulaires et politiquement  coûteuses en des temps où le poids électoral des personnes âgées ne cesse d’augmenter dans les scrutins. Pourtant, dans le système actuel et sauf revirement majeur des conditions économiques ou démographiques, nous sommes condamnés à travailler plus longtemps, à baisser les pensions ou à ponctionner toujours davantage le revenu des actifs ou des contribuables.

La capitalisation : l’arme anti déclin démographique

La retraite par capitalisation, fondée sur l’épargne via des placements réalisés au cours de la vie active, permet de limiter la dépendance vis-à-vis de la démographie domestique. Plutôt que d’être fléchées directement vers la génération précédente, les cotisations sont placées sur les marchés financiers durant la carrière du cotisant. Au moment de sa retraite, cette épargne, si elle a été bien investie, aura bénéficié du rendement du capital fructifiant dans le monde entier.

Capitalisation : spéculation en solo ?

J’approfondis

Pour comparer les performances de la répartition et de la capitalisation, les économistes utilisent comme indicateur le taux de rendement interne (TRI). Lorsqu’un investisseur place ses économies, il espère un retour sur investissement : c’est le rendement du capital. De la même manière, en répartition, un salarié cotise en espérant obtenir des droits à sa retraite. En rapportant l’ensemble de ceux qu’il percevra à l’ensemble des cotisations qu’il aura versées, on peut évaluer le TRI théorique, dit “implicite”, des cotisations.

En régime par répartition, ce TRI implicite suit peu ou prou le taux de croissance du pays, c’est-à-dire la somme des taux de croissance de la population et de la productivité. Plus la fécondité et l’innovation sont élevées, plus les pensions peuvent être généreuses. C’est ce qu’ont connu les générations d’après-guerre en France, qui ont bénéficié d’un TRI implicite supérieur à 2 %. Mais la tendance s’est inversée. Les générations qui partent à la retraite aujourd’hui doivent se contenter de 1 %. Pire, il est probable que celles qui entrent désormais sur le marché du travail se voient opposer un taux inférieur à 0,5 %.

Rapport annuel du COR – Juin 2025

À titre de comparaison, le taux de rendement du livret A, sans risque, s’élève aujourd’hui en réel à 1,5 % (2,4% – 0,9% d’inflation). Autrement dit, dans les conditions actuelles, un jeune actif aurait aujourd’hui beaucoup plus intérêt à verser ses 28 % de prélèvements pour la retraite sur son livret A, plutôt que d’espérer percevoir ses droits lorsqu’il atteindra ses vieux jours.

Le différentiel devient encore plus flagrant lorsqu’on considère des investissements, certes plus risqués, mais bien plus rentables à long terme, comme les obligations, les actions ou l’immobilier. Depuis 1950, en neutralisant l’effet de l’inflation, les actions ont bénéficié d’un rendement réel moyen de 8,3 % par an. A ce taux, et grâce à l’effet des intérêts composés, le capital investi double au bout de 9 ans, contre 48 ans avec un taux de 1,5%. Bien entendu, les performances passées ne préjugent pas de celles à venir. Plus elles sont élevées, plus le risque de perte l’est aussi, les deux étant corrélés. Les fonds de pension prennent donc soin de diversifier leurs investissements sur plusieurs classes d’actifs pour limiter les risques.

Plus le rendement est élevé, moins les cotisations nécessaires pour bénéficier d’une rente confortable à la retraite le sont. Empiriquement, on observe que le taux du rendement du capital reste très supérieur au taux de croissance, que ce soit en France ou ailleurs. D’où l’importance d’investir le plus tôt possible sur les places boursières mondiales pour bénéficier d’un rendement élevé, tout en absorbant les chocs de marché par un investissement régulier et diversifié. A l’approche de la retraite, il conviendra de sécuriser son épargne en transférant progressivement ses investissements en actions vers des investissements moins risqués.

Les meilleurs systèmes de retraite du monde reposent sur la capitalisation

Si la France parvient au prix d’un déficit et d’une dette publique hors de contrôle à maintenir des pensions relativement correctes, elle figure parmi les cancres en matière de viabilité de son système à long terme. Sur l’indice de soutenabilité, elle se classe 43e sur 47 pays étudiés.

Or, dans un Occident en déclin démographique, les pays qui tirent leur épingle du jeu disposent tous d’un solide pilier de capitalisation, qu’il soit public ou privé, obligatoire ou volontaire, géré individuellement, par les syndicats ou par l’Etat.

La capitalisation existe déjà en France, et ça marche !

J’approfondis

Les Pays-Bas ou le Danemark constituent à ce titre des modèles. Par rapport au dernier salaire perçu, ils réussissent à verser des pensions supérieures au système français, sans dégrader leurs perspectives, grâce notamment à des fonds de pension aux rendements moyens réels supérieurs à 3 % sur les 20 dernières années, investis à plus de 20 % en actions. Cette performance est d’autant plus remarquable que la fécondité de nos amis nordiques est plus dégradée qu’en France.

Face à ce constat, durant les dernières décennies, de nombreux pays ont su réformer leur système de retraite pour y introduire un pilier de capitalisation. Au-delà des oppositions politiques récurrentes et virulentes en France sur l’âge de départ ou l’indexation des pensions, ne serait-il pas judicieux d’élargir enfin le débat sur l’introduction d’une part significative de capitalisation dans notre système de retraite ? La réponse est dans la question.

L’article Capitalisation vs répartition : victoire par K.O est apparu en premier sur Les Électrons Libres.

La gestion de l’eau, c’est pas sourcier !

26 juin 2025 à 23:20

« Les data centers ont pompé 560 milliards de litres d’eau ! », « Un kilo de bœuf = 15 000 L d’eau ! », « Le maïs irrigué utilise 25 % de l’eau consommée ! ».
Ce genre de chiffres chocs pullule dans la presse. Et à lire les articles, un constat s’impose
 : la gestion de l’eau est mal comprise. Par les journalistes, et sans doute aussi par une bonne partie du public.
Or, dans un monde qui se réchauffe, mal comprendre l’eau, c’est risqué. Alors, retour aux sources !

L’eau, une ressource pas comme les autres

Oubliez les gros chiffres qui font peur. Ils sont parfois impressionnants, mais pas toujours pertinents.

Pourquoi ? Parce que l’eau, ce n’est pas du charbon. Chaque tonne de charbon brûlée part en fumée et disparaît à jamais, contribuant au réchauffement climatique. Et son extraction puise dans un stock limité. L’eau, elle, suit un cycle. Elle revient. Toujours.

Le cycle de l’eau

Raisonner en “stock”, comme pour le charbon ou le pétrole, n’a donc pas beaucoup de sens. Il faut raisonner en flux : ce qui compte, ce n’est pas combien on prélève, mais , quand, et surtout à quelle vitesse l’eau se renouvelle dans le système considéré.

Évidemment, ça ne veut pas dire qu’on ne peut pas manquer d’eau. Si on prélève trop à un endroit ou à un moment où elle se renouvelle lentement, on crée un déséquilibre. Mais si on prélève moins que ce que le système peut absorber : aucun problème.

Les risques causés par les prélèvements d’eau

En réalité, il n’y en a que deux :

-Le conflit d’usage, qui peut mener à des restrictions, voire à des pénuries pour certains usagers.
-Les atteintes aux écosystèmes aquatiques, si on puise dans un milieu déjà fragilisé.

Ces risques peuvent être immédiats ou différés, selon la nature du prélèvement et du milieu concerné.

Pour bien comprendre, passons en revue trois cas concrets.

Le cas des cours d’eau

Prenons une rivière. L’eau y file vers la mer. Un prélèvement dans ce type de milieu n’aura donc que des effets immédiats. Si, au moment du prélèvement, le débit est correct, il n’y a pas de problème, donc aucune raison de s’en priver.

Les centrales nucléaires, un problème pour la ressource en eau ?

J’approfondis

En revanche, si le niveau est bas, chaque litre retiré peut avoir des effets directs sur l’écosystème : dans le lit du cours d’eau lui-même, ou à l’estuaire, où l’eau douce est cruciale pour les espèces côtières.

C’est pourquoi des seuils de gestion sont définis dans les SAGE (Schémas d’Aménagement et de Gestion de l’Eau). Le débit d’alerte marque le moment où les usages commencent à être limités. Et le débit de crise est le seuil en dessous duquel seuls les usages essentiels (santé, sécurité civile, eau potable, besoins des milieux naturels) sont autorisés.

Ces seuils sont fixés localement, par concertation entre les acteurs du territoire, sur la base d’expertises scientifiques et du Code de l’environnement. On peut donc leur faire confiance.

Exemple des variations de débit dans la Gave d’Oloron (Pyrénées Atlantiques), et seuils associés

Cas d’une nappe inertielle

Les nappes phréatiques sont des volumes d’eau souterrains. On parle de nappes inertielles lorsque leur niveau varie peu au fil des saisons, car elles se rechargent très lentement. C’est par exemple le cas sous le bassin parisien.

De l’eau dans les roches

J’approfondis

Prélever dans une nappe inertielle revient à puiser dans ses économies : il n’y a pas d’effet immédiat sur les écosystèmes (personne ne vit à plusieurs dizaines de mètres sous terre), mais si on puise plus que ce qui se recharge chaque année, on épuise la ressource à long terme.

La bonne nouvelle, c’est qu’on sait suivre cela. Le BRGM publie régulièrement des bulletins sur l’état de remplissage des nappes. Si elles sont bien remplies, on peut les solliciter. Si elles sont basses, on ralentit les prélèvements. Ce suivi permet d’anticiper les tensions et d’éviter les déséquilibres.

Un exemple de bulletin de suivi des nappes, du 1er juin 2025

Cas d’une nappe réactive

À l’inverse, certaines nappes réagissent très rapidement aux pluies et aux sécheresses. On les appelle nappes réactives. Elles sont souvent très connectées aux rivières et aux zones humides.

C’est le cas typique dans les Deux-Sèvres, où ont été installées les controversées mégabassines (cf. https://lel.media/stockage-de-leau-solution-ou-illusion/). Dans ces nappes, tout prélèvement peut avoir un impact quasi immédiat sur les milieux aquatiques. Mais il peut aussi y avoir des conséquences différées, dont la latence dépendra de la réactivité de la nappe. Pour une nappe très réactive comme dans les Deux-Sèvres, on estime qu’un prélèvement peut avoir des conséquences sur le remplissage de la nappe jusqu’à environ un mois après.

C’est précisément pour cela que les retenues de substitution (alias « mégabassines ») ne se remplissent qu’en hiver, quand l’eau est abondante. Avec une marge de sécurité de quelques semaines pour prendre en compte l’impact différé. Et pour éviter les risques immédiats, les pompages ne sont autorisés que lorsque les niveaux sont suffisants.

Autrement dit : on pompe uniquement quand l’eau est disponible, et sans compromettre les milieux.

Ce qu’il faut retenir

Tous les prélèvements d’eau ne se valent pas.

Pomper dans une rivière en crue ? Aucun souci. Pomper dans une nappe réactive à sec en plein été ? Mauvaise idée.

L’eau n’est pas une ressource à bannir, mais à gérer intelligemment. Contrairement au charbon ou au pétrole, on peut en utiliser sans dommage… si on respecte certaines règles. Et cela, la France le fait déjà plutôt bien, via les SAGE, les seuils de gestion, et le suivi des nappes. Alors non, l’irrigation n’est pas « le mal ». Ce qui compte, c’est quand, et comment on irrigue. Tant que cela reste encadré, raisonné et conforme aux règles collectives, il n’y a aucune raison d’en faire un scandale.

L’article La gestion de l’eau, c’est pas sourcier ! est apparu en premier sur Les Électrons Libres.

Diabète de type 1 : Révolution en vue ?

26 juin 2025 à 04:42

Un traitement expérimental à base de cellules souches à même de permettre aux patients diabétiques de type 1 de se passer d’injections d’insuline ? C’est la promesse du Zimislecel. Mais prudence, néanmoins. Explications.

Des cellules souches pour guérir ?

C’est peut-être un tournant historique pour les millions de personnes vivant avec un diabète de type 1. Cette maladie auto-immune, en général diagnostiquée entre 5 et 20 ans, détruit les cellules du pancréas qui fabriquent l’insuline, l’hormone essentielle pour réguler le sucre dans le sang. 

Sans insuline, impossible de survivre : les patients doivent s’injecter ce médicament à vie, plusieurs fois par jour, et jongler en permanence entre risques d’hyperglycémie (trop de sucre) et d’hypoglycémie (pas assez); cette dernière pouvant avoir des effets immédiats à même de plonger sa victime dans le coma.

Mais pour la première fois, un traitement expérimental permettrait de s’affranchir des injections. Son nom : Zimislecel (Vertex Pharmaceuticals), un concentré d’innovation à base de cellules souches (de 0 .4 x 10^9 cellules à 0.8 x 10^9 cellules) transformées en cellules pancréatiques capables de produire de l’insuline.

Ces cellules sont issues d’un donneur distinct du receveur. Elles ont donc nécessité un traitement immunosuppresseur associé pour éviter le rejet. Initialement sous formes de cellules souches pluripotentes, elles ont été « programmées » pour devenir des îlots pancréatiques entièrement différenciés, comprenant les fameuses cellules bêta productrices d’insuline.

Dans un essai préliminaire publié par le New England Journal of Medicine, 12 patients très atteints (hypoglycémies graves, dépendance totale à l’insuline) ont reçu ce traitement en une seule perfusion de 30 à 60 mn via un cathéter dans la veine porte. Résultat ? Tous ont retrouvé une production naturelle d’insuline. Mieux : 10 d’entre eux n’avaient plus besoin d’injections un an après l’infusion, avec un taux d’hémoglobine glyquée optimal < 7%.

C’est une avancée spectaculaire. La greffe de cellules productrices d’insuline existe déjà, mais elle est limitée par la rareté des donneurs et la qualité variable des greffons. Ici, on parle de produire ces cellules en laboratoire, à partir de cellules souches, et de les rendre fonctionnelles chez l’humain.

Prudence néanmoins…

Prudence. L’étude reste précoce, basée sur un tout petit effectif d’une dizaine de patients. Deux décès sont survenus : l’un lié à une méningite à cryptococcus après chirurgie des sinus, favorisée par l’immunosuppression et la prise de corticoïdes pourtant interdits ; l’autre dû à une démence aggravée par des antécédents de traumatisme crânien. Comme dit plus haut, le traitement impose une immunosuppression : les effets à long terme sont inconnus et restent à établir sur plus de patients. Mais c’est un pas immense vers un objectif longtemps jugé utopique : restaurer l’autonomie métabolique des personnes diabétiques. La médecine régénérative frappe fort… et ce n’est sans doute que le début.

L’article Diabète de type 1 : Révolution en vue ? est apparu en premier sur Les Électrons Libres.

AmazonIAque

24 juin 2025 à 21:56

NoHarm ? C’est le nom d’une IA développée par une fratrie brésilienne, qui permet de sauver des vies dans les coins les plus reculés du pays, et particulièrement en Amazonie. Son but ? Éviter les erreurs de prescription pour les médecins locaux, rares et débordés par l’afflux de patients venant des quatre coins de la région.

C’est grâce au média technophile à but non lucratif Rest of World que les informations que nous vous diffusons dans cet article sont arrivées à notre connaissance. Ce site, financé par la fondation Schmidt – créée par l’ancien patron de Google, Eric Schmidt, et sa femme, Sophie – se consacre exclusivement à l’observation du progrès à l’extérieur des pays occidentaux. C’est le premier, grâce au journaliste Pedro Nakamura, à faire le récit de l’impact de l’assistant IA NoHarm (Hospital Pharmacy Enhancing System) dans l’aide qu’il apporte aux pharmaciens des régions reculées d’Amazonie pour éviter les graves erreurs de prescription.

Le défi amazonien

Dans cet immense territoire où cliniques, dispensaires et pharmacies se font rares et doivent prendre en charge un nombre incalculable de patients, les médecins, harassés, peuvent se tromper dans la rédaction de leurs ordonnances, les dosages des médicaments et ne pas avoir le temps de prendre en compte les interactions entre les molécules. D’autant plus que le climat et les conditions de vie locales sont aussi rudes que propices aux très nombreuses maladies endémiques et aux accidents. Cette diversité pathologique nécessite donc des connaissances très larges pour être envisagée avec justesse. Et tous les soignants n’en disposent pas toujours. C’est donc aux pharmaciens locaux d’assurer la pharmacovigilance indispensable pour éviter les drames.

Caracaraí, ville pilote

C’est ce que Samuel Andrade, pharmacien à Caracaraí, 22 000 habitants, en Amazonie brésilienne, vit au quotidien, ainsi que le raconte Pedro Nakamura. « Chaque matin à 8 h, Andrade prend son poste pour traiter des centaines d’ordonnances en provenance des cliniques gratuites de l’État. La plupart du temps, il n’arrive pas à tout gérer. Il passe des heures à vérifier les bases de données de médicaments pour s’assurer que les prescriptions, émises par des médecins des zones rurales, ne présentent pas d’erreurs. Ce travail est extrêmement stressant. Chaque jour, il doit également accueillir des dizaines de patients qui font la queue devant son dispensaire, certains ayant parcouru plusieurs jours de trajet pour y parvenir. Il lui arrive de devoir aller vite, au risque de laisser passer une erreur dangereuse. » Mais depuis avril 2025, sa vie et son travail ont changé, grâce à NoHarm, son nouvel assistant. En réalité, un logiciel dopé à l’intelligence artificielle, capable de signaler les prescriptions problématiques et de lui fournir les données nécessaires pour évaluer leur sécurité. « Résultat : sa capacité de traitement des ordonnances a été multipliée par quatre, confie-t-il à Rest of World. En quelques mois d’utilisation, l’IA a détecté plus de 50 erreurs. »

Rattraper le retard de l’IA médicale

Il n’est pas le seul à bénéficier de l’expertise du logiciel. Comme la France, le Brésil fait partie de ces pays où l’État assure des soins gratuits à l’ensemble de la population, mais également aux étrangers présents sur son territoire. Ce sont 200 millions de personnes qui sont concernées, créant une saturation complète d’un système cruellement impacté par le manque de personnel, particulièrement dans les zones rurales ou isolées, comme le sont nombre de territoires amazoniens. D’où l’importance du déploiement de NoHarm, particulièrement dans une nation dont la médecine a tardé à prendre le virage de l’IA. Depuis l’expérience pilote de Caracaraí, plus de 20 villes des rives de l’Amazonie l’ont rejoint avec des résultats probants.

Une histoire de famille

Le logiciel a été développé par une pharmacienne, Ana Helena, et son frère, informaticien, Henrique Dias, depuis Porto Alegre, la capitale de l’État du Rio Grande do Sul. Une idée reflétant leur volonté de soulager les pharmaciens de la montagne de paperasse qui les empêche de se consacrer pleinement à la réelle pratique de leur métier. Ils ont créé un modèle d’apprentissage automatique open source, entraîné à partir de milliers d’exemples réels. NoHarm a rassemblé des données anonymisées de patients et d’ordonnances. L’algorithme a été nourri de milliers de combinaisons de médicaments, erreurs de dosage et interactions indésirables. « Il a ainsi appris à repérer des schémas que même des professionnels expérimentés peuvent manquer, explique Dias, PDG de l’organisation. » Le logiciel peut traiter des centaines d’ordonnances à la fois, en signalant les cas douteux. Il ne prend pas les décisions à la place des professionnels, mais les aide à les éclairer. « Nous fournissons une série d’alertes, et c’est le professionnel qui les évalue en fonction des besoins du patient », précise Dias à Pedro Nakamura. C’est notamment ce qui a permis à Nailon de Moraes, médecin dans une petite clinique à Caracaraí, d’éviter quatre graves erreurs de prescription, après qu’elles lui ont été signalées par Samuel Andrade, grâce à son usage de NoHarm.

Ne pas halluciner !

Mais tout n’est pas encore parfait. Comme toute IA, NoHarm reste perméable aux hallucinations et autres bugs, qui pourraient avoir des conséquences pires que les simples erreurs médicales. Surtout que son exploitation en Amazonie le confronte à de nombreuses maladies tropicales pour lesquelles il n’est pas encore suffisamment entraîné. Il s’est en effet cantonné dans un premier temps aux pathologies les plus courantes du sud du pays, où se trouve Porto Alegre. Mais le problème est en train d’être corrigé, la phase d’apprentissage restant intense. Une phase, rappelons-le, commune à toute forme d’intelligence – artificielle ou humaine – qui suppose d’apprendre à partir de l’existant. Un principe parfois critiqué pour son manque de respect des droits d’auteur, mais qui prend ici toute sa dimension, dès lors qu’il s’agit d’améliorer un outil qui sauve des vies.

L’article AmazonIAque est apparu en premier sur Les Électrons Libres.

« Milli-spinner » : le tueur de caillots !

23 juin 2025 à 01:43

C’est une véritable révolution médicale qui nous vient de Stanford. Le « milli-spinner ». Cette technologie est « deux fois plus efficace »  que toutes les autres pour retirer les caillots sanguins. Une nouvelle ère dans le traitement des AVC, infarctus et embolies pulmonaires.

C’est un tournant majeur dans la lutte contre les maladies liées aux caillots sanguins qui vient d’être franchi par une équipe de Stanford Engineering (soit l’École d’ingénieurs de l’Université de Stanford), qui a mis au point une technologie médicale inédite, baptisée « thrombectomie par milli-spinner », capable de retirer les caillots « 2 fois plus efficacement que les méthodes actuelles ». Publiée le 4 juin dans la revue Nature, cette innovation de rupture pourrait transformer la manière dont sont traités les AVC ischémiques, les crises cardiaques et de nombreuses pathologies potentiellement mortelles.

Une avancée décisive contre l’AVC

Dans le cas d’un AVC ischémique, chaque seconde compte. Plus vite le caillot est éliminé, plus le cerveau est préservé. Aujourd’hui, les techniques de thrombectomie réussissent à extraire un caillot, dès la première tentative, dans seulement 50 % des cas. Pire : elles échouent complètement pour environ 15 % des patients.

Le milli-spinner, qui peut atteindre les caillots par cathéter, bouleverse ces statistiques. Selon Jeremy Heit, neuroradiologue à Stanford et co-auteur de l’étude, cette technologie permettrait d’atteindre « 90 % de réussite du premier coup », y compris pour les caillots les plus résistants. « C’est une technologie révolutionnaire qui améliorera considérablement notre capacité à aider les patients. », affirme-t-il dans le communiqué publié par l’université.

Une approche biomécanique inédite

Le secret du milli-spinner ? Il ne tente pas de casser le caillot, mais de le « reconfigurer » pour l’extraire en douceur. Là où les dispositifs actuels aspirent ou attrapent les caillots, le plus souvent en les fragmentant (ce qui engendre certains risques), le milli-spinner utilise deux forces mécaniques simultanées : la compression et le cisaillement.

Grâce à des ailettes rotatives et à une aspiration, l’appareil agit comme si on frottait un amas de fibres avec ses mains, transformant le caillot en une boule compacte qui peut être retirée sans briser les filaments de fibrine, cette protéine résistante et filiforme piégeant les globules rouges et d’autres substances. Il est ainsi possible de « réduire la taille du caillot jusqu’à 5 % de son volume initial, sans provoquer de rupture ni dispersion », explique la professeure Renee Zhao, ingénieure en mécanique et conceptrice du milli-spinner. 

Résultat : un retrait rapide, propre, et beaucoup moins risqué. La solution fonctionne même sur « des caillots résistants riches en fibrine, impossibles à traiter actuellement ».

D’une idée accidentelle à une invention révolutionnaire

L’histoire de cette technologie est aussi fascinante que son fonctionnement. Initialement développée comme un système de propulsion pour des « milli-robots médicaux », une précédente invention de la même équipe, la structure du milli-spinner a surpris les chercheurs lorsqu’ils ont découvert ses effets inattendus sur les caillots sanguins.

Cet heureux hasard a déclenché une série d’expérimentations, menant à une conception optimisée de l’outil. En ce moment, l’équipe travaille sur un projet encore plus ambitieux : une version autonome de son appareil, qui serait capable de « nager librement dans les vaisseaux sanguins » des patients pour atteindre les caillots les plus inaccessibles.

Trois ans avant le milli-spinner, Stanford créait les milli-robots

J’approfondis

Une course contre la montre vers les blocs opératoires

Face au potentiel immense de cette invention, les chercheurs n’ont pas tardé à lancer une start-up dédiée, avec l’objectif de commercialiser rapidement cette innovation. Des essais cliniques sont en cours de préparation, afin d’obtenir les autorisations réglementaires. Et l’ambition va plus loin : l’équipe explore déjà des applications élargies de son milli-spinner, notamment pour fragmenter des calculs rénaux ou dans d’autres domaines médicaux où l’aspiration localisée pourrait faire une sacrée différence. « Des opportunités très prometteuses s’offrent à nous », s’enthousiasment les scientifiques. 

L’article « Milli-spinner » : le tueur de caillots ! est apparu en premier sur Les Électrons Libres.

La clim n’est pas un crime

20 juin 2025 à 19:53

En France, on meurt plus de la chaleur qu’au Mexique ou aux Philippines. Notre population, vieillissante, est plus fragile que d’autres. Pourtant, elle a moins accès à la climatisation qu’ailleurs. Une diabolisation meurtrière.

Plus de 10 000 morts en excès pendant l’été 2022, selon Santé publique France. Plus de 5000 en 2023. 47 690 en Europe. Notre continent est celui des étés meurtriers : la chaleur y tue plus qu’en Afrique, qu’en Asie ou qu’en Amérique Latine. 

Pourtant, malgré cette réalité devenue chronique, la climatisation reste chez nous perçue comme un gadget, voire une menace. On en parle du bout des lèvres, comme si admettre son utilité revenait à trahir un certain art de vivre. Résultat, la France est une anomalie : moins d’un ménage sur quatre est équipé. À des années-lumière des 90% d’américains ou de japonais, champions en la matière.

Des conséquences désastreuses…

Dans les Ehpad, la situation est souvent catastrophique. Durant l’été 2022, 60,7 % des établissements ont été thermiquement inconfortables dans les espaces privatifs. Dans les écoles, on apprend à composer avec des salles surchauffées, alors que la chaleur inhibe le développement des capacités d’apprentissage, notamment pour les étudiants à faible revenu, qui bénéficient de moins de confort chez eux. Quand les établissements ne décident pas tout simplement de jeter l’éponge.

Nos services publics suivent parfois la même voie, avec des horaires restreints. Au-delà de 25°C, nos performances chutent drastiquement. La clim, meilleure alliée de notre productivité, devrait mettre tout le monde d’accord, des salariés aux patrons. Pourtant, son absence est si marquante que notre pays est devenu une inépuisable source de moqueries, jusque dans les séries Netflix.

…qui pourraient s’amplifier

A mesure que les étés deviennent plus torrides, ce retard risque de devenir critique. Une étude récente a simulé le Paris de 2100, en pleine vague de chaleur. Le constat est sans appel : sans climatisation, les Parisiens seront exposés à un stress thermique intense pendant 15 heures par jour à l’extérieur, et plus de 7 heures à l’intérieur, chez eux comme sur leur lieu de travail. 

Comment fonctionne une clim’ ?

J’approfondis

Avec des systèmes de climatisation réglés à 23°C, cette exposition chute immédiatement à zéro en intérieur et n’augmente que de 20 minutes en extérieur. L’étude envisage également des alternatives, particulièrement volontaristes : convertir 10 % de la surface de Paris en parcs et isoler massivement les logements. Des dépenses importantes, pour un résultat peu probant : seulement 1h23 de stress thermique en moins à l’intérieur, trente minutes à l’extérieur. Et irréaliste : lors des canicules, toute l’eau potable consommée en région parisienne ne suffirait pas à arroser ces nouveaux espaces verts. Les réseaux collectifs de froid pourraient être une autre piste. Mais leur coût peut-il se justifier pour quelques semaines d’utilisation par an ?

Des reproches climatiques fragiles

Pourtant, la crainte du changement climatique pousse certains à lutter contre la clim plutôt qu’à l’adopter. Les rejets de chaleur en extérieur sont une première critique récurrente. La climatisation rejette effectivement de l’air chaud, mais dans des proportions très limitées, n’entraînant qu’une augmentation de 0,25°C à 0,75°C en moyenne, même lors d’une canicule. Des pics à +2,4°C ont été observés, mais uniquement après neuf jours consécutifs de chaleur extrême, et sur des zones très localisées. Pour compenser, la végétalisation a un vrai rôle à jouer. D’autant qu’une maison bien isolée rejette presque autant de chaleur qu’une maison climatisée. Dans un logement passif, l’énergie solaire est réfléchie ; dans un logement climatisé, elle est évacuée. Dans les deux cas, des kilowatts thermiques sont renvoyés dehors. 

Non, la clim’ ne « donne » pas le rhume

J’approfondis

Les fluides réfrigérants, les HFC, gaz à effet de serre très puissants, sont aussi pointés du doigt. Ils sont pourtant utilisés en circuit fermé, et ne peuvent s’échapper qu’en cas de défaut d’entretien. La réglementation F-gaz de l’Union Européenne prévoit par ailleurs le basculement progressif vers des gaz à Pouvoir de Réchauffement Planétaire (PRP) plus faible.

On lui reproche enfin sa consommation d’énergie. Un argument difficilement audible : l’été, la France produit plus d’électricité bas carbone que nécessaire, grâce à son parc nucléaire et à l’énergie solaire. Et les pompes à chaleur réversibles – qui chauffent l’hiver et refroidissent l’été – sont deux à quatre fois plus efficaces que les chaudières à gaz, trois à cinq fois plus que des radiateurs électriques. 

La climatisation, vecteur de progrès humain

« Elle a été l’invention la plus marquante de l’histoire. Ma première action a été de l’installer dans les bâtiments publics. C’était la clé de l’efficacité de l’administration. » Lee Kuan Yew, fondateur du Singapour moderne, ne s’y est pas trompé. La chaleur emporte les plus âgés, les plus pauvres, les plus fragiles. Face à elle, la clim’ est en train de devenir un outil fondamental de justice climatique. Il est urgent qu’enfin, la France l’adopte sans remords. Grâce à notre électricité bas-carbone, elle sera même la plus vertueuse du monde. 

L’article La clim n’est pas un crime est apparu en premier sur Les Électrons Libres.

Bangladesh : fin de la dèche vaccinale ?

20 juin 2025 à 04:02

Parmi les cas désespérés en termes de vaccination au moment de son indépendance, en 1971, le Bangladesh est en passe de remporter l’impossible pari d’assurer seul le financement de la couverture vaccinale de sa population. Un miracle qui est parallèle au boum économique que connaît le pays.

Penser le Bangladesh d’aujourd’hui, c’est accepter de mener un intense combat contre ses a priori, longtemps pourtant fondés sur de tristes réalités. C’est tenter d’oublier les macabres coups d’État qui ont émaillé l’histoire de ce jeune pays, né en 1971 sur les cendres de l’improbable Pakistan oriental. Car seul un cerveau distrait ou peu instruit par l’Histoire pouvait penser que deux entités d’une même nation survivraient en ayant entre elles deux mille kilomètres du territoire d’un autre pays, par ailleurs hostile, l’Inde. Ce qui fut pourtant le pari fou et perdant des artisans de la partition de 1947. D’autant plus qu’on ne parle pas la même langue à Islamabad et à Dacca, le Pakistan employant l’ourdou et le Bangladesh, le bengali. Bref.

Penser ce Bangladesh, c’est aussi tourner le dos à une litanie de famines ayant traversé les siècles et charrié leurs millions de morts, jusqu’à celle de 1973-1974. C’est beaucoup se résigner en considérant la lutte implacable et stérile entre deux visions politiques : celle du Parti nationaliste du Bangladesh, allié aux islamistes, et celle de la Ligue Awami, laïque, aux fondamentaux idéologiques variables, mais presque toujours sensibles à une autocratie pourtant contraire à la constitution de cette relative et fragile démocratie parlementaire. C’est faire fi de la topologie d’un État qui partage avec les Pays-Bas d’avoir une large partie de son territoire situé sous le niveau de la mer, mais sans les polders, et se retrouve familier de terribles catastrophes naturelles : inondations sans pareilles, cyclones dévastateurs, comme celui de Bhola, qui, en 1970, fit 500 000 morts.

Bref, penser le Bangladesh en 2025, c’est, sans oublier ses faiblesses et les drames qui émaillent sa courte histoire, regarder avec admiration certains facteurs de sa rédemption, dont un élément particulier est le symbole : son rapport à la vaccination. Et là, miracle, pour un pays qui, à ce sujet, était pourtant jugé désespéré il y a un demi-siècle. Grâce à ses progrès économiques et à une large prise de conscience nationale, il est en train d’autonomiser son programme de vaccination avec des résultats exceptionnels. Or, jusqu’à présent, tout était intégralement pris en main par Gavi, l’Alliance mondiale pour les vaccins et l’immunisation, fondée en 2000 en partenariat avec l’OMS, la Banque mondiale et l’Unicef. Une organisation internationale dont la mission consiste à participer financièrement et logistiquement aux campagnes de vaccination des États qu’elle soutient.

Du critique au magique

Pour comprendre l’étendue du miracle vaccinal bangladais, il faut se référer aux sources publiées par Gavi. Quand elle appréhende le Bangladesh, sa situation est encore critique. Mais déjà sans commune mesure avec celle des débuts. Comme elle l’explique : « En 1979, l’année où le Bangladesh a lancé son programme national de vaccination, 211 enfants sur 1 000 n’atteignaient pas leur cinquième anniversaire. » Une situation liée au contexte déjà évoqué plus haut, mais également à l’extrême pauvreté du pays et à sa structure densitaire. Avec ses 147 570 km², la surface du Bangladesh ne couvre même pas un quart de celle de la France. Il est pourtant le huitième pays le plus peuplé du monde, avec plus de 170 millions d’habitants et une densité de population dix fois supérieure à la nôtre. Il est également un vivier de maladies, allant de la dengue, en passant par les différentes hépatites, le choléra, la fièvre jaune, la méningite, la diphtérie, la coqueluche, et on en passe. Ce qui nécessite, avant de s’y rendre, d’avoir garni son carnet de vaccination. Raison pour laquelle le pays est devenu une terre pilote pour la mise en place d’ambitieux programmes de développement, notamment en matière de piqûres salvatrices.

Selon Gavi : « Moins d’un demi-siècle plus tard, le pays a fait mentir les pronostics. Un enfant né aujourd’hui au Bangladesh peut espérer une vie plus longue et plus sûre : le taux de mortalité des moins de 5 ans est tombé à 31 pour 1 000 naissances vivantes. » Derrière la réussite du programme, une réalité qui lui échappe : la responsabilisation des mères qui ont compris l’importance du vaccin pour préserver la santé de leurs enfants. Mais aussi, selon Be-Nazir Ahmed, ancien directeur du contrôle des maladies au sein de la Direction générale des services de santé (DGHS), « grâce à diverses actions : plaidoyer, communication, mobilisation sociale, engagement des communautés, volonté politique et soutien constant de partenaires comme Gavi ».

Sans croissance, pas de vaccins

J’approfondis

Ainsi, dès 2010, la mortalité des enfants de moins de 5 ans a été réduite des deux tiers. Et, en 2018, « la couverture pour la troisième dose du vaccin combiné contre la diphtérie, le tétanos et la coqueluche (DTP3) atteignait 98 %, celle de la rougeole 93 %, et le pays était déclaré exempt de polio depuis 2014 », affirme Be-Nazir Ahmed.

Un succès qui tente maintenant de se reproduire dans les couches les plus vulnérables et les moins accessibles de la population, celles qui nichent dans les bidonvilles, les régions rurales reculées et les territoires les plus ancrés dans les zones inondables. Selon Gavi, d’ici 2030, le pays pourra assumer seul le coût des 160 millions de dollars des programmes vaccinaux liés aux femmes et aux enfants, et se passer de leurs services.

Un miracle qui, comme on l’a déjà suggéré, doit beaucoup à l’amélioration sensible et globale de la situation économique du pays, qui a su engager d’importantes réformes d’infrastructures et de diversification, en dépit de son instabilité politique – voir prolongement. Selon Gavi, l’an prochain, le Bangladesh quittera la liste des nations les moins avancées de l’ONU. Logique. Sur les deux dernières décennies, il a enregistré une croissance moyenne se situant entre 6 et 7 %. Une cascade de bonnes nouvelles, qui va de pair avec l’amélioration globale des conditions de vie de la population. Mais tout cela est fragile, tant le pays est instable politiquement et reste parmi les plus sensibles au changement climatique.

L’article Bangladesh : fin de la dèche vaccinale ? est apparu en premier sur Les Électrons Libres.

Nucléaire : le monde s’emballe, la France s’enlise

18 juin 2025 à 04:09

Depuis quelques années, la France fourmille de projets nucléaires innovants, notamment du côté des SMR, ces petits réacteurs plus sûrs et plus industrialisables que leurs aînés. Mais lundi soir, les députés ont peut-être mis un coup d’arrêt à cet enthousiasme, en donnant à EDF le monopole de la construction et de l’exploitation de tous les réacteurs nationaux.

Pas plus tard qu’hier, nous nous réjouissions de la vitalité de nos jeunes pousses atomiques. C’était sans compter sur un improbable coup de théâtre. Dans un hémicycle vide des partis centristes, un amendement déposé par le groupe LFI-NFP et voté par le Rassemblement national a suspendu l’avenir de ces startups au vote du Sénat. En l’état, impossible pour elles de construire des réacteurs ou de les exploiter sur notre sol.

Un vote, deux visions

Pour la gauche, il ne s’agit pas tant de garantir le monopole d’EDF que de sortir du nucléaire. Leurs amendements demandent purement et simplement la suppression de l’objectif de construire de nouveaux réacteurs et réclament un avenir 100 % renouvelables, suivant les scénarios Negawatt et M0 de RTE – malgré les incertitudes et les coûts pointés par les spécialistes du secteur.

Pour le Rassemblement National, cette initiative se fonde sur l’étonnante croyance que le public est plus à même de garantir la sécurité que le privé, alors même que le seul accident d’envergure fut, à Tchernobyl, l’œuvre d’un monopole d’État. Interpellé, Maxime Amblard, le « spécialiste énergie » du mouvement, se défend de vouloir mettre fin à l’entrepreneuriat nucléaire tricolore. « L’amendement adopté n’empêche absolument pas les initiatives privées en matière de recherche, de développement et de conception de nouveaux réacteurs », se défend-il sur X. On imagine pourtant mal EDF construire les SMR de ses concurrents et les investisseurs continuer à financer des entreprises interdites de fabriquer leurs produits.

Mettre fin à l’atome, ou se passer du privé ? Deux visions à contre-courant de la marche du monde. Car depuis deux ans, le nucléaire entame une véritable renaissance, porté par une multitude d’initiatives entrepreneuriales et par le boom de l’intelligence artificielle.

Le printemps des start-up du nucléaire français

J’approfondis

Vers un nouvel âge atomique ?

L’an dernier, Google signait un contrat à long terme avec Kairos Power, concepteur de petits réacteurs, pour que l’entreprise puisse commencer à les fabriquer en série. TerraPower, la startup atomique de Bill Gates, assemble les éléments de son réacteur avancé au sodium, Natrium, dans le Wyoming. Microsoft finance la remise aux normes de Three Mile Island. Il y a 15 jours, Meta scellait un partenariat de 20 ans avec la centrale de Clinton, dans l’Illinois, pour alimenter ses datacenters IA en énergie continue. Amazon s’est branché à celle de Susquehanna via Talen Energy, avec une connexion directe à 960 MW. Plus que de simples consommateurs, à ce rythme, les GAFAM pourraient presque devenir les premiers énergéticiens bas carbone de la planète.

Et les Américains ne sont pas les seuls à avoir chopé le coup de foudre pour l’atome. À l’échelle internationale, sa cote est sans précédent. Le Royaume-Uni injecte des gigawatts d’espoir dans le projet Sizewell C et dans les SMR Rolls-Royce, destinés à réactiver le réseau bas carbone. En Belgique, nous assistons à un vrai retournement de polarité : en mai dernier, le pays a abrogé sa loi de sortie du nucléaire et compte désormais doubler sa capacité d’ici 2035. En Suisse, après des années de refroidissement politique, le moratoire sur la construction de nouvelles centrales est sur le point de sauter. La Finlande et la Suède poursuivent leur montée en charge sans bruit mais avec constance. Même le Danemark, jusqu’ici allergique à l’atome, commence à réévaluer sa doctrine et à considérer l’hypothèse nucléaire dans son mix énergétique.

Le financement, carburant discret de la relance

J’approfondis

Longtemps sous tension, parfois mis en veille, le nucléaire redémarre partout où la demande monte en flèche et où le carbone devient un fardeau. Ce n’est plus un simple retour, c’est une remontée en pression. De l’Illinois à l’Ardèche, du Wyoming à Bruxelles, les neutrons s’agitent, les lignes bougent, les réacteurs s’éveillent. Tous les projets n’aboutiront pas. Nul doute que la concurrence fera le tri entre les plus innovants, les plus rentables et les autres. Ce que la France, en privilégiant les choix politiques aux choix du marché, tente de rejeter. En matière d’énergie, de Super Phénix à Astrid, les innombrables tergiversations du pouvoir devraient pourtant faire douter quant à sa capacité à avoir une vision claire et soutenue sur le long terme. Le triste spectacle actuellement donné à l’Assemblée, où chacun défend des visions irréalistes et inconciliables, ne pousse pas non plus à une confiance excessive dans la lucidité du personnel politique. Dommage, parce que l’énergie du XXIe siècle pourrait bien finalement être… celle dont la France a longtemps été le fleuron.

L’article Nucléaire : le monde s’emballe, la France s’enlise est apparu en premier sur Les Électrons Libres.

Le maïs, une culture controversée

16 juin 2025 à 12:01

Pour certains, c’est la culture du diable.
Le symbole de l’agriculture intensive et destructrice de son environnement.
Pénurie d’eau ? Pollution ? Monoculture ? Sols morts ? Enquête sur un coupable idéal : le maïs.

Très médiatisée, la culture du maïs fait partie des totems de l’écologie politique, au même titre que le glyphosate ou les OGM. Pourtant, cette plante étonnante est mal connue du grand public. Au point que quantité d’idées reçues, et même de fake news, circulent à son sujet.

Commençons par l’eau.

Qui n’a pas été marqué par ces impressionnants systèmes d’arrosage qui semblent déverser, en plein soleil, des milliers de litres dans nos campagnes ? Oui, à lui seul, le maïs pourrait être responsable de 18% de la consommation d’eau hexagonale. Quasiment un cinquième ! Car le maïs, c’est un tiers des surfaces concernées par l’irrigation. Irrigation responsable de plus de la moitié de l’eau consommée en France…

Le taux d’irrigation du maïs n’est pourtant pas excessif : en 2020, seules 34% des cultures de maïs grain étaient irriguées (6% pour le maïs fourrage). C’est moins que le soja (51%), les légumes frais (59%), les agrumes (100%), les vergers (60%) et les pommes de terre (40%)

Et à production constante, le maïs n’est pas plus gourmand en eau que d’autres céréales : pour produire 1kg de maïs grain, il faut environ 454L d’eau, contre 590L pour 1kg de blé… C’est encore moins pour le maïs fourrage : seulement 238L d’eau par kg. Alors pourquoi une telle consommation totale ? Car le maïs est une culture d’été. Et à cette saison, les précipitations sont souvent insuffisantes pour assurer le développement de la plante.

Un point fort : la productivité.

Avec 91 q/ha pour le maïs grain, et 124 q/ha pour le maïs fourrage, les cultures de maïs présentent les plus hauts rendements céréaliers de France. Deux fois plus que le blé dur ou l’orge ! Cette forte productivité permet une meilleure rentabilité économique, mais pas seulement : elle permet aussi des gains écologiques.

Une meilleure efficience des terres agricoles permet en effet de limiter les impacts liés à l’usage des sols. Et ce n’est pas tout ! Une forte productivité permet aussi de stocker du carbone dans les sols, donc de limiter le réchauffement climatique.

Le maïs est capable de fixer jusqu’à 22 tonnes de CO2 par hectare et par an, soit plus qu’une forêt tropicale (environ 15 tCO2/ha/an) ! Et même s’il n’y a qu’une petite partie de ces 22 tonnes qui sera réellement fixée de manière durable dans le sol, la culture de maïs séquestrerait tout de même de manière pérenne 3.7 tonnes de carbone par hectare et par an, ce qui est mieux que n’importe quelle autre culture.

Une culture dédiée à l’élevage ?

Globalement, oui, à hauteur de 75%. Pour le maïs grain, on peut estimer à environ 40% la part du maïs grain dédié à l’élevage. C’est beaucoup, mais ne doivent pas invisibiliser les 60% qui servent pour d’autres usages : alimentation humaine, biocarburant, amidonnerie, etc.

Mais n’oublions pas le maïs fourrage, dédié uniquement à l’alimentation du bétail, et qui concerne des surfaces comparables au maïs grain. Le maïs fourrage est cependant moins exigeant en eau et ne nécessite généralement pas d’irrigation : son impact écologique est donc plus limité. Ainsi, « seulement » 50% des surfaces irriguées de maïs sont dédiées à l’alimentation animale.

Quelles perspectives ?

La culture du maïs est étroitement liée à l’élevage, qui a un mauvais bilan sur le plan écologique. Mais il est naïf de penser qu’une diminution de la production de maïs français diminuerait les impacts de l’élevage. On importera juste plus de maïs. Ou plus de viande. Ou peut-être produirons-nous d’autres types de fourrages qui ne seront pas forcément plus écologiques… Bref, pas sûr qu’on y gagne. Mais il est vrai que cultiver du maïs risque de devenir de plus en plus compliqué dans certaines régions, faute d’eau disponible pendant l’été pour irriguer.

Alors que faire ? Abandonner les cultures d’été ? L’efficience de nos terres agricoles risquerait d’en pâtir, ce qui ne serait profitable pour personne. Le remplacer par d’autres cultures d’été moins exigeantes en eau ? Il n’en existe pas tant que ça. On entend beaucoup parler du sorgho, mais ses rendements sont largement inférieurs à ceux du maïs, et il nécessite lui aussi souvent de l’irrigation. Le remplacer par des prairies ? Il s’agit sûrement de la meilleure option, car celles-ci présentent des atouts indéniables en termes de performances écologiques et patrimoniales. Mais elles présentent aussi des inconvénients d’ordre pratique, ainsi qu’une vulnérabilité à la sécheresse supérieure au maïs…

Ou peut-être est-il possible de continuer à cultiver le maïs… À condition d’exploiter toutes les solutions d’adaptation dont on dispose : réserves d’eau, techniques de conservation des sols… Et pourquoi pas compter sur les apports du génie génétique, capable aujourd’hui de produire des variétés résistantes à la pénurie d’eau.

L’article Le maïs, une culture controversée est apparu en premier sur Les Électrons Libres.

Glyphosate, le retour

16 juin 2025 à 04:23

Chaque semaine, un nouveau signal d’alarme sanitaire vient semer l’effroi sur nos fils d’actualité : aspartame, cadmium, pesticides… C’est le festival de « Tu cannes ! ». Mais la star des produits faisant vendre du papier est le glyphosate. Le voilà de retour dans l’actualité avec la parution de ce qui est présenté par nos confrères, allant du Monde, en passant par Le Quotidien du Médecin ou Mediapart, comme « la plus vaste étude jamais menée » sur le sujet. Verdict : il augmenterait le risque de cancer. Frissons garantis.

Mais avant de réclamer son interdiction immédiate, une analyse de l’étude s’impose. Spoiler alerte, ça ne va pas faire plaisir à tous ceux qui sont atteints de glyphosatophobie chronique…

Mode d’action et usage

Découvert dans les années 1970, le glyphosate est un herbicide non sélectif : il bloque la synthèse de certains acides aminés chez les plantes. Il est utilisé seul ou dans des formulations commerciales, comme Roundup Bioflow (en Europe) ou RangerPro (aux États-Unis), enrichies en surfactants (substances qui réduisent la tension de surface d’un liquide facilitant leur mélange avec d’autres). Son usage massif et mondial en fait un candidat régulier aux polémiques sanitaires.

Flashback : l’étude Séralini, dix ans plus tôt

En 2012, le biologiste Gilles-Éric Séralini affirme avoir observé une hausse de tumeurs mammaires chez des rats exposés au Roundup. L’étude est vite contestée : seulement dix rats par groupe, analyses statistiques faibles, et surtout, rats Sprague-Dawley, connus pour développer spontanément des tumeurs au cours de leur vie. L’article est rétracté un an plus tard. Pourtant, la nouvelle étude reprend… le même modèle animal.

Que montre l’étude Ramazzini ?

Menée par un laboratoire italien engagé de longue date contre divers produits chimiques, l’étude suit 1 020 rats Sprague-Dawley (51 mâles et 51 femelles par groupe), exposés dès la gestation à trois doses de glyphosate : 0,5 mg/kg/j (la DJA européenne, bien au-dessus de l’exposition humaine réelle), 5 mg/kg/j et 50 mg/kg/j. Le glyphosate est administré pur ou sous forme de Roundup Bioflow ou RangerPro. Les auteurs annoncent une augmentation « significative » de tumeurs bénignes et malignes à toutes les doses : leucémies, hémangiosarcomes, cancers du foie, de la thyroïde, du système nerveux…

Des résultats inquiétants, mais fragiles

Le problème ? Il est multiple. Les rats utilisés développent déjà spontanément des tumeurs avec l’âge. Sans corrections statistiques pour les dizaines de comparaisons réalisées, le risque de faux positifs est considérable. Certaines données sont incohérentes : à la dose la plus faible de Roundup Bioflow, aucun lymphome détecté, contre 10 % dans le groupe témoin. Comment un cancérogène pourrait-il « effacer » une tumeur ? Silence radio dans l’étude. On observe aussi des courbes en U (plus de tumeurs à faibles doses qu’à fortes), et surtout, de nombreux résultats reposent sur un ou deux cas par groupe. C’est trop peu. Un calcul simple montre qu’il faudrait presque le double de rats pour détecter de façon fiable un risque multiplié par dix sur une tumeur rare. Enfin, et c’est crucial : le glyphosate est administré ici en continu dans l’eau de boisson. Rien à voir avec l’exposition humaine, qui se fait par l’alimentation, à petites doses, par pics, et à des niveaux des milliers de fois inférieurs. En population générale, le glyphosate urinaire tourne autour de 1 à 5 µg/L. Seuls certains applicateurs agricoles atteignent des niveaux plus élevés, et chez eux, un léger sur-risque de lymphome non hodgkinien est débattu depuis vingt ans – un signal absent de l’étude Ramazzini.

Une couverture médiatique biaisée

La plupart des articles reprennent les conclusions sans mise en contexte. Pas un mot sur les limites du modèle animal, les erreurs statistiques, l’inadéquation des doses testées. On empile les tumeurs comme on aligne les arguments d’un procès. On oublie aussi de préciser que les rats exposés ont vécu aussi longtemps que les témoins : aucune surmortalité observée. Présenter ces résultats comme une preuve implacable, c’est confondre signal expérimental et démonstration scientifique.

Alerter, oui. Interdire dans la précipitation, non.

Oui, cette étude mérite d’être discutée. Mais elle ne prouve pas un danger immédiat pour l’humain. Elle appelle à des reproductions indépendantes, sur d’autres souches animales, avec des protocoles plus robustes et des données publiques. Interdire le glyphosate sans alternative viable reviendrait à rouvrir la porte au labour intensif, à l’érosion des sols, à plus de CO₂, et parfois à des herbicides plus toxiques. La vraie voie, c’est une transition agronomique intelligente : rotations, couverts végétaux, désherbage mécanique, robotique.

Science vs storytelling

L’étude Ramazzini ne change pas fondamentalement l’état des connaissances. Elle relance un débat déjà ancien, sans le faire progresser de façon décisive. La presse, elle, joue souvent le rôle de caisse de résonance plutôt que celui de filtre critique. La science avance par contradiction et rigueur. Pas par proclamation.

Aucun lien d’intérêt à déclarer en rapport avec l’article

L’article Glyphosate, le retour est apparu en premier sur Les Électrons Libres.

Dompter le prompt : IA générative mode d’emploi

15 juin 2025 à 05:05

Oracle infaillible ou délire de démiurge transhumaniste ? Non, l’IA n’est qu’un outil, surpuissant mais imparfait — qu’il faut apprendre à manier pour éviter les désillusions. En commençant par formuler des requêtes claires, structurées et précises. Bref, dompter le prompt.

L’intelligence artificielle (IA) est partout : dans nos téléphones, les moteurs de recommandation, les traitements de texte ou les réseaux sociaux. Mais la révolution récente, celle qui change vraiment la donne, c’est le grand modèle linguistique, ou LLM. Imaginez un cerveau artificiel ayant ingurgité des milliards de pages, capable de générer du texte dans toutes les langues, sur tous les sujets. Il ne comprend pas ce qu’il écrit, mais prédit le mot suivant le plus probable dans une phrase. C’est une machine statistique à écriture automatique. À l’arrivée : un générateur de texte fluide, cohérent, souvent bluffant. Il sait synthétiser, reformuler, traduire, résumer… mais avec une compréhension limitée de ce qu’il produit. Et malgré des progrès constants, sa capacité à vérifier ce qu’il avance reste faible — surtout s’il n’est pas connecté à des sources fiables. C’est puissant. Mais parfois à côté de la plaque.

Le côté obscur : hallucinations et biais 

Le bug le plus fascinant des LLM s’appelle l’hallucination : ce moment où le modèle, avec aplomb, invente une loi, une citation ou une étude. Pourquoi ? Parce qu’il ne comprend rien. Il génère des mots selon des probabilités. Parfait pour une tarte aux pommes, plus périlleux pour un arrêt du Conseil d’État de 1995 sur le lancer de nains en discothèque. Ce qui vaut pour le texte vaut tout autant pour l’image.

Les modèles, sauf s’ils ont été spécifiquement entraînés à résoudre la tâche demandée, génèrent ce qui leur semble statistiquement plausible. Une horloge ? Très probablement 10h10. Même s’ils tentent de vous faire plaisir en glissant discrètement un petit 145 au milieu du cadran. Mais là aussi les progrès sont rapides et les humains à six doigts ont déjà (presque) disparu du paysage.

Les modèles peuvent aussi reproduire des biais. Non par intention, mais parce qu’ils sont abreuvés de textes issus du web — articles, forums, réseaux sociaux — qui, même filtrés, véhiculent stéréotypes et partis pris. À cela s’ajoutent des paramètres de fonctionnement qui influencent leurs réponses : la température, qui module leur créativité (et donc leur propension à halluciner), et le prompt système, rédigé par l’opérateur, qui définit le cadre général de leur comportement.

Exemple : celui de l’IA intégrée à WhatsApp précise que le modèle « n’est pas une personne et n’a pas de valeurs, de race, de culture ni d’opinion politique particulière. Il n’aime personne, ne hait personne, et n’offre aucune perspective qui lui soit propre. » Cadrage qui influe évidemment sur les réponses — surtout sur les sujets sensibles. En mars 2025, le cabinet Trickstr a soumis 14 LLM à plus de 41 000 questions issues de sondages politiques. Résultat : tous penchent à gauche. En France, avec une affinité marquée pour EELV.

Quand l’IA sort de sa bulle : la puissance augmentée

Depuis toujours, l’informatique progresse en corrigeant les effets secondaires de ses propres avancées — et l’IA ne fait pas exception. Les LLM, offrent une vision partielle du monde : une photo du web au moment de leur entraînement, parfois datée de plusieurs mois. La qualité varie selon les langues et les contextes. Une IA anglophone aura du mal à saisir les subtilités de l’arabe ou de l’indonésien. Résultat : des données parfois obsolètes, imprécises voire erronées.

Un LLM seul est une encyclopédie statistique, brillante mais périssable. Connecté à des sources fiables via différentes architectures logicielles (RAG, MCP, API – voir glossaire plus bas), il devient capable de croiser ses connaissances internes avec des données actuelles et vérifiables. Et ça change tout.

Ni secrets de famille, ni secrets d’état

J’approfondis

Entretien avec une IA : la logique du “contexte”

Les solutions d’IA basées sur les LLM ne se souviennent que de ce qui se passe dans la session en cours. Ce fil d’échange — appelé contexte — permet au modèle d’interpréter vos demandes à la lumière des messages précédents. Mais dès que vous ouvrez un nouveau chat, le contexte est réinitialisé : tout repart de zéro.

C’est pourquoi, si vous changez complètement de sujet, mieux vaut démarrer une nouvelle conversation. Cela évite au modèle de se mélanger les pinceaux en tentant de rapprocher des demandes qui n’ont rien à voir. Il est par ailleurs utile de rappeler régulièrement à votre LLM qui vous êtes et d’où vous parlez, ce qui lui permettra souvent d’adapter son niveau de réponse.

Nul n’est censé ignorer le LLM

J’approfondis

L’art de poser la bonne question : le Prompt Engineering

Pour toutes ces raisons, savoir prompter est devenu crucial. Un LLM ne lit pas entre les lignes : il exécute. Le prompt engineering est désormais une compétence à part entière : briefer clairement, formuler une demande structurée, ajuster, relancer. Si vous demandez « Parle-moi du climat », vous aurez une soupe tiède. Mais si vous réclamez « une courte synthèse critique sur les arguments scientifiques en faveur de l’origine anthropique du réchauffement climatique, avec sources », le modèle élève tout de suite son niveau de jeu.

Briefez-le comme un humain compétent : indiquez ce que vous attendez, dans quel style, avec quelles contraintes. « Écris-moi un thread X incisif, en dix tweets max, sur le bilan écologique du dernier quinquennat ». Voilà une commande exécutable. Et surtout, affinez. Testez. Relancez. « Fais plus court. », « Rajoute une vanne. », « Cite une source. » C’est l’itération qui fait la qualité et le sur mesure. N’ayez pas peur d’écrire un prompt long. Le LLM reçoit tout l’historique de la conversation à chaque requête, et les modèles connectés peuvent traiter plusieurs milliers de mots. Un bon prompt n’est jamais trop détaillé — à condition d’éviter les instructions contradictoires. Plus vous êtes clair et précis, mieux il répond.

L’arme fatale : prompt simple et implacable contre les hallucinations, par Benjamin Sire

Enfin, osez. Demandez-lui un manifeste sur le néo-libéralisme mangeur de chatons ou d’écrire une tribune d’Annie Ernaux contre l’abus de tribunes. C’est souvent dans l’absurde que l’IA surprend le plus.

L’âge du prompt

J’approfondis

C’est qui le patron ?

Cinq pièges, à éviter absolument, reviennent souvent. 

  1. Croire que l’IA a toujours raison. 
  2. Poser des questions floues (et comme toujours, si c’est flou, il y a un loup). 
  3. Oublier que le contexte ne suit pas d’une session à l’autre, ou au contraire, rester dans le même fil en changeant complètement de sujet — un bon moyen de se retrouver avec une recette de pizza au beau milieu d’un compte rendu de comité de direction. 
  4. Attendre une vérité unique sur un sujet polémique. La mode de l’appel à Grok dans les commentaires de X en dit long : chacun l’interroge pour confirmer son opinion… puis s’étonne qu’il réponde l’inverse dix minutes plus tard.
  5. Et lui déléguer des responsabilités qu’elle n’aura pas à assumer — décision médicale, arbitrage managérial, choix de vie.

Un LLM peut vous aider à repérer une fracture sur une radio, voire, ça s’est vu, à alerter sur un diagnostic manqué, mais reste un générateur de texte, pas un praticien, ni une autorité décisionnelle.

Malgré leurs limites — sans cesse repoussées — les grands modèles de langage offrent au plus grand nombre un accès à la pensée structurée, à la reformulation, et une aide précieuse à la créativité, sans pré requis (autre que cet article). De formidables alliés — à condition d’être bien maîtrisés. À l’heure de l’emoji et du vocabulaire appauvri, ils marquent le retour en force de l’écrit et de la culture générale : structuré, nuancé, précis. Cheh ! Ils peuvent répondre, dialoguer, accompagner — sans juger, sans interrompre, avec une patience infinie. Leur potentiel est immense : éducation, formation, recherche, analyse documentaire, accès à la culture, aide au diagnostic, développement informatique.

L’AGI, un Sphinx numérique aux défis existentiels

J’approfondis

L’IA peut vous faire gagner du temps. Beaucoup de temps. Vous ouvrir de nouvelles portes. Mais gardez votre cerveau en éveil : à la fin, c’est toujours vous qui décidez.

« AI won’t replace humans — but humans with AI will replace humans without AI. »

Karim R. Lakhani

Note : Cet article est issu d’une collaboration entre l’intelligence artificielle et ses auteurs, pour illustrer et appliquer les principes qu’il expose.

Glossaire

🧠 LLM — Large Language Model

Modèle d’intelligence artificielle entraîné à générer du texte, de l’image, de l’audio, du code, etc. à partir de vastes corpus de données, selon une logique probabiliste. La requête de l’utilisateur au LLM est appelée un prompt.

🔁 RAG — Retrieval-Augmented Generation

Technique consistant à fournir au modèle des extraits de documents externes pertinents avant qu’il ne réponde, pour éviter qu’il hallucine des réponses. Il reformule à partir de ces sources et peut facilement les citer.

📊 MCP — Model Context Protocol

Protocole qui permet à une solution d’IA d’accéder à des données actualisées, notamment locales sur le PC de l’utilisateur final, afin de contextualiser ses réponses en temps réel.

🔌 API — Application Programming Interface

Interface technique permettant à la solution d’IA ou autres logiciels de se connecter à une application tierce, sans passer par l’interface web. Par exemple, une IA pourrait commander des billets d’avion pour vous en utilisant l’API d’une compagnie aérienne ou effectuer une recherche google, pour trouver des informations qu’il lui manque.

🎯 AGI — Artificial General Intelligence

Niveau d’intelligence artificielle capable de raisonner de manière autonome, flexible et transversale, comme un humain (ou mieux)

L’article Dompter le prompt : IA générative mode d’emploi est apparu en premier sur Les Électrons Libres.

IA : le coup de Mistral

14 juin 2025 à 04:49

Cocorico ! C’est un véritable coup de Mistral qui vient de souffler sur le secteur de l’IA française. La start-up hexagonale et le géant américain des puces, Nvidia, viennent de sceller un accord record, qui confirme la place de la France parmi les ténors du secteur.

Vive VivaTech !

Il y a parfois des scènes où le réel ressemble à une mise en abyme de notre époque. Ce mardi 11 juin, au salon VivaTech à Paris, Emmanuel Macron, cravate ajustée et œil brillant, annonçait, tout sourire, un accord « historique » entre Mistral AI, pépite française de l’intelligence artificielle, et Nvidia, colosse californien des puces électroniques. Un partenariat « souverain », alors que l’autonomie économique et industrielle du pays, longtemps délaissée, figure désormais parmi les enjeux les plus sensibles de l’époque. Voilà qui méritait bien une ovation… et un enthousiaste cocorico.

L’annonce planait déjà sur VivaTech, après le show, quelques heures plus tôt, de Jensen Huang, le patron de Nvidia, qui organisait son propre évènement au cœur de la fête. L’entrepreneur américano-taïwanais ne s’est d’ailleurs pas contenté de célébrer cette nouvelle alliance avec Mistral. Entre deux blagues bien rodées pour séduire son auditoire, il a longuement exposé ses projets dans l’informatique quantique – en partie encore avec la France – et annoncé la construction en Europe d’un gigantesque cloud IA, à savoir une infrastructure de calcul dédiée à l’IA à très grande échelle. Mais revenons à notre sidérant accord.

Électricité bas-carbone et efficience environnementale

Il porte sur l’installation dans l’Essonne, à une trentaine de kilomètres de Paris, d’un centre de calcul massivement équipé en GPU Nvidia, les fameuses puces Blackwell de dernière génération. À terme, ce data center, en cours de déploiement, pourrait mobiliser jusqu’à 100 mégawatts d’électricité, soit trois fois plus que certains concurrents implantés en Europe, comme ceux de Google. De quoi entraîner de futurs modèles d’IA à des vitesses vertigineuses.

Un pari d’autant plus intéressant en matière de ressources qu’il s’appuie sur l’électricité décarbonée du nucléaire français. Comme nous le rappelle Charles Gorintin, cofondateur de la licorne française Alan et (non opérationnel) de Mistral AI : « Faire de l’IA en France, c’est développer une activité 20 fois moins carbonée qu’elle le serait aux États-Unis ». Par ailleurs, l’essentiel des composants du data center seront refroidis par de l’eau circulant en circuit fermé, évitant le gaspillage et le reste, par air. Ce qui répond en amont aux critiques communément soulevées par les opposants à ce type d’infrastructures.

Avec ce projet, Mistral franchit une étape décisive. Déjà valorisée à environ 6 milliards d’euros, la startup, qui s’apprête à lever un milliard supplémentaire, ne se contente plus de développer des modèles de langage (comme Mistral 7B ou Mixtral) : elle devient fournisseur d’un service complet, baptisé Mistral Compute. Une alternative tricolore aux géants du cloud que sont AWS, Azure ou Google. Rien que ça.

Emplois, rayonnement et… dépendances

Outre les bénéfices en matière de souveraineté technologique, notamment pour la recherche tricolore, l’accord offre de réelles perspectives économiques et en termes d’emploi. Les effectifs de Mistral, actuellement autour de 250 personnes, devraient croître rapidement, tandis que le fonctionnement du data center essonnien pourrait générer la création de plusieurs centaines de postes.

Si côté face, cette annonce rehausse la compétitivité de la France et de l’Europe dans la course à la domination de l’IA, côté pile, elle renforce aussi la position quasi monopolistique des américains de Nvidia dans le secteur. Leurs puces haut de gamme coûtent une fortune, et leur implantation dans l’Hexagone leur permet de grignoter encore davantage le marché et de gagner en respectabilité, tout en s’alignant habilement sur le discours européen de la « souveraineté numérique ». Néanmoins, pour Charles Gorintin : « Certes, Nvidia est évidemment un vainqueur du développement de l’IA en général. Et il serait bon d’avoir des alternatives, pour cultiver notre autonomie stratégique. En attendant, si nous souhaitons être compétitifs sur l’applicatif, nous devons nous doter des meilleures technologies actuelles. » Donc Nvidia…

VSORA : L’étoile montante française des puces IA

J’approfondis

Un monopole qui fait grincer des dents, mais relatif

Ce problème n’est pas propre à la France. Il est mondial. Aujourd’hui, plus de 90 % de l’IA de pointe fonctionne avec du Nvidia. Des puces H100 à la gamme Blackwell, les centres de calcul dépendent tous du même fournisseur. Et pour verrouiller le tout, Nvidia optimise une grande partie de la couche logicielle pour qu’elle fonctionne avec CUDA, une librairie dont elle est propriétaire, enfermant développeurs et chercheurs dans son écosystème. Une situation qui rappelle furieusement celle de Microsoft à la grande époque de Windows.

Pas étonnant, donc, que les autorités de régulation, des deux côtés de l’Atlantique, commencent à froncer les sourcils. Car le contrôle d’un maillon technologique stratégique par un seul acteur soulève un problème démocratique. Peut-on vraiment parler de souveraineté si l’on dépend intégralement d’un acteur privé américain pour accéder à l’infrastructure ? D’autant que les alternatives crédibles sont encore rares. Mais faut-il blâmer ceux qui créent pour absoudre les retardataires ? Faut-il reprocher à Mistral d’appuyer son développement sur la technologie la plus efficiente ? Sans doute pas. Surtout qu’en y regardant de plus près, Nvidia est aussi largement dépendant de l’Europe et notamment de la société néerlandaise ASML (Advanced Semiconductor Materials Lithography) – voir prolongement 1. Celle-ci produit les machines de photolithographie permettant de graver les circuits des puces les plus avancées, donc, celles sans lesquelles Nvidia n’aurait rien à vendre. Europe, États-Unis, un partout, balle au centre.

Lasers néerlandais, puces taïwanaises et ambitions chinoises

J’approfondis

En attendant, réjouissons-nous !

Alors que l’Europe était encore récemment moquée pour sa lenteur à réagir à la révolution de l’intelligence artificielle, cet accord, combiné aux nombreuses retombées du Sommet pour l’action sur l’IA, coorganisé par la France et l’Inde en février dernier, marque une inflexion majeure dans sa stratégie. Une prise de conscience qui débouche sur un véritable changement de paradigme, témoignant de la volonté de ne plus rater le coche du progrès. Et pour Mistral, c’est un levier immense. L’entreprise dispose désormais des moyens d’incarner la colonne vertébrale d’un écosystème IA français et européen à la fois compétitif, visible et ambitieux.

L’article IA : le coup de Mistral est apparu en premier sur Les Électrons Libres.

Retraites : le piège de la dette

13 juin 2025 à 03:37

“L’âge de départ doit être relevé”.
Alors que le conclave sur les retraites patine, le Comité d’Orientation des Retraites (COR) jette un pavé dans la mare. Mais peut-il en être autrement ?

Le constat est simple, les retraites pèsent trop lourd dans les prélèvements et les dépenses. Une situation sans espoir de rémission et destinée à empirer. De fait, notre système a réussi le tour de force d’accroître le déficit, d’alourdir la dette, de nuire à la productivité et de réduire le pouvoir d’achat des travailleurs. Pour s’en convaincre, rien de mieux que les comparaisons internationales, même si cela est un peu douloureux.

Premièrement, la part des revenus consacrée aux retraites est de 14 % du PIB, une des plus fortes de l’OCDE, soit 25 % des dépenses publiques. Et alors me direz-vous ? Le problème tient à l’inefficacité économique et sociale de ces dépenses. D’une part, la France est le pays où l’on vit le plus longtemps à la retraite (y compris chez les ouvriers). D’autre part, nous sommes l’une des rares nations où le niveau de vie des retraités est aussi (voire plus) élevé que celui des actifs. Il n’est donc pas surprenant que ce poste soit la première cause de l’augmentation des dépenses des administrations publiques depuis 30 ans. 

Les retraités français 
ont les mêmes revenus
que les actifs
Source : OECD, Pensions at a glance 2023.
Lecture : En France le revenu des 65 ans et plus correspond à 99.8% du revenu de la population totale. Autrement dit, le revenu des 65+ est équivalent à celui du reste de la population.

Quid des impôts ? La France est sur le podium en matière de taxation du travail. Logique, il faut bien financer ce système où les individus partent à la retraite plus tôt malgré des pensions plus généreuses qu’ailleurs, même si elles sont loin d’être faramineuses. Cela pèse logiquement sur la fiche de paie, notamment pour les travailleurs les mieux rémunérés. En conséquence, le coût du travail est plus élevé en France, notamment pour les actifs les plus qualifiés, c’est-à-dire les plus productifs.

Des salaires parmi
les plus taxés de l’OCDE
Source : OCDE, Les impôts sur les salaires 2025
Note : couple marié ayant deux enfants et disposant de deux salaires, dont l’un est égal à 100 % et l’autre à 67 % du salaire moyen. Les taxes sur les salaires sont incluses si elles s’appliquent.
Lecture : le coin fiscal en France est de 41% pour les couples mariés avec deux enfants dont les revenus correspondent à la classe moyenne. Autrement dit, le salaire net des impôts de ce couple représente 59% des coûts totaux de main-d’œuvre pour son employeur.

La logique la plus élémentaire – et surtout la démagogie – inclinerait à davantage taxer les entreprises. Hélas, leurs marges ne sont pas aussi larges que certains l’affirment. Même si ces dernières reçoivent nombre de subventions et crédits d’impôt, ne nous y trompons pas, le taux de taxation net des subventions des entreprises françaises est parmi les plus élevés de l’OCDE. Pourquoi ? Parce que les cotisations patronales servant au financement des retraites pèsent lourd, très lourd même. En conséquence, ce qui aurait pu être mobilisé pour l’investissement et l’innovation d’une part et la rémunération nette des travailleurs, d’autre part, s’en trouve réduit. Ce qui, ici encore, nuit aux gains de productivité.

Des cotisations qui pèsent 
lourd sur les entreprises
Source : OCDE, comptes nationaux, tableau 14B
Note : le taux de taxation net des entreprises correspond à la somme des contributions sociales patronales, taxes nettes des subventions sur la production et impôts sur les bénéfices, le tout rapporté sur la valeur ajoutée nette.
Lecture : En France le taux de taxation des entreprises en 2019 est de 28%, soit 17.9% pour les contributions patronales, 4.2% pour les impôts sur la production et 5.9% pour les impôts sur les bénéfices.

En conséquence, travail et capital, les deux facteurs de production principaux, sont beaucoup plus taxés chez nous qu’ailleurs. À tel point que de nouvelles taxes risquent même de réduire les recettes, les effets négatifs sur la production faisant plus que compenser l’augmentation du taux de taxation. Il n’y a donc plus de marges de manœuvre, à moins que l’objectif soit de nuire à la croissance tout en augmentant le fardeau de la dette.

La bonne nouvelle est que, contrairement à nombre d’idées reçues, les inégalités de niveau de vie n’ont jamais été aussi faibles que depuis ces 10 dernières années. Autrement dit, ce point occupe une place médiatique et politique inversement proportionnelle à son coût social effectif. Dès lors, une bonne réforme des retraites devrait surtout s’attacher à ne pas réduire le niveau de vie des générations de travailleurs présentes et futures.

Source : WID
Note : Part des revenus des 10% les plus aisés dans le revenu disponible total.
Lecture : En France, le revenu disponible des 10% les plus aisés représente 23% du revenu disponible total en 2022.

La mauvaise nouvelle est que notre productivité stagne, voire décroît en tendance, ce qui vient rompre avec 70 ans de croissance, cas plutôt rare parmi les pays occidentaux. Seule la Grèce a fait pire depuis 2015… Rien de surprenant compte tenu du poids du système social (et notamment des retraites) sur la taxation du travail productif et l’investissement des entreprises. Tant pis si les gains de productivité sont essentiels pour accroître les revenus et réduire le poids des dettes et déficits. Les coûts politiques de court terme passent avant les coûts économiques et sociaux de long terme. Un classique délétère. D’ailleurs, un cercle vicieux s’est déjà enclenché, voyant le poids de notre système social porter atteinte à la croissance, accroître le déficit et conduire à imaginer davantage de taxes qui en retour affectent la productivité et la croissance.

Source : OCDE
Note : La productivité du travail est mesurée par le rapport du PIB au nombre d’heures travaillées.
Lecture : La productivité du travail a baissé de 0.2% depuis 2015 en France.

Quelles solutions alors ? Tout d’abord, l’abattement à 10 % des ménages retraités assujettis à l’impôt sur le revenu n’a pas de sens. Il favorise les retraités les plus aisés alors que l’objectif de celui-ci est de compenser les coûts associés au travail. Autre piste, la non-indexation des pensions les plus élevées (il ne s’agit bien évidemment pas de toucher aux retraités pauvres). Pour les plus craintifs (mais sincères), notez que cela n’augmentera ni les inégalités de revenu ni le taux de pauvreté. En revanche, cela redonnera un peu d’air aux finances publiques et au pouvoir d’achat des travailleurs. Et si l’on croit cela infaisable, la meilleure preuve du contraire demeure la non-revalorisation du point d’indice des fonctionnaires qui, depuis de nombreuses années, ne semble préoccuper que les principaux concernés (dont je fais partie). 

 Il y a enfin la question que tout le monde se pose, faut-il repousser l’âge de départ à la retraite ? De fait, la pyramide des âges est sans appel, le déséquilibre est structurel, large et persistant. Or, puisque le levier de la taxation du travail a déjà atteint ses limites économiques et politiques, et à défaut de gains de productivité, il ne reste que la réduction des dépenses et l’augmentation de la durée de cotisation. L’usage de ces deux leviers est nécessaire, chose que nos voisins ont comprise depuis bien longtemps.

L’article Retraites : le piège de la dette est apparu en premier sur Les Électrons Libres.

2023, l’été meurtrier

11 juin 2025 à 16:07

À l’été 2023, l’Europe a connu des températures sans précédent et une série d’événements climatiques meurtriers, causant plusieurs dizaines de milliers de victimes. Une étude récente tente d’en comprendre les origines : des vents anormalement faibles et l’effet inattendu de nouvelles normes environnementales.

Jusqu’alors, l’Atlantique Nord se réchauffait plus lentement que le reste du globe. Mais brutalement, la tendance s’est inversée. Les écosystèmes marins en ont été durement affectés : des milliers de poissons se sont échoués sur les côtes du golfe du Texas, quelques semaines à peine avant que l’Europe ne suffoque.

Une canicule historique

Juillet 2023 est devenu le mois le plus chaud jamais mesuré sur Terre, juste devant… le mois d’août qui a suivi. Septembre a établi un record absolu d’anomalie thermique : +1,82 °C au-dessus des niveaux préindustriels (1850‑1900).

Cette canicule aurait causé près de 48 000 morts en Europe, un continent encore mal préparé à faire face à de telles chaleurs, notamment en raison d’un faible accès à la climatisation. Un chiffre malheureusement plus exact que celui des 48 000 morts de la pollution.

Source : Our world in data

En Grèce, des incendies d’une ampleur inédite ont fait au moins 20 morts. La tempête Daniel a causé des milliers de victimes. Fin juillet, l’Italie a été frappée par des grêlons de 19 cm de diamètre, un record européen.

Des causes multiples, parfois inattendues

Depuis cet été hors normes, les climatologues s’efforcent d’en décrypter les causes. Et entre partisans des différentes hypothèses, les débats ont parfois été vifs. Mais une étude récente publiée dans Nature pourrait mettre tout le monde d’accord.

Principale cause identifiée : des vents exceptionnellement faibles dans l’Atlantique Nord. En été, l’océan est fortement stratifié, avec une couche d’eau chaude en surface reposant sur des eaux plus froides. Or, l’épaisseur de cette couche dépend directement de la force du vent. En temps normal, elle mesure entre 20 et 40 mètres. En 2023, elle n’atteignait que 10 mètres. Moins de vent signifie moins d’échanges thermiques, moins d’embruns, une mer plus calme, une couverture nuageuse plus faible, et donc plus de rayonnement solaire absorbé.

Ce phénomène pourrait avoir été aggravé par le développement d’El Niño, un cycle climatique bien connu pour perturber les vents océaniques. Par ailleurs, le réchauffement climatique affaiblit lui aussi la capacité des vents à mélanger les couches océaniques supérieures.

Un autre facteur, plus inattendu, semble avoir aussi joué un rôle, moindre, mais réel : la forte baisse des émissions de dioxyde de soufre des navires. Depuis 2020, de nouvelles régulations les ont réduites de plus de 80 %. Cela a permis d’assainir l’air, mais aussi… de rendre les nuages moins brillants, et donc moins réfléchissant. Or, l’Atlantique Nord est une des zones les plus fréquentées du globe. Tianle Yuan, physicien de l’atmosphère à la NASA, avait à l’époque parlé d’un véritable « choc pour le système ».

Ce type d’effet fortuit avait déjà été observé pendant le confinement du Covid : la baisse du trafic routier avait entraîné une surprenante hausse de la concentration de méthane dans l’atmosphère.

La mystérieuse augmentation de la concentration de gaz à effet de serre pendant la pandémie

J’approfondis

Quand la géo-ingénierie entre dans le débat climatique

Ironie de l’histoire : relâcher du soufre dans l’atmosphère est précisément l’une des méthodes envisagées dans le cadre de la géo-ingénierie. Peu coûteuse, elle permettrait — en théorie — de faire baisser la température moyenne de 0,1 °C par an, pour un coût inférieur à 5 milliards de dollars. Techniquement simple, cette méthode serait redoutablement efficace… mais aussi extrêmement risquée.

Le soufre entraîne des pluies acides, qui détruisent les forêts, rongent les bâtiments, et provoquent maladies cardiaques, respiratoires, voire cancers. D’autres substances sont à l’étude, comme le carbonate de calcium. Certaines équipes, soutenues entre autres par la fondation Bill Gates, étudient la possibilité d’en disséminer en haute altitude pour réduire l’ensoleillement. Selon certains chercheurs, cela pourrait suffire à diviser par deux l’augmentation de la température mondiale.

Quelles leçons pour demain ?

« Les vagues de chaleur devraient s’aggraver, avec des conséquences dévastatrices sur les écosystèmes marins, et les ouragans devraient s’intensifier », concluent les auteurs de l’étude sur l’été 2023. Face à cela, la tentation de la géo-ingénierie risque de grandir, suscitant des débats qui dépasseront probablement l’analyse rationnelle.

Cet été meurtrier nous rappelle une chose essentielle : toute action, même vertueuse, peut avoir des conséquences inattendues. C’est précisément pour cette raison que le débat climatique ne peut se satisfaire de slogans simplistes et de discours alarmistes. Le catastrophisme peut paralyser l’action ou pousser à des solutions radicales sans consensus. L’urgence ne doit pas tuer la nuance : c’est la compréhension fine des mécanismes climatiques, et non la peur, qui nous aidera à choisir les réponses adaptées.

L’article 2023, l’été meurtrier est apparu en premier sur Les Électrons Libres.

Teravenir : la start-up picarde qui connecte la terre

11 juin 2025 à 04:03

Réduire les intrants « jusqu’à 50 % », tout en augmentant les rendements agricoles « d’au moins 20 % ». C’est la promesse de la jeune pousse Teravenir, installée à Amiens, qui veut révolutionner la fertilisation des sols avec une sonde connectée.

Start-up créée il y a quelques mois seulement, en octobre 2024, Teravenir fait déjà parler d’elle dans le monde de l’AgTech. Sa promesse ? Aider les agriculteurs à produire mieux, avec moins. Grâce à une sonde connectée enterrée dans le sol et une application mobile, les exploitants pourraient bientôt surveiller en temps réel les besoins nutritionnels de leurs cultures. Une technologie inédite, qui combine capteurs optiques et électrochimiques, algorithmes de recommandations, et surtout, autonomie totale sur le terrain.

Une idée née de la recherche académique, mûrie au contact du terrain

Derrière cette innovation, un homme : Benjamin Mendou, docteur en biotechnologie végétale et enseignant-chercheur à l’Université de Picardie Jules Verne. Depuis 2014, il planche sur un outil qui pourrait rendre les pratiques agricoles à la fois plus intelligentes, plus rentables et plus durables. Il s’associe à Alain Cauchois et Pascal Fradcourt, qui apportent leur expérience terrain et managériale, et donne ainsi naissance à Teravenir. Ensemble, ils veulent transformer ce projet de laboratoire en solution de terrain opérationnelle, testée dans les champs, et bientôt industrialisée.

Le dispositif phare de Teravenir, la station ATS (Agriculture Technology Solution), s’enterre discrètement dans la parcelle, capte les taux de nitrates, de phosphore ou de potassium, puis envoie les données à l’agriculteur via une appli intuitive. L’exploitant reçoit alors des recommandations claires : quand intervenir, avec quelle dose d’engrais, et sur quelle zone précise. L’objectif est simple : apporter « la juste dose, au bon moment, au bon endroit ». Ce dosage millimétré permettrait d’économiser entre « 200 et 300 euros par hectare » en fertilisants, le tout associé à une réduction des pesticides utilisés. « Notre solution permet d’augmenter les rendements de 20 à 30 %, en diminuant l’utilisation des intrants d’environ 50 % », assure le dirigeant de la jeune pousse. À l’heure où l’agriculture est sommée de produire davantage avec moins d’impact, Teravenir coche donc toutes les cases !

Premiers déploiements en 2025, ambitions mondiales en ligne de mire

Sur le plan technologique, la solution Teravenir se distingue par plusieurs innovations notables : l’automatisation du système grâce à des algorithmes avancés, l’intégration d’un module optique polyvalent capable de mesurer en temps réel plusieurs paramètres du sol (azote, phosphore, potassium, magnésium), des sondes placées à différentes profondeurs, etc. L’ensemble de ces caractéristiques font de cette sonde connectée un outil de fertilisation de précision « sans équivalent connu à l’heure actuelle ».

Son dernier prototype industriel, baptisé « INEO » et optimisé avec l’aide du français Equans, a été présenté au printemps 2025 à la Chambre d’agriculture de la Somme. Il est désormais équipé d’une batterie et de panneaux solaires (pour l’été) et d’une résistance (en hiver). Il est prévu de déployer environ une cinquantaine de stations cet automne sur des exploitations pilotes en Picardie, avant une production plus large et une levée de fonds pour accélérer l’industrialisation : « Nous allons d’abord passer à 500 machines, puis lancer une commercialisation internationale ». Sachant que chaque système de trois sondes serait capable de gérer jusqu’à « 10 hectares », et est produit avec des matériaux « prévus pour résister aux intempéries et aux chocs, comme ceux des machines agricoles et des animaux ».

Si la France reste le cœur de cible, via ses coopératives agricoles, des signaux venus de l’étranger, notamment de Chine, où une administration locale (Hefei) souhaite commander « 1000 unités », montrent que l’intérêt pour cette technologie est déjà mondial. « Nous allons fabriquer à Laroche Industries (Méaulte) et exporter ensuite. C’est du Made in France que l’on va déployer en Chine », se réjouit l’inventeur-entrepreneur.

L’article Teravenir : la start-up picarde qui connecte la terre est apparu en premier sur Les Électrons Libres.

Pollution et Comté : faut-il en faire tout un fromage ?

10 juin 2025 à 04:03

« Connaissez-vous quelqu’un qui n’aime pas le Comté ? » Ce slogan bien connu pourrait bientôt faire sourire jaune. Car depuis quelques temps, le célèbre fromage est dans le viseur : on l’accuse d’être à l’origine d’un « écocide » dans les rivières du Jura.

L’envers du décor

L’élevage laitier franc-comtois avait pourtant tout pour plaire : des vaches Montbéliardes broutant paisiblement dans des prairies verdoyantes, loin de l’image d’une agriculture intensive et polluante. Or… ce sont bien leurs déjections qui sont aujourd’hui pointées du doigt, en tant que principales responsables de la hausse des nitrates dans les eaux du massif jurassien depuis les années 1980.

Le paradoxe ? Il s’agit d’un élevage extensif, nourri à l’herbe, sans maïs, sans pesticides, sans engrais de synthèse, sans irrigation. Sur le papier, pratiquement un modèle rêvé pour les écologistes. Mais le Jura a un talon d’Achille géologique : son sous-sol.

Des roches comme du gruyère

Sous les sabots des vaches, la roche calcaire est criblée de cavités et de fissures, agrandies par la dissolution liée à la circulation de l’eau : c’est ce qu’on appelle un karst. Le résultat ? Des eaux de ruissellement qui s’infiltrent à toute vitesse. Les molécules azotées contenues dans les déjections, qui ne sont pas suffisamment filtrées par des sols trop minces, rejoignent donc (trop) rapidement les rivières, où elles fragilisent gravement la faune aquatique.

Et le changement climatique aggrave encore la situation. En été, les sécheresses provoquent une accumulation des nitrates dans les sols. Puis, à la première grosse pluie, tout est lessivé d’un coup, avec des pics de pollution qui dépassent souvent les seuils de tolérance pour de nombreuses espèces.

Alors, on arrête le Comté ?

Pas si vite. L’idée de bannir le Comté est aussi impopulaire qu’irréaliste. Même l’écologie politique y va avec des pincettes, tant le sujet est sensible. Car si la filière pose des problèmes environnementaux réels, elle apporte aussi des bénéfices impossibles à balayer d’un simple revers de main… Bien au-delà de la qualité gustative de ce trésor de la fromagerie française.

D’un point de vue économique, c’est une pépite : 700 millions d’euros de chiffre d’affaires, 8000 emplois directs, une dynamique rurale exceptionnelle. Sur le plan culturel, c’est une fierté nationale. Et écologiquement, le tableau n’est en réalité pas si sombre : les vaches permettant de maintenir des prairies permanentes, véritables refuges de biodiversité, tout en freinant la progression de la forêt sur les zones ouvertes.

Photo Stéphane Varaire

Et puis, soyons lucides : si on arrêtait de produire du Comté dans le Jura, la demande ne disparaîtrait pas pour autant. La production serait alors simplement déplacée. On compenserait ailleurs, sans doute dans des zones de plaine, avec des élevages plus intensifs, nourris aux cultures céréalières. Résultat : peut-être moins de nitrates dans les rivières jurassiennes… mais plus d’impacts ailleurs. Un jeu à somme nulle pour l’environnement. Et au passage, on y perdrait beaucoup de goût. Parce qu’entre nous, un fromage industriel, c’est quand même pas le même plaisir.

Faut-il arrêter l’élevage pour gagner de la place ?

J’approfondis

Alors que faire ?

Réduire brutalement la filière serait contre-productif, à la fois pour l’économie locale et pour l’environnement. Mais cela ne signifie pas rester inactif !

Une diminution de la densité du cheptel, associée à une meilleure répartition géographique des élevages, pourrait limiter les excès locaux de nitrates. On peut aussi envisager de mieux gérer les autres sources de pollution par différents leviers :

  • Optimisation des épandages agricoles,
  • Renforcement de l’assainissement des eaux usées en zones urbaines,
  • Contrôle des rejets azotés des fromageries.

Et surtout, ne pas oublier les efforts déjà réalisés. Dans les années 90, un vrai virage a été pris. Grâce à lui, les niveaux de nitrates dans les rivières ont été stabilisés… alors même que la production de Comté a presque doublé depuis les années 2000.

Un bilan contrasté, mais encourageant.

Alors certes, on peut voir le verre à moitié vide : malgré les efforts, les concentrations restent élevées. Ou à moitié plein : sans ces efforts, la situation serait bien pire. Encore une fois, la complexité du réel vient se heurter à l’angélisme ou à la mauvaise foi du politique. Entre rejet total et laissez-faire, il y a une voie de bon sens : celle d’un Comté plus durable, conciliant tradition, économie locale et respect de l’environnement.

L’article Pollution et Comté : faut-il en faire tout un fromage ? est apparu en premier sur Les Électrons Libres.

❌