Vue lecture

Élever sans frustrer ? Les illusions dangereuses de l’éducation bienveillante

Jeunes parents, vous n’avez pas pu y échapper. Il y a une quinzaine d’années, l’éducation positive a déferlé sur la France, portée par un cocktail de grands principes, de références aux neurosciences… et d’injonctions parfois culpabilisantes. Mais ce modèle éducatif tient-il réellement ses promesses ? Et au fond, est-il vraiment si « positif » ?

Lorsque Isabelle Filliozat publie J’ai tout essayé en 2011, rien ne laissait présager un tel raz-de-marée éditorial. Jusqu’alors, l’auteure prêchait plutôt dans le désert. Son précédent ouvrage consacré à l’éducation, Au cœur des émotions de l’enfant, paru en 1999, n’avait rencontré qu’un écho modeste. Mais cette fois, le succès est immédiat et massif, et sera le point de départ d’un véritable phénomène de société : En quelques années à peine, l’éducation « positive » qu’elle promeut s’impose progressivement comme une évidence, presque comme une nouvelle norme. Et son premier livre, rétrospectivement, est élevé au rang de texte fondateur du mouvement.

Dans la foulée, en 2014, la pédiatre Catherine Gueguen publie Pour une enfance heureuse. Là encore, le succès est spectaculaire. Forte de sa formation médicale, elle vient appuyer les intuitions de Filliozat (psychologue de formation) par des arguments issus des neurosciences. Les principes de l’éducation bienveillante gagnent alors un vernis scientifique qui achève de la légitimer aux yeux du grand public. 

Mais de quelles thèses parle-t-on exactement ?

Les axiomes de l’éducation bienveillante

Tous les parents le savent : la parentalité ressemble souvent à un parcours du combattant. Dans ce contexte, la soif de réponses est immense, et c’est précisément là que ces ouvrages rencontrent leur public. Ils promettent des clés simples, directement applicables, presque des modes d’emploi pour parents démunis. Le tout enveloppé de valeurs auxquelles personne ne peut décemment s’opposer : le bien-être de l’enfant, la sérénité familiale, l’amour, l’épanouissement. Rien d’étonnant, dès lors, à ce que ces livres deviennent des best-sellers.

D’autant que le message est clair : tout se joue pendant l’enfance. Faites les mauvais choix, commettez des erreurs éducatives (sous-entendu : ne respectez pas nos conseils), et vos enfants en paieront le prix toute leur vie.

Et parmi ces erreurs, la plus grave serait de stresser l’enfant. Catherine Gueguen alerte ainsi sur les effets délétères du cortisol, l’hormone du stress, qui provoquerait des dégâts irréversibles sur le cerveau en développement. À l’inverse, l’ocytocine — hormone de l’attachement et du bien-être — favoriserait un développement cérébral optimal. Conclusion : éviter à tout prix colères, frustrations et sanctions, au profit des câlins, et autres témoignages d’affection. Sous peine, là encore, de conséquences durables.

Dans cette logique, toute « violence éducative ordinaire » est proscrite. Bien sûr, les violences physiques sont bannies. Mais la notion s’étend bien au-delà : crier, punir, contraindre un enfant à faire quelque chose qu’il ne souhaite pas deviennent, eux aussi, des formes de violence psychologique.

Et si, malgré toute cette vigilance, une colère incontrôlée survient, il ne s’agit surtout pas d’un caprice. Les caprices, nous dit-on, n’existent pas. Ces débordements seraient des appels à l’aide, auxquels il faudrait répondre par de l’affection, de l’écoute, du réconfort, et surtout du dialogue. D’autant que, chez le jeune enfant, le cortex préfrontal, siège du raisonnement et du contrôle de soi, est immature. L’enfant serait donc gouverné par ses pulsions, incapable de planifier ou de se réguler. Dans ces conditions, toute sanction serait non seulement injuste, mais contre-productive. Alors qu’un sain dialogue permettrait de « reconnecter » le néocortex, qui reprendrait le dessus sur le cerveau limbique et le fameux « cerveau reptilien », responsables des émotions et des réactions instinctives.

Isabelle Filliozat pousse le raisonnement encore plus loin. Un enfant agité, qui court, grimpe, déborde d’énergie ? C’est parfaitement normal. « La vie, c’est le mouvement », affirme-t-elle. Chercher à canaliser ces comportements reviendrait à aller contre sa nature biologique. À l’inverse, un enfant trop obéissant devient suspect : il serait en réalité en état de stress ou de sidération. Face à un parent autoritaire, son cerveau reptilien déclencherait une réponse de paralysie.

Et chez l’adolescent ? La crise est présentée comme inévitable. Le cortex préfrontal, encore immature, empêche toute autorégulation efficace, tandis que le cerveau est inondé de dopamine, rendant le circuit de la récompense hyperactif. Punir un ado pour ses excès serait donc profondément injuste. Cela reviendrait à reprocher à un tout-petit de ne pas savoir marcher.

Pire encore, le cerveau adolescent étant en pleine reconfiguration, il doit expérimenter pour développer ses propres facultés. Si le parent décide à sa place, contrôle trop, cadre trop, le cerveau de l’adolescent ne « câble » pas l’autonomie attendue.

La conclusion logique est que, pour être juste et bienveillant, il faudrait laisser faire. Prendre du recul. Accepter les débordements comme des passages nécessaires. Insultes, violences, conduites à risque, consommation de substances ? Rien d’anormal : ce serait, là encore, la simple expression de sa nature.

Sous le vernis de la science

Pris isolément, ces axiomes peuvent sembler relever du bon sens. Mieux encore, ils paraissent solidement adossés à des résultats scientifiques. Mais dès que l’on gratte un peu le vernis, la fragilité de l’argumentation apparaît rapidement.

Article réservé à nos abonnés.

S'abonner dès 5€/mois

ou

Acheter cet article pour 1,50€

L’article Élever sans frustrer ? Les illusions dangereuses de l’éducation bienveillante est apparu en premier sur Les Électrons Libres.

💾

  •  

Conservateurs ? Pas de panique !

C’est l’inquiétude de la rentrée : les conservateurs alimentaires augmenteraient le risque de cancer et de diabète. Mais attention : une corrélation n’est pas une preuve de causalité, et ces additifs rendent des services précieux dans la lutte contre les contaminations et le gaspillage alimentaire.

La cohorte NutriNet-Santé est une grande étude épidémiologique française lancée en 2009 et entièrement en ligne. Des volontaires, âgés de 15 ans et plus, y décrivent régulièrement leur alimentation via des rappels de 24 heures, ainsi que leur état de santé et leurs habitudes de vie.

Deux articles publiés début janvier 2026, relayés par l’Inserm, exploitent ces données collectées entre 2009 et 2023. 105 260 participants ont été inclus pour l’analyse dédiée au « cancer » et 108 723 pour celle consacrée au « diabète ». La cohorte étant composée à près de 80 % de femmes, d’un âge moyen de 42 ans, la prudence reste donc de mise avant de généraliser ces résultats à l’ensemble de la population.

Nous avions déjà évoqué cette même cohorte lorsqu’elle avait servi à alerter sur des risques éventuels liés à l’aspartame, et nous en avions discuté les limites.

Il s’agissait ici notamment d’étudier le rôle et les conséquences de la consommation de certains conservateurs. Ceux considérés par l’étude appartiennent au large groupe des additifs autorisés en Europe (codes E200 à E297 environ), parmi lesquels les sorbates, sulfites, nitrites et nitrates, benzoates, acétates, propionates ou encore certains antioxydants comme l’érythorbate de sodium. Leur rôle essentiel consiste à empêcher la prolifération microbienne, à prolonger la conservation des produits et à garantir la sécurité sanitaire des aliments transformés. Grâce à une méthode d’estimation fine, combinant déclarations précises des produits consommés, bases de données actualisées et dosages en laboratoire, les chercheurs ont pu évaluer l’exposition individuelle avec une précision supérieure aux travaux antérieurs. Il s’agit néanmoins d’une étude observationnelle : elle révèle des associations statistiques, sans pouvoir démontrer un lien causal direct.

Concernant le cancer, sur plus de 4 200 cas diagnostiqués, la consommation globale de tous les conservateurs confondus ne montre pas d’excès de risque significatif. En revanche, une consommation plus élevée du groupe des conservateurs non antioxydants est associée à une augmentation modeste du risque (environ 16 % chez les plus forts consommateurs par rapport aux plus faibles), ce qui se traduit, à soixante ans, par un risque absolu passant de 12,1 % à 13,3 %. Parmi les substances les plus souvent citées figurent les sorbates, les sulfites (dont le métabisulfite de potassium), les nitrites et nitrates, ainsi que certains acétates, avec des signaux plus marqués selon les localisations (cancers tous sites confondus, sein, prostate). À l’inverse, onze des dix-sept conservateurs analysés individuellement ne présentent aucune association mesurable avec un sur-risque.

Pour le diabète de type 2, sur un peu plus de 1 100 cas observés dans une population relativement jeune, les plus forts consommateurs affichent un risque relatif augmenté d’environ 47 % par rapport aux plus faibles. Douze conservateurs individuels sont concernés, parmi lesquels reviennent fréquemment le sorbate de potassium, le métabisulfite de potassium, le nitrite de sodium, l’acide acétique, plusieurs acétates et certains antioxydants.

Ces associations, quoique statistiquement détectables, demeurent modestes et particulièrement sensibles à divers biais inhérents à l’épidémiologie observationnelle : imprécisions inévitables dans les mesures, caractéristiques propres aux volontaires de la cohorte, facteurs confondants non entièrement maîtrisés malgré des ajustements très poussés. Surtout, plusieurs de ces substances sont étroitement liées aux aliments qui les véhiculent. Par exemple, les nitrites et nitrates proviennent majoritairement des viandes transformées, déjà classées cancérogènes probables pour l’homme, tandis que les sulfites sont très présents dans les boissons alcoolisées, dont l’effet délétère sur le risque de cancers (notamment du sein) est solidement établi.

À titre de comparaison, le tabac multiplie le risque de cancer du poumon par vingt à trente chez les gros fumeurs de longue date, et chaque tranche quotidienne de dix grammes d’alcool augmente le risque de cancer du sein d’environ sept pour cent. Ces ordres de grandeur rappellent que les signaux observés autour des conservateurs, bien qu’ils méritent une attention soutenue et des confirmations dans d’autres populations, restent très éloignés des facteurs de risque majeurs et incontestés.

Ces travaux soulignent une tension classique en santé publique. Les conservateurs rendent un service précieux en limitant les contaminations, en réduisant le gaspillage alimentaire et en maintenant l’accessibilité économique de nombreux produits. Les associations mises en évidence appellent à des études complémentaires, sur des cohortes plus diversifiées et sur des durées plus longues, avant toute inflexion réglementaire. En attendant, le conseil le plus solide et le plus pragmatique pour le grand public demeure de favoriser une alimentation variée, majoritairement peu transformée, riche en produits bruts ou fraîchement préparés, tout en gardant à l’esprit que les leviers de prévention les plus puissants résident toujours dans l’arrêt du tabac, la modération alcoolique, un équilibre nutritionnel global et une activité physique régulière.

L’article Conservateurs ? Pas de panique ! est apparu en premier sur Les Électrons Libres.

  •  

Les paniques numériques de l’ADEME

Régulièrement, l’ADEME redécouvre que le numérique consomme de l’électricité. Après le catastrophisme sur les mails, le streaming, le métavers ou la 5G, l’agence cible désormais l’IA et les data centers. Avec une mécanique immuable : diaboliser nos usages pour présenter la sobriété – voire la décroissance – comme seul horizon désirable.

Allons droit au but. Le dernier rapport de l’ADEME sur l’évolution des consommations des data centers en France appelle de nombreuses critiques. Une modélisation simpliste, fondée sur des données en partie obsolètes, ne peut sérieusement prétendre éclairer l’avenir, a fortiori à l’horizon 2060, dans un secteur marqué par des ruptures technologiques rapides et imprévisibles. Mais ces débats méthodologiques sont presque secondaires, tant la conclusion semble écrite d’avance. L’analyse ne vise qu’à donner un vernis scientifique à la légitimation d’une sobriété dont vivent les auteurs.

Pire encore, si la recommandation implicite de ce rapport était suivie — freiner l’implantation jugée « effrénée » des data centers en France au nom de leur incompatibilité supposée avec l’Accord de Paris — cela reviendrait à encourager le recours à des serveurs situés dans des pays au mix électrique bien plus carboné, au détriment du bilan carbone global. Un résultat absurde pour une démarche aussi hypocrite que contre-productive.

Une conclusion écrite d’avance

Le rapport propose cinq scénarios. Un scénario dit « tendanciel », présenté comme la trajectoire naturelle en l’absence de politiques publiques correctrices, et quatre scénarios alternatifs repris du rapport Transition(s) 2050 : les fameux « Générations frugales » (la douce sobriété décroissante), « Coopérations territoriales », « Technologies vertes » et « Pari réparateur » (l’affreux techno-solutionnisme). Sans surprise, le scénario tendanciel, à base de règles de trois sommaires sur les tendances actuelles, est celui qui produit les consommations les plus élevées, tous les autres convergeant vers une baisse. Jusque-là, rien d’anormal.

C’est ensuite que ça se gâte. La synthèse du rapport affirme que « les optimisations technologiques telles que l’augmentation de l’efficacité et la récupération de la chaleur fatale ne suffiront pas à stabiliser la croissance des consommations électriques des centres de données en France sans la mise en place d’une politique active de sobriété pour les services numériques et les usages ». Une affirmation sans preuve, qui découle mécaniquement des hypothèses retenues, lesquelles n’intègrent pas, ou très peu, de progrès technologiques. Et qui, surtout, érige la stabilisation de la consommation électrique des centres de données en une fin en soi, sans jamais en justifier la pertinence au regard de notre surcapacité de production électrique ou des externalités positives des nouveaux usages numériques.

Des chiffres sans contexte

Le chiffre est spectaculaire. La consommation électrique des centres de données « induite par les usages des Français » pourrait être multipliée par 3,7 d’ici 2035, voire par 4,4 si l’on inclut la part dite « importée ». Verdict ? Une telle trajectoire serait incompatible avec l’Accord de Paris. Le message est simple, anxiogène et médiatiquement très efficace.

Pourtant, pris isolément, ce chiffre ne signifie pas grand-chose. Cette présentation occulte que les 8 TWh actuels estimés par l’ADEME — soit environ trois fois la consommation annuelle d’une ville comme Lyon ou Marseille — ne représentent que 1,8 % de la consommation nationale. Quant aux 26 TWh de croissance projetés d’ici 2035 dans le scénario tendanciel, ils apparaissent parfaitement soutenables au regard des surcapacités de production d’environ 100 TWh par an signalées par RTE. La France est d’ailleurs la première exportatrice d’électricité décarbonée de l’UE, avec un nouveau record de 92,3 TWh en 2025. Présenter une telle croissance, alimentée par une électricité largement décarbonée, comme une menace climatique relève, au mieux, du contresens ; au pire, de la malhonnêteté intellectuelle.

Quant à la notion de « consommation importée », elle pose un problème conceptuel évident. À usages constants, cette consommation existe quel que soit le lieu d’implantation des serveurs. La seule manière de la réduire consiste à restreindre les usages eux-mêmes, hypothèse explicitement assumée par le scénario 1, qui prévoit de mettre fin à des usages jugés « inutiles et nocifs ».

À l’inverse, freiner la construction de data centers en France, voire instaurer un moratoire comme suggéré par ce même scénario 1, ne supprime rien, mais déplace le problème, transformant une prétendue mesure de sobriété en dégradation globale.

Une modélisation et des hypothèses discutables

Le rapport présente son approche comme reposant sur un travail de « modélisation ». En clair, un tableau Excel.

Celui-ci est bâti sur des hypothèses qui concourent toutes à surévaluer les besoins énergétiques projetés. D’abord, il retient le volume de données comme indicateur central de l’impact environnemental, un choix pourtant largement reconnu comme inadapté au numérique moderne. Assimiler mécaniquement « plus de données » à « plus d’énergie » revient à ignorer les gains continus d’efficacité liés aux architectures, aux algorithmes et à l’optimisation des systèmes. Ensuite, il associe ce volume de données à un nombre toujours croissant de requêtes centralisées, en faisant l’impasse sur l’essor déjà réel de modèles plus légers, capables de tourner directement sur les smartphones, les ordinateurs ou les objets connectés. Enfin, pour estimer la consommation électrique, il s’appuie sur des références technologiques dépassées, issues d’un état du numérique antérieur à l’explosion de l’IA générative, en ignorant que les puces les plus récentes, conçues pour l’IA, sont capables de fournir bien plus de calculs pour une même quantité d’électricité.

Le rapport pousse l’exercice prospectif jusqu’en 2060, un horizon particulièrement lointain pour un secteur marqué par des ruptures technologiques rapides. Pour mesurer l’ampleur de l’écart, il suffit de se replacer trente-cinq ans en arrière, en 1990, à une époque où Internet n’était pas un usage grand public, où les PC tournaient avec un processeur 80486 et 4 Mo de RAM, et où l’ADEME elle-même n’existait pas encore.

Une conviction préalable

La lecture du rapport laisse apparaître que la sobriété n’est pas une hypothèse parmi d’autres, mais un objectif. Les communications sur LinkedIn de l’autrice principale, trésorière de l’association GreenIT (voir encadré), le confirment explicitement. Dans un post publié lors de la sortie de l’étude, elle explique que seuls les scénarios fondés sur la sobriété lui paraissent capables de répondre aux défis environnementaux. Selon elle, « s’appuyer uniquement sur des innovations technologiques pour réduire l’empreinte environnementale des data centers et de l’IA générative est illusoire ».

La sobriété constitue une conviction personnelle préexistante, assumée et revendiquée par l’autrice, qui structure son rapport au numérique, à l’IA et aux usages. Dans un autre post, elle critique la « pression à l’adoption » de l’IA et s’interroge sur la « légitimité démocratique » de ces évolutions.

Se pose alors une question de fond : peut-on confier une prospective destinée à éclairer le débat public, voire à orienter la décision publique, à des experts aux positions militantes affirmées et qui interviennent par ailleurs, à titre professionnel, dans la mise en œuvre de ces orientations auprès d’acteurs publics et privés ? Une pratique constante, pourtant, chez l’ADEME, qui revient à confier à des vendeurs de ronds-points une étude sur la sécurité routière.

L’ADEME : une vision sous influence ?

J’approfondis

La sobriété comme horizon idéologique

Très régulièrement, le numérique se retrouve dans le viseur de l’ADEME, qui va même jusqu’à publier des vidéos (en streaming et disponibles en full HD Premium) pour inciter à éteindre sa box internet et à ne pas laisser son ordinateur en veille. Ce biais anti-numérique amène à se demander si le numérique n’est pas mis en cause, non pour ce qu’il est, mais pour ce qu’il représente et rend possible : le progrès, la technologie, « la sauvegarde des modes de vie de consommation de masse », pour reprendre la présentation du scénario « Pari réparateur ».

Le rapport publié début 2026 sur la prospective énergétique des centres de données s’inscrit dans cette continuité. Le décor change, la méthode demeure. Aujourd’hui, les coupables s’appellent blockchain et intelligence artificielle. Demain, ce sera autre chose.

La conclusion l’assume sans détour : « Les cas des scénarios Générations frugales et Coopérations territoriales nous ont permis d’explorer que seule une politique de sobriété très volontariste, modifiant en profondeur nos modes de vie, permettrait une inflexion permettant de réduire les consommations futures des centres de données. »

La prospective se fait alors prescriptive. Elle désigne une voie unique, celle de la sobriété, et substitue au techno-solutionnisme qu’elle dénonce un socio-solutionnisme aux contours flous, dont les implications concrètes pour les usages, les libertés et les choix collectifs demeurent largement indéterminées.

Et si le principal défaut du numérique, aux yeux de l’ADEME, était précisément de permettre de décarboner sans passer par la sobriété ?

L’article Les paniques numériques de l’ADEME est apparu en premier sur Les Électrons Libres.

  •  

Les agriculteurs doivent-ils avoir peur du Mercosur ?

Vin, sucre, bœuf, fromage… Quel impact va avoir l’accord UE-Mercosur ? Si certaines filières redoutent une distorsion de concurrence, d’autres anticipent des opportunités historiques.

La concurrence du bœuf argentin et brésilien inquiète particulièrement les éleveurs français. Pourtant, le contingent autorisé reste marginal : il représente 1,5 % de la consommation européenne, soit l’équivalent d’un steak par an et par habitant. L’impact potentiel est néanmoins plus concentré, car les pays du Mercosur exportent surtout des morceaux nobles.

Même logique pour la volaille : le quota ne représente que 1,4 % de la consommation européenne totale, mais son effet pourrait être plus marqué sur certains segments. Si les pays du Mercosur n’exportaient que des filets, la pièce la plus demandée et la plus rémunératrice, cela pourrait correspondre à 18 % du marché.

Pour la filière porcine, l’accord représente au contraire une réelle opportunité, notamment grâce à la charcuterie européenne. Le montant des exportations européennes devrait doubler en 10 ans !

La filière betteravière française, déjà très fragilisée par l’interdiction de tous les néonicotinoïdes — autorisés de l’autre côté de l’Atlantique — est elle aussi inquiète. Les quotas demeurent néanmoins limités : 1,2 % de la consommation européenne de sucre et 10 % de celle d’éthanol.

Pour le maïs, les critiques tiennent avant tout à la distorsion de concurrence, les pays du Mercosur ayant accès aux semences OGM. Les droits de douane étant déjà très faibles et les quotas limités, l’accord ne modifie que marginalement la situation.

Les fruits et légumes européens pourraient, de leur côté, bénéficier de nouveaux débouchés, en particulier pour les pommes et les poires.

Pour les produits laitiers, l’accord constitue une véritable opportunité. Avec la reconnaissance des IGP et la suppression des droits de douane, les fromages européens pourraient représenter près d’un tiers de la consommation haut de gamme du Mercosur. 

Même dynamique pour les spiritueux. Les vins sont actuellement taxés à 27 %, le champagne à 35 %. Dans ces conditions, difficile de rivaliser avec les vins argentins et chiliens, et les bouteilles haut de gamme, notamment françaises, restent largement inaccessibles. La valeur des exportations européennes pourrait augmenter de 50 %.

L’article Les agriculteurs doivent-ils avoir peur du Mercosur ? est apparu en premier sur Les Électrons Libres.

  •  

Data centers : peurs sur l’avenir

Les data centers sont devenus des infrastructures critiques de nos sociétés numériques. Sans eux, pas de cloud, pas d’intelligence artificielle, ni de souveraineté numérique. La France dispose de solides atouts pour les accueillir. Alors pourquoi leur implantation suscite-t-elle une opposition croissante, comme au Bourget ?

Leur rôle stratégique est aujourd’hui reconnu par les États et l’Union européenne. La France compte déjà 300 à 320 data centers, ce qui la situe au 3e ou 4e rang européen, derrière l’Allemagne et le Royaume-Uni et au coude à coude avec les Pays-Bas. Idéalement située au carrefour des grands flux numériques au sein de l’Europe et avec l’Afrique ou l’Amérique, elle dispose en outre de l’un des mix électriques les plus faiblement carbonés au monde, d’un réseau électrique stable et d’un tissu industriel solide. Autant d’atouts qui devraient la conduire à en faire un secteur d’excellence, en cohérence avec ses objectifs climatiques et de souveraineté numérique. C’est pourtant au nom de l’environnement et de la santé publique qu’un projet porté par l’aménageur Segro au Bourget (Seine-Saint-Denis) cristallise une opposition locale d’une rare virulence.

Un projet à zéro artificialisation nette

Le projet prévoit l’implantation d’un centre de données sur un ancien site logistique H&M de la ZAC du Commandant-Rolland, sur une emprise de 3,7 à 4,1 hectares. La surface de plancher atteindrait 25 300 m², pour une puissance de raccordement de 75 MW et une consommation annuelle estimée à 526 GWh, soit environ 3,2 fois la consommation électrique du Bourget.

L’installation comprendrait 33 groupes électrogènes, des batteries de secours lithium-ion, des systèmes de refroidissement au fluide R1234ze, ainsi qu’un projet de récupération de chaleur fatale — la chaleur dissipée par les équipements informatiques, susceptible d’être valorisée pour alimenter un réseau de chauffage urbain ou des bâtiments voisins —, à ce stade non contractualisé. Le site est situé en zone urbaine dense, à proximité immédiate de logements et d’établissements recevant du public.

Sur le plan foncier, le projet s’inscrit toutefois dans une logique classique. Les data centers sont des bâtiments compacts, peu consommateurs de voirie et de stationnement, et moins gourmands en foncier qu’un entrepôt logistique ou une zone commerciale. Cette réalité contraste avec certains discours militants, comme celui de Charlie Hebdo évoquant des « forêts de béton qui dévorent le territoire », alors même que, le plus souvent, ces infrastructures permettent, comme ici, la réhabilitation d’une friche industrielle et la création d’emplois locaux.

Une opposition locale virulente et hautement politisée

Plus de 18 000 personnes ont signé la pétition réclamant l’arrêt immédiat du projet, un chiffre élevé rapporté aux 15 000 habitants de la commune. Le texte mobilise deux registres. D’une part, celui du désastre écologique, évoquant les « millions de litres d’eau pour refroidir les machines », une « consommation d’électricité monstrueuse » et un projet qui « ne servirait qu’à stocker des données, sans améliorer le quotidien ». D’autre part, celui du sentiment d’abandon territorial, avec des formules telles que « assez de mépris pour la Seine-Saint-Denis », « territoire déjà saturé, déjà sacrifié » ou encore « dépotoir énergétique de l’Île-de-France ». Un sentiment qui traduit, en négatif, la réalité d’un département devenu le pôle principal d’accueil de data centers et des emplois qualifiés qui vont avec.

Cette hostilité est relayée par le député LFI Aly Diouara, déjà opposé au data center de La Courneuve ainsi qu’à… la réalisation d’une liaison cyclable entre la Courneuve et Bobigny le long de la RD 986. Ici, il invoque le principe de précaution et des « risques sanitaires, environnementaux et contentieux », en s’appuyant sur l’avis de la Mission régionale d’autorité environnementale (MRAe) — avis qui ne conclut à aucun moment à l’existence de risques sanitaires avérés.

Même tonalité chez Vincent Capo-Canellas, sénateur UDI de la Seine-Saint-Denis et ancien maire du Bourget, qui évoque un risque de dévalorisation immobilière et dénonce une « absence de concertation ». Un paradoxe, en pleine enquête publique.

Quant au MNLE 93 (section locale du Mouvement national de lutte pour l’environnement), il s’oppose frontalement au projet, qualifié d’« enjeu de santé publique en zone urbanisée », une expression sortie de nulle part.

Un avis maximaliste

Tous les opposants s’appuient sur l’avis de la MRAe du 30 juin 2025, qui constitue le socle technique du débat. L’avis relève des insuffisances méthodologiques et formule treize recommandations portant sur le bruit, l’air, les risques industriels, les champs électromagnétiques et les effets cumulés. Il souligne notamment la « forte présence de logements et d’établissements recevant du public à proximité du site » et demande de « compléter l’analyse des risques en intégrant des scénarios d’accidents graves incluant les effets sur les populations riveraines ».

L’avis ne conclut ni à un danger avéré, ni à un dépassement réglementaire, ni à l’inacceptabilité du projet. En revanche, il adopte une posture de précaution maximale, en privilégiant systématiquement les hypothèses les plus défavorables, au-delà des exigences réglementaires, sans jamais se prononcer explicitement sur la maîtrise des impacts.

Sur les champs électromagnétiques, la MRAe évoque des « carences du dossier initial » et demande des compléments d’analyse en raison « d’équipements qui génèrent des champs électromagnétiques aux effets peu documentés », alors même que les niveaux attendus relèvent de sources électriques classiques et demeurent très inférieurs aux seuils réglementaires.

Votre sèche-cheveux est-il plus dangereux qu’un data center ?

J’approfondis

Le fluide frigorigène R1234ze — développé pour remplacer les HFC à fort effet de serre et autorisé par la réglementation européenne —, choisi pour les 48 groupes froids du site, fait l’objet d’une demande d’évaluation de ses produits de décomposition dans l’atmosphère, lesquels « pourraient très fortement relativiser sa qualité de gaz peu responsable d’effet de serre ». Un gaz que la MRAe assimile, à la différence de la réglementation, à un « PFAS », en questionnant son impact « tant sur la santé des populations que sur les milieux ».

Sans surprise, cette posture est aujourd’hui instrumentalisée politiquement, transformant des demandes de compléments méthodologiques en arguments de refus de principe, un glissement déjà relevé par Les Électrons libres.

La dérive idéologique de l’Autorité environnementale

J’approfondis

Des risques et nuisances limités dans un environnement exposé

Les risques industriels associés aux data centers sont documentés, encadrés et globalement faibles. Le principal concerne l’incendie, lié aux installations électriques, aux batteries ou aux cuves de stockage du carburant des générateurs. Les data centers figurent parmi les bâtiments industriels les plus surveillés — détection précoce, compartimentage, systèmes d’extinction spécifiques — et les incidents recensés ont causé des dommages matériels, sans victime civile ni impact sanitaire extérieur durable documenté. L’incendie spectaculaire d’OVHcloud à Strasbourg en 2021 en est une illustration.

Les risques liés aux batteries lithium-ion restent théoriques et extrêmement rares en exploitation réelle. Les groupes électrogènes, utilisés essentiellement lors de tests ou de coupures électriques, fonctionnent quelques dizaines d’heures par an, avec un niveau de risque comparable à celui d’hôpitaux ou de grands immeubles tertiaires.

Les nuisances sont elles aussi modérées et ponctuelles : bruit de ventilation, tests de groupes électrogènes, émissions atmosphériques limitées dans le temps. Rapportées à l’environnement existant du Bourget — bruit aérien, autoroutes A1 et A3, nœud ferroviaire, tissu industriel dense —, elles apparaissent marginales. Dans ce contexte, un data center constitue objectivement l’un des usages industriels les moins perturbateurs du secteur.

Peur de l’avenir, peur pour l’avenir

Le projet de data center du Bourget révèle un paradoxe français : un pays objectivement bien placé pour accueillir des infrastructures numériques stratégiques, aux nuisances limitées, mais où chaque implantation locale devient le réceptacle de peurs, de slogans et d’instrumentalisations.

Un paradoxe résumé par ce commentaire laissé sur le site de la pétition : « Ces data centers sont des aberrations écologiques, gros consommateurs d’électricité et d’eau, tout ça pour Google, Meta et autres, leurs moteurs de recherche et leurs algorithmes pour vous gaver d’informations peu rigoureuses, voire fausses, ou pire, tendancieuses. » Un propos lui-même nourri de fausses informations, qui se révèle ainsi ironiquement victime de ce qu’il prétend dénoncer.

Entre un avis environnemental poussé à l’extrême de la précaution et son exploitation politique maximale, le débat a glissé du terrain des faits vers celui de la peur. Si l’absence de preuve ne vaut pas preuve de l’absence, elle ne peut non plus justifier un soupçon permanent et une obstruction de fait. À force de voir du danger partout, le risque est de compromettre une ambition industrielle pourtant cohérente avec nos atouts énergétiques et, au nom d’un sentiment d’abandon territorial ressenti, voire entretenu, de priver un territoire des leviers économiques directs (emplois) et indirects (impôts) dont il a précisément besoin.

L’article Data centers : peurs sur l’avenir est apparu en premier sur Les Électrons Libres.

  •  

Jeûne et cancer : le piège des gourous

« Affamer la tumeur », jeûner pour « mieux supporter la chimio »… Depuis quelques années, des naturopathes et des influenceurs sans scrupules présentent le jeûne comme un allié, voire même comme une solution miracle face au cancer. Aujourd’hui, le danger ressurgit, car une nouvelle étude prometteuse pourrait être instrumentalisée par ces thérapeutes autoproclamés.

Le consensus médical est sans appel : ni l’Institut national du cancer (INCa) ni les experts en nutrition ne recommandent le jeûne ou les régimes restrictifs. Aucun bénéfice thérapeutique n’a été démontré chez l’homme, alors que les risques, eux, sont tragiquement documentés : dénutrition sévère, sarcopénie (fonte musculaire) et chute de la tolérance aux traitements. Les gourous de la « détox » profitent pourtant du flou de certaines recherches préliminaires pour faire croire que le jeûne peut remplacer la médecine.

L’affaire Éric Gandon, ce naturopathe mis en examen en 2023 pour homicide involontaire après plusieurs décès lors de stages de « jeûne hydrique », illustre jusqu’où peut aller l’emprise. À l’instar de Thierry Casasnovas ou de feu Irène Grosjean, ces figures ont bâti leur influence sur le rejet de la médecine, provoquant des pertes de chance vitales. Malheureusement, leurs idées se sont diffusées dans la société, à tel point qu’aujourd’hui, la question de l’efficacité du jeûne revient très souvent en consultation.

Une étude prometteuse…

Pourtant, une étude parue dans la revue de référence Nature apporte de nouveaux éléments, qui pourraient, au premier abord, sembler aller dans leur sens. Mais ses résultats sont très ciblés. Elle ne concerne qu’un cas bien particulier : les cancers du sein sensibles aux hormones, pour lesquels les patientes suivent un traitement hormonal spécifique.

En testant le jeûne sur des souris, les chercheurs ont découvert un mécanisme surprenant : le manque de nourriture provoque un pic de cortisol, l’hormone du stress. Ce cortisol agit comme un interrupteur qui « reparamètre » les cellules cancéreuses : il éteint les gènes qui les font grandir et allume ceux qui freinent leur multiplication. Résultat ? Le traitement classique devient plus efficace. Mieux encore, les scientifiques ont réussi à obtenir un effet similaire sans faire jeûner les animaux, simplement en utilisant un médicament à base de cortisone. Si ces résultats sont passionnants, attention à ne pas en tirer des conclusions trop vite, ou à les généraliser.

… mais limitée

Encore une fois, le processus n’est valable que pour une forme précise de cancer du sein. Pour d’autres types, activer cet interrupteur biologique pourrait être dangereux et accélérer la progression de la tumeur.

L’essentiel de la démonstration repose sur des souris. Chez les patientes, les données restent trop limitées : on observe des changements biologiques, mais rien ne prouve encore que cela augmente les chances de guérison.

L’hormonothérapie dure souvent entre 5 et 10 ans. Imposer des cycles de jeûne répétés sur une période aussi longue est physiquement épuisant et presque impossible à tenir pour les patientes au quotidien.

L’étude suggère que des médicaments (corticoïdes) pourraient imiter l’effet du jeûne. Mais, utilisés sur le long terme, ils entraînent des effets secondaires lourds : fonte musculaire, fragilité des os et baisse des défenses immunitaires.

Enfin, le point le plus critique est le risque vital de dénutrition. Le jeûne peut provoquer une perte de poids et de muscle (sarcopénie) qui affaiblit le corps face à la maladie. Un patient dénutri tolère moins bien ses traitements, ce qui diminue ses chances de s’en sortir.

À ce jour, aucun organisme officiel, comme le réseau NACRe, ne recommande le jeûne. Ces pistes de recherche doivent impérativement rester dans le cadre d’essais cliniques encadrés par des médecins.

Attention aux fausses promesses

Il faut rester vigilant : certains charlatans vont sans doute utiliser le nom prestigieux de la revue Nature pour prétendre que « le jeûne guérit le cancer ». Un slogan mensonger. Ces vendeurs d’espoir construisent leur business sur la détresse de patients prêts à tout pour guérir. La réalité scientifique est beaucoup, beaucoup plus nuancée, et c’est cette nuance qui protège les malades. Transformer une hypothèse de laboratoire en certitude commerciale est une dérive grave. En attendant des preuves solides chez l’homme, les faits sont clairs : cette étude ne justifie ni le jeûne à domicile, ni l’arrêt des traitements classiques. Le meilleur conseil reste le plus simple : une alimentation équilibrée et suffisamment riche en protéines. C’est cet apport nutritionnel qui permet de maintenir la masse musculaire, de limiter la fatigue et d’aider l’organisme à mieux tolérer les thérapies classiques.

L’article Jeûne et cancer : le piège des gourous est apparu en premier sur Les Électrons Libres.

  •  

Le rapport RTE sonne le glas de la décroissance

L’alerte est lancée : sans croissance, le prix de l’électricité pourrait exploser, les centrales nucléaires être fragilisées, les projets de nouveaux EPR remis en cause et la neutralité carbone compromise. Le gestionnaire du réseau électrique français est formel : il faut réindustrialiser le pays et attirer des activités fortement consommatrices d’électricité, des usines aux datacenters. Mais pour cela, il faut changer de paradigme.

« L’énergie est notre avenir, économisons-la. » Ce slogan, obligatoire depuis 2019 dans toutes les annonces commerciales énergétiques, incarne la ligne qui structure depuis quelques années la politique énergétique française. Et qui cristallise l’idée directrice de certains groupes d’influence, comme le Shift Project de Jean-Marc Jancovici, pour qui toute économie d’énergie est bonne à prendre, même lorsqu’il s’agit d’une électricité décarbonée tricolore. Une injonction que RTE, le gestionnaire du réseau de transport d’électricité français, balaye radicalement dans son dernier rapport, présenté mardi dernier. En matière d’électricité, sa préconisation pourrait s’exprimer d’une tout autre façon : « L’électricité est notre avenir, utilisons-la. » Le groupe tire la sonnette d’alarme : si ce n’est pas le cas, les prix vont grimper et le chemin vers la décarbonation va considérablement s’assombrir.

Dissonance énergétique

La politique énergétique française a, ces dernières années, donné l’impression de souffrir d’une forme de dissonance cognitive. La volonté de décarboner notre économie s’est souvent traduite par l’installation de nouvelles capacités de production d’électricité, notamment renouvelables. On pouvait déjà s’interroger sur la logique de « décarboner » une électricité qui l’était déjà, mais l’effort n’a pas été vain, puisqu’il a permis limiter le recours aux dernières centrales à charbon.

Dans le même temps, cette dynamique a été accompagnée d’un discours de sobriété électrique. Plus de production pour moins de demande ? L’ensemble ne tenait qu’à une condition : réduire simultanément d’autres moyens de production, en particulier le nucléaire, avec l’objectif affiché de descendre à 50 %. RTE allait même jusqu’à envisager des scénarios 100 % renouvelables. Conflit avec la Russie, déboires de nos voisins allemands et espagnols, craintes de pénurie, flambée des prix… Cette ligne antinucléaire s’est heurtée frontalement au mur du réel.

L’effet rebond n’a jamais eu lieu

Depuis, le discours a radicalement changé : sans remettre en cause les projets solaires ou éoliens, six réacteurs EPR2 — plus huit en option — sont désormais envisagés. Mais la hausse de consommation censée les justifier ne s’est pas matérialisée. RTE l’explique par des « modes de consommation durablement modifiés, l’augmentation et l’incertitude sur les prix de l’électricité, le contexte politique et économique et les réglementations issues du “Pacte vert” européen ».

Le gestionnaire souligne également les progrès technologiques, « toujours sous-estimés dans le débat public », en citant l’exemple des éclairages à LED, qui ont « permis de réduire de 10 TWh la consommation d’électricité en dix ans ».

L’effet rebond, souvent invoqué à chaque nouvelle innovation, n’a pas eu lieu. À tel point qu’aujourd’hui, à rebours des prévisions, la France consomme 10 % d’électricité de moins qu’il y a quinze ans. Et ce n’est pas sans risques.

Deux croissances, deux scénarios

Le gestionnaire du réseau envisage deux scénarios. Un premier, pour lequel la consommation augmente à un rythme relativement lent, dans un contexte économique dégradé (PIB : +0,6 %/an et baisse de la part de l’industrie). Et un second, dans lequel la France réussit son redressement économique et industriel (PIB : +1,1 %/an et légère hausse de la part de l’industrie).

Si le scénario de croissance lente devait se réaliser, le constat serait sans appel : le prix de l’électricité pourrait exploser, le nucléaire serait soumis à des contraintes potentiellement risquées, les producteurs d’énergie seraient mis sous pression et la décarbonation de l’économie ne pourrait suivre la trajectoire annoncée.

Pas assez de consommation coûte cher

Plus d’offre, moins de demande ? En théorie, cela fait baisser les prix. Mais le marché de l’électricité n’est pas un marché comme les autres. Qu’ils soient utilisés à 70 % ou à 100 %, les coûts d’exploitation du parc nucléaire et du réseau restent fixes. Une sous-utilisation fragiliserait la rentabilité des opérateurs, qui ne pourraient survivre que grâce au « soutien public », et donc à celui des contribuables. Pour RTE, en cas de stagnation de la consommation, le coût de chaque MWh augmenterait de +10 % à l’horizon 2030.

« L’abondance de production », notamment en milieu de journée lorsque le solaire produit le plus, « conduit à des prix très bas, voire négatifs, et impose de réduire la production nucléaire et renouvelable », alerte l’opérateur. Qui pointe un problème longtemps minoré : l’excès de modulation du parc nucléaire. Faire varier la puissance d’un réacteur selon la demande ou la météo n’a rien de nouveau, mais l’essor des renouvelables en a accentué l’ampleur. Une évolution prise au sérieux, car elle pourrait affecter la fiabilité du parc. « Des milliers d’installations diffuses peuvent entraîner des arrêts et redémarrages trop brusques », confirme le gestionnaire.

Une croissance lente obligerait l’État et les opérateurs à revoir complètement leur stratégie. Selon RTE, il faudrait alors se concentrer sur « les filières de production les plus compétitives » : prolonger la durée de vie des réacteurs nucléaires existants, concentrer l’éolien terrestre et l’éolien en mer dans les zones les plus favorables, et limiter le photovoltaïque aux installations de grande taille. Exit les petits parcs solaires, l’éolien flottant et le nouveau nucléaire. Ce ne serait pas sans conséquences : pour maintenir dans le temps la compétence d’une industrie, il faut lui confier des projets.

Le gestionnaire du réseau redoute aussi qu’un ralentissement de la mondialisation n’aggrave la situation, empêchant la consommation d’évoluer « au rythme nécessaire pour atteindre la neutralité carbone ». Or la France importe encore près de 60 % de l’énergie finale qu’elle consomme, pour une facture annuelle comprise entre 50 et 70 milliards d’euros. Cette dépendance se traduit par une vulnérabilité géostratégique majeure, liée notamment aux importations de produits pétroliers et de gaz en provenance de Russie, des pays du Golfe et, désormais, des États-Unis.

Moins de freins, plus de datacenters !

Comment inverser la tendance, préserver des tarifs abordables et maintenir la trajectoire de décarbonation ? Aujourd’hui, la France bénéficie d’un avantage comparatif : des prix de l’électricité inférieurs à ceux de la plupart de ses voisins, en particulier l’Allemagne.

Un avantage comparatif qui peut lui permettre d’attirer les industriels et les acteurs du numérique. Mais un obstacle persiste : de nombreuses pré-réservations de raccordements à forte puissance ne correspondent à aucun projet réel et saturent artificiellement le calendrier, au détriment d’initiatives capables de se déployer rapidement. On pense notamment à l’hydrogène, massivement soutenu par les pouvoirs publics mais jugé « faiblement compétitif » par RTE.

À l’inverse, le gestionnaire appelle de ses vœux l’accueil de datacenters, tout en soulignant la fréquente surestimation de leurs besoins : ceux « déjà raccordés n’utilisent que 20 % de leur puissance contractuelle ». Pour éviter de ralentir leur installation, RTE va « augmenter son niveau de “surbooking” du réseau afin de ne pas renvoyer une image de saturation artificielle ».

Des datacenters pour faire baisser les prix et accélérer la décarbonation ? L’idée tranche avec certains discours, notamment celui du Shift, qui appelait récemment à « limiter le déploiement de l’IA », jugé susceptible de « compromettre notre capacité à décarboner l’industrie ». À l’inverse, avec une électricité abondante et largement décarbonée, la France dispose d’un levier majeur pour devenir une « terre de l’IA ». Un cercle vertueux qui permettrait à la fois de réduire l’empreinte carbone du secteur, de développer l’économie numérique et de renforcer un pilier stratégique de la souveraineté nationale.

Plus de progrès et plus de croissance pour mieux décarboner ? L’idée, malheureusement encore loin de faire consensus, s’impose désormais dans les analyses de RTE. Le temps presse : si la France veut maintenir des prix bas et inscrire sa trajectoire de décarbonation sur des bases crédibles, il est urgent de faire évoluer les mentalités, encore trop souvent imprégnées de chimères décroissantes. Puisse ce rapport constituer un jalon incontournable et remettre le débat énergétique face aux réalités du système.

L’article Le rapport RTE sonne le glas de la décroissance est apparu en premier sur Les Électrons Libres.

  •  

Malgré l’impôt, une France d’héritiers

Le plus grand transfert de richesse de l’histoire va bientôt avoir lieu. Pourtant, parce qu’il arrive trop tard dans la vie, ce grand héritage ne sera pas un levier d’ascension sociale, mais un multiplicateur d’inégalités. Et le taxer ne changera rien au problème.

Il y a des mythes réconfortants, des fictions nationales qu’on se raconte pour mieux dormir. Chez nous, l’un des plus coriaces dit ceci : « La France n’est pas une société d’héritiers, puisque nous taxons lourdement l’héritage. »

Rien n’est plus faux. Rien n’est plus ironique. Et surtout : rien n’est plus lourd de conséquences pour la mobilité sociale, la croissance et l’équité intergénérationnelle.

Des droits de succession parmi les plus élevés du monde

Car la France est bel et bien devenue une société d’héritiers, mais pas du tout pour les raisons que l’on croit. Un préjugé tenace voudrait que ce soit en raison de droits de succession trop faibles… Or, ils sont parmi les plus élevés de l’OCDE, nous rappelle la Cour des comptes (septembre 2024). Pour le plus grand bénéfice des finances publiques françaises ! Le montant des recettes de droits de succession a plus que doublé entre 2011 (7,0 Md€) et 2023 (16,6 Md€). La France se situe au premier rang de l’Organisation de coopération et de développement économiques (OCDE) pour le poids des DMTG (donations et successions) dans le PIB (0,74 %). Voilà pour les chiffres.

Voir détails en fin d’article

Nous serions plus inspirés de regarder du côté de la structure même du modèle économique français, du système de retraite à la fiscalité du travail : n’est-ce pas ce modèle qui fabrique mécaniquement une société où le capital ne circule plus et où l’héritage devient décisif ?

Le grand héritage

Comme le résume avec une brutalité lucide l’économiste Erwann Tison : « Ce sont les boomers qui héritent désormais de leurs parents boomers. » Autrement dit : le capital transmis ne finance pas l’avenir, il clôt le passé. Et d’ici quelques années, ces fameux baby-boomers vont – enfin – transmettre leur patrimoine gigantesque, fruit des Trente Glorieuses, façonné par l’envolée des marchés financiers et la flambée de l’immobilier. On parle du « grand transfert de richesse », chiffré à 9 000 milliards d’euros par la Fondation Jean-Jaurès, et qui fait déjà saliver, au-delà des gestionnaires de fortune, certains partis politiques prompts à vouloir taxer cette immense transmission.

Une société d’héritiers, oui — mais pas parce que la fiscalité est laxiste. L’héritage n’arrive plus quand il est utile : il arrive quand il est inutile. Les travaux du Conseil d’analyse économique (décembre 2021) ont mis au jour une anomalie française : la part du patrimoine hérité augmente, mais l’âge auquel on hérite augmente encore plus vite. Au siècle dernier, l’âge moyen des héritiers était de 30 ans… aujourd’hui, on hérite désormais en moyenne dans la cinquantaine. Soit l’âge… où l’on s’apprête à partir à la retraite ! Donc à un moment où le capital n’a plus le moindre rôle productif. E. Tison le dit sans fard : « Hériter à 20 ans, ça change une vie. Hériter à 60 ans, ça ne change que l’ordre de succession chez le notaire. » C’est le premier nœud du problème : la transmission ne finance plus la mobilité sociale mais la confortation patrimoniale.

Un multiplicateur d’inégalités

Pour la première fois, les baby-boomers héritent… de baby-boomers. C’est un cycle inédit dans l’histoire économique. Pourquoi ? Parce qu’une génération – nombreuse – a profité d’un marché du travail fluide, d’une forte progression salariale, de retraites généreuses et de l’explosion des prix immobiliers. Résultat : ils détiennent déjà l’essentiel du patrimoine, et ils reçoivent encore de nouveaux actifs au moment même où ils n’en ont pas besoin. L’héritage devient un mécanisme d’amplification, pas de redistribution. Ce n’est plus un levier d’ascension : c’est un multiplicateur d’inégalités.

La France se retrouve avec l’un de ces paradoxes dont elle a le secret : des droits de succession élevés, mais un monde qui hérite toujours plus.

La question n’est donc pas : « Pourquoi taxe-t-on si peu ? » Mais : « Pourquoi la taxe ne change-t-elle rien ? » Réponse : parce qu’en France, les abattements, les déductions, les régimes matrimoniaux optimisés et surtout les donations échelonnées font que la fiscalité n’atteint jamais vraiment les patrimoines massifs en ligne directe.

La France taxe théoriquement fort. Mais pratiquement, elle taxe mal. Et surtout : elle taxe trop tard.

En fait, le vrai moteur de la société d’héritiers, c’est le modèle économique français, pas Bercy. Le travail est taxé plus que dans n’importe quel pays de l’OCDE. C’est l’un des points les plus importants rappelés par A. Foucher : le vrai problème, ce n’est pas la taxation du patrimoine, c’est celle du travail. En France : cotisations, contributions, impôt sur le revenu, TVA, charges employeurs… Conséquences : il est très difficile d’épargner par soi-même ; ceux qui n’ont pas de capital initial n’en construiront jamais ; l’épargne est mécaniquement concentrée chez les ménages déjà dotés. Celui qui part de zéro n’a aucune capacité d’épargne. Celui qui a déjà a une capacité infiniment plus grande. D’où la spirale auto-entretenue dénoncée par Maxime Sbahi : on refuse de voir l’éléphant dans la pièce, c’est-à-dire l’inéquité entre les générations et le déni qui le sous-tend.

Les retraités épargnent massivement… parce qu’ils n’ont plus rien à financer. Les données récentes de l’Insee (juin 2025) et du DG Trésor (2025) sont accablantes : en 2024, les retraités sont responsables des deux tiers de la hausse du taux d’épargne ; leurs pensions ont été revalorisées de 5,3 % ; leur consommation, elle, n’a presque pas bougé ; résultat : une épargne massive, même chez les plus modestes. On parle d’un taux d’épargne général autour de 18–19 %, mais de plus de 25 % pour les retraités, soit environ 100 milliards d’euros épargnés chaque année sur les 400 milliards de pensions versées. Ce capital, qui pourrait financer l’innovation, la croissance, le logement, les infrastructures… ne circule pas. Les retraités n’ont pas besoin de « décaisser », accumulent par précaution et préparent une transmission future. Là encore, E. Tison enfonce le clou : « Les futurs héritages ne sont pas des investissements. Car ils sont détenus par des profils risquophobes. Les 600 milliards qui vont être transmis ne profiteront pas à l’économie productive. »

Le cycle de vie de Modigliani est brisé. Normalement, selon le théoricien, on épargne pendant la vie active, on atteint un pic vers 55 ans, puis on « décaisse » en vieillissant. En France : les retraités continuent d’épargner. Parce que leurs retraites sont généreuses, indexées et politiquement intouchables. Résultat : pas de décaissement, pas de circulation du capital et une explosion des héritages tardifs.

Le problème n’est donc pas l’héritage : c’est la temporalité de l’héritage. En fait, l’équation pourrait être : hériter tôt favorise l’ascension sociale, hériter tard favorise la reproduction sociale. Hériter à 25 ans permet d’envisager un achat immobilier, la création d’entreprise, la formation, la mobilité géographique. Hériter à 60 ans permet d’optimiser la fiscalité de sa succession à ses propres enfants. Le capital devient un instrument de reproduction, pas d’émancipation. C’est l’une des raisons pour lesquelles E. Tison va jusqu’à dire, volontairement provocateur : « Une taxation à 100 % des héritages serait plus efficace que le système actuel. » Non pas pour punir, mais pour obliger à transmettre avant la mort.

Voilà pourquoi durcir les droits de succession ne sert donc (presque) à rien. Parce que la question n’est pas le taux, mais le moment. Taxer plus haut n’incite pas à décaisser plus tôt. Le capital ne circule pas du tout tant qu’il reste concentré chez les seniors épargnants. Tout l’enjeu est ailleurs : notre système fiscal doit pousser à la transmission précoce, pas à la transmission tardive. Il faut que l’héritage cesse d’arriver quand il ne sert plus, qu’il circule pendant les périodes de construction de vie, qu’il finance les âges où les besoins sont élevés. C’est, au fond, ce que proposent une partie des économistes (E. Tison / M. Sbahi), mais aussi la Cour des comptes (septembre 2024) : libérer les donations, réduire la fiscalité sur les transmissions « au fil de l’eau », mais durcir fortement la fiscalité sur les transmissions tardives et financer une partie des revalorisations sociales par les seniors eux-mêmes. En clair : moins d’héritages à 60 ans ; plus de donations à 25 ans.

La gérontocratie, un système perdant-perdant

Mais évidemment, cela suppose de briser le tabou français : la gérontocratie douce. On touche ici à la dimension politique. La France compte 18 millions de retraités, bientôt 23 millions. Et surtout : un électeur sur deux est retraité. Dès qu’on parle de décaissement incité, de fiscalité du patrimoine senior, de donation encouragée, de réforme des retraites… le débat se fige. L’électorat le plus nombreux et le plus mobilisé veille. En mode pavlovien : on a peur de critiquer les retraités, parce que ce sont eux qui votent. Résultat : on sur-revalorise les pensions, on gèle la réforme fiscale, on continue de renchérir le coût du travail et on détruit la mobilité sociale des plus jeunes. C’est une logique perdant-perdant : les retraités épargnent, les jeunes ne peuvent pas épargner, l’économie tourne au ralenti, la dette publique explose.

C’est un débat où la morale tutoie l’économie. Le véritable enjeu est : comment faire pour que le capital se transmette vivant, qu’il circule, qu’il finance les âges productifs et qu’il ne soit plus ce carburant qui arrive toujours trop tard ? Tant que la France ne répond pas à cette question, elle restera la société d’héritiers la plus improbable, la plus silencieuse et la plus coûteuse de tout l’Occident.

Détails de l’infographie

Sur le papier, la France a des taux parmi les plus élevés ; dans les faits, la combinaison d’abattements, de niches et d’un barème non indexé produit une taxation qui pèse particulièrement sur des patrimoines « moyens-supérieurs » et pénalise certains ménages, tandis que d’autres mécanismes atténuent la charge pour les plus riches ou pour les transmissions d’entreprise (loi Dutreil).

France : barème progressif. Taux maximum à partir d’environ 1,8 M€. Barèmes non indexés depuis 2011, ce qui a entraîné une augmentation effective du nombre de successions imposables.

Espagne : État : 34 %. Régions : généralement réduit à 1 % ou 0 % effectif grâce aux bonus régionaux. Abattement : 15 956 € pour les plus de 21 ans ou 47 858 € avant. Entre 100 000 € et 1 000 000 € d’abattement effectif dans la majorité des régions, voire 99 % de réduction (Madrid, Andalousie, Catalogne, Valence, Canaries…). Très faible taxation (voire nulle) en ligne directe dans presque toutes les régions grâce aux abattements et réductions régionaux massifs.

Allemagne : seuils très élevés pour atteindre les taux supérieurs. Abattements plus généreux, barème plus doux : pour des patrimoines comparables, l’impact fiscal est souvent beaucoup moindre qu’en France.

Danemark : abattement de 346 000 DKK (environ 46 400 €) par héritier (enfants, descendants ; exemption totale pour le conjoint). Taux de 15 %, unique, non progressif. Système national unique, simple, avec un abattement correct et un taux fixe modéré.

Italie : abattement de 1 000 000 € par parent-enfant (selon modalités). Taux faibles (par exemple 4 % au-delà de l’abattement dans certains cas). Faibles droits pour la plupart des transmissions en ligne directe.

Portugal, Suède, Norvège, Autriche : droits de succession inexistants ou très réduits. Plusieurs pays européens ont supprimé ces droits ou les ont marginalisés.


L’article Malgré l’impôt, une France d’héritiers est apparu en premier sur Les Électrons Libres.

  •  

“L’empire de l’IA”, la contre-attaque qui fait plouf !

Un chiffre choc, glaçant même. Empire of AI, best-seller de l’été sur l’IA, affirme qu’un data center consomme mille fois l’eau d’une ville entière. Le problème, c’est que l’autrice s’est trompée : l’estimation était 5 000 fois trop élevée.

Cerrillos, petite ville chilienne de 88 000 habitants, devait accueillir un nouveau data center de Google. Dans son livre à succès consacré à Sam Altman et au système OpenAI, Karen Hao décrit une installation dont les besoins en eau dépasseraient mille fois ceux de la commune. De quoi s’imaginer un véritable monstre technologique à la soif inextinguible. Le chiffre était frappant… trop, sans doute.

La menace fantôme

Car tout ceci s’est révélé être une énorme erreur factuelle, qui fait partir la démonstration à vau-l’eau et basculer Karen Hao — pourtant diplômée d’ingénierie du MIT — du côté obscur de l’information scientifique.

Dans un contexte saturé de chiffres alarmistes sur l’IA, ce ratio improbable a pu paraître crédible à beaucoup. Mais pas à Andy Masley, membre du courant de l’Effective Altruism, dont la démarche repose strictement sur les faits et les preuves.

Le Jedi des ordres de grandeur

Un calcul rapide montre en effet que ce ratio impliquerait que chaque habitant n’utilise que 0,2 litre d’eau par jour — une absurdité, près de 900 fois moins que la moyenne chilienne. En consultant les rapports de la SMAPA (service municipal de l’eau de Maipú/Cerrillos), Masley découvre que les chiffres présentés comme des « litres » dans la réponse officielle obtenue par Hao sont en réalité des mètres cubes. Une erreur d’unité qui change la comparaison d’un facteur 1 000.

Karen Hao a reconnu l’erreur et admis qu’un contrôle de plausibilité aurait suffi à la repérer. Elle a aussi annoncé qu’elle mettrait à jour son livre une fois la confirmation officielle reçue, tout en maintenant ses critiques sur l’implantation de data centers en zones de stress hydrique.

Mais ce n’est pas tout. Masley lui reproche aussi d’avoir fondé sa comparaison sur les valeurs maximales de prélèvement autorisées, alors que la consommation réelle se situe plutôt autour de 20 % de ce plafond. Une autre source majeure de surestimation.

Enfin, il pointe la confusion fréquente entre prélèvements et consommation nette : les volumes cités correspondent à de l’eau prélevée — restituée à plus de 90 % — et non à la part réellement consommée. Une nuance pourtant essentielle pour comprendre l’impact réel d’un data center.

Ces trois éléments — l’erreur d’unité, la comparaison à la capacité maximale autorisée et la confusion entre prélèvements et consommation nette — modifient radicalement l’interprétation du cas de Cerrillos.

Rien d’anecdotique. La circulation mondiale de chiffres spectaculaires mais faux finit par façonner une image déformée de l’IA, présentée comme une industrie prédatrice. Ce décalage entre perception et réalité alimente la défiance du public et complique tout débat rationnel autour de ces infrastructures.

La France refroidit le cloud sans assécher la planète

J’approfondis

Un nouvel espoir

S’il est légitime de se poser des questions sur l’impact environnemental des data centers, encore faut-il poser correctement les enjeux. Le volume total d’eau consommée, pris isolément, n’a aucune signification. Ce qui compte, c’est où et quand l’eau est prélevée. Un captage dans un grand cours d’eau en période de crue n’a aucun impact, alors que puiser de l’eau potable dans une zone sous stress hydrique peut devenir problématique.

À Cerrillos, Google a mis en pause son projet de 200 millions de dollars après qu’un tribunal environnemental chilien a partiellement révoqué son autorisation et demandé une réévaluation intégrant la vulnérabilité de l’aquifère local et les effets du changement climatique.

L’entreprise a annoncé repartir « à zéro », en adoptant un refroidissement par air, sans aucun prélèvement dans les puits environnants. Une solution plus coûteuse, mais appelée à devenir la norme partout où l’usage de l’eau fait l’objet d’une forte compétition.

L’article “L’empire de l’IA”, la contre-attaque qui fait plouf ! est apparu en premier sur Les Électrons Libres.

  •  

OGM : 30 ans d’aveuglement européen

C’est l’un des plus grands écarts entre science et opinion. Neuf scientifiques sur dix jugent les OGM sûrs, contre seulement un tiers des Français. Pourtant, depuis trente ans, ils sont à l’origine de progrès majeurs. Prêts à remettre en cause vos a priori ?

L’homme modifie la nature depuis qu’il cultive. Bien avant les laboratoires modernes, il sélectionnait les plantes, croisait les variétés, domestiquait le vivant pour ses besoins. La carotte orange, la banane sans pépins, le maïs résistant aux maladies, ces aliments du quotidien portent l’empreinte de siècles de sélection artificielle. Ces manipulations restaient cependant limitées par les barrières biologiques naturelles. On hybridait des blés entre eux, jamais avec un tournesol ou une bactérie.

Tout a changé dans les années 1980 avec la découverte du code génétique. Les gènes sont devenus des séquences manipulables, comme des phrases dans une langue universelle. La transgénèse permet d’insérer précisément l’un de ceux provenant d’une espèce dans une autre. Par exemple, une bactérie pour protéger une aubergine des insectes, un tournesol pour rendre le blé tolérant à la sécheresse, ou la jonquille pour enrichir le riz en vitamine A et combattre la malnutrition infantile. Cette technique accélère une évolution naturelle exigeant des millénaires pour produire un croisement. Elle n’est pas employée sans de multiples précautions et contrôles. Chaque OGM subit en moyenne treize ans d’évaluations rigoureuses avant autorisation, loin des caricatures de « plantes Frankenstein » mises sur le marché sans recul.

Pourtant, l’Europe reste rétive, tout en important paradoxalement des tonnes de produits génétiquement modifiés pour nourrir son bétail, en interdisant à ses agriculteurs d’en cultiver.

Un symptôme des ravages du pouvoir d’une opinion qui aime se faire peur et s’attarde sur des images alarmistes. L’étude de Gilles-Éric Séralini, publiée en 2012 dans Food and Chemical Toxicology, illustre parfaitement ce phénomène, en plus d’avoir fait beaucoup de mal. Montée en épingle par les médias, elle montrait des rats développant des tumeurs après avoir consommé du maïs OGM NK603 et du Roundup. Les photos choc ont fait le tour du monde, alimentant les peurs. Mais la méthodologie était défaillante : échantillon trop petit, souches de rats prédisposées aux cancers, absence de contrôle statistique adéquat. La revue l’a rétractée en 2013. Séralini l’a republiée ailleurs sans corrections majeures, et des centaines d’analyses ultérieures ont invalidé ses conclusions, menées par deux cent quatre-vingts institutions.

Aucune d’entre elles n’a détecté le moindre risque sanitaire spécifique aux OGM. Pas d’allergies épidémiques, pas de différences chez les consommateurs. Un soja potentiellement allergène identifié dans les années 1990 n’a même pas quitté les laboratoires.

La « contamination » génétique effraie aussi, mais sans fondements solides. En vingt ans, moins de quatre cents incidents mineurs, souvent dus à des erreurs de tri ou de semences, ont été observés. Invalidant un fantasme à la vie dure : avec des centaines de millions d’hectares cultivés, aucune « superplante » invasive n’a émergé. Les gènes introduits se diluent naturellement s’ils ne confèrent pas d’avantage sélectif. Quant à l’idée que manger un OGM altère notre ADN, elle relève du mythe. L’estomac digère les gènes comme n’importe quelle molécule ; il ne les intègre pas. Sinon, nous serions tous des hybrides de poulet et de pain. Quant au mythe des semences stériles qui a alimenté les médias, si elles ont bien existé, elles n’ont jamais dépassé le stade des brevets. Un moratoire international les interdit depuis 2000. Aucune semence OGM commercialisée aujourd’hui n’est stérile.

Les bénéfices, eux, sont concrets. Les OGM ont réduit l’usage mondial de pesticides de 37 %, préservé les sols, stabilisé les rendements. Entre 1996 et 2018, ils ont généré 186 milliards de dollars de revenus supplémentaires et évité 27 milliards de kilos d’émissions de CO₂. Au Bangladesh, l’aubergine Bt, introduite en 2014, a divisé par dix les pulvérisations contre le foreur du fruit (une chenille qui creuse de petits tunnels dans les plantes pour s’en nourrir). Les paysans, autrefois empoisonnés par des applications quotidiennes d’intrants à mains nues, récoltent plus sainement. En Inde, leurs bénéfices ont augmenté de 1 200 roupies par hectare et par an. À l’opposé de la fake news colportée par Vandana Shiva, qui décrivait des cultivateurs poussés au suicide par le prix des semences. En Argentine, le blé HB4, tolérant à la sécheresse grâce à un gène de tournesol, sauve les cultures dans les plaines arides – une innovation portée par l’entreprise française Florimond Desprez, exportée pendant que l’Europe hésite. Aux États-Unis, la pomme de terre Innate réduit le gaspillage en noircissant moins. En Afrique, le maïs TELA résiste à la légionnaire d’automne, sécurisant l’alimentation de millions de gens. Les exemples de ce type sont légion.

Quand les OGM sauvent des vies et des cultures

J’approfondis

Cet ensemble ne relève pas de la promesse, mais bien des faits. Entre 1996 et 2018, les cultures biotechnologiques ont généré 186 milliards de dollars de revenus supplémentaires et évité 27 milliards de kilos de CO₂.

Pendant ce temps, l’Europe, elle, cultive la prudence avec excès. Nous consommons déjà des variétés issues de mutagenèse chimique ou par irradiation, créées dans les années 1950 avec des milliers de mutations aléatoires non caractérisées, y compris en bio. Pourtant, la Cour de justice européenne freine désormais le progrès. En 2018, elle a classé les éditions génétiques comme CRISPR au même rang que les OGM transgéniques. Or cette révolution, inventée en Europe par la Française Emmanuelle Charpentier et l’Américaine Jennifer Doudna, permet, grâce à des « ciseaux moléculaires » ultra-précis, de corriger une lettre fautive dans l’ADN d’une plante, justement sans y ajouter de gène étranger. La technique profite aujourd’hui à l’Australie, au Brésil, au Japon ou au Royaume-Uni, mais pas à l’Europe, même si des discussions sont en cours.

La Commission a pourtant investi 200 millions d’euros entre 2001 et 2010 pour évaluer ces technologies ; cinq cents groupes d’experts ont conclu unanimement à l’absence de risques supérieurs aux méthodes conventionnelles. Mais les politiques ont ignoré ces rapports, ce qui n’est pas sans conséquences sur notre souveraineté alimentaire. Nos laboratoires innovent, mais nos règles repoussent les chercheurs. Paradoxe : le Pacte vert de l’UE vise à réduire l’usage des pesticides de moitié d’ici 2030, mais refuse les outils pour y parvenir. Nous importons du soja OGM brésilien pour nos élevages tout en interdisant sa culture locale. Ce n’est plus de la précaution, c’est de l’hypocrisie.

Les OGM sont le domaine agricole le plus scruté au monde. Ils diminuent les intrants chimiques, aident les paysans vulnérables, atténuent le changement climatique. Ignorer ces réalités au profit de la peur mène à la pénurie. Il est temps de choisir la raison : cultiver chez nous ce que nous importons, ou continuer à jouer les vertueux en délocalisant nos problèmes.

L’article OGM : 30 ans d’aveuglement européen est apparu en premier sur Les Électrons Libres.

  •  
❌