Daisy Déecools@daisyletourneur.bsky.socialposted: Partagé avec alt text parceque Télérama ne veut pas faire un tour petit effort pour l'accessibilité. J'espère que ça va leur foutre un peu la honte.Dessin à l'aquarelle de la chaîne cnews, Pascal praud est en studio et parle en duplex avec Morandini qui se tient dans la rue. Praud dit "on apprend à l'instant la condamnation d'un delinquant sexuel. Jean-Marc vous êtes déjà sur place..."
Quoted post from Télérama@telerama.bsky.social: Le dessin du jour, par Julien Couty
Tristan K.@tristankamin.bsky.socialreplied: Je ne vous cache donc pas que je suis extrêmement amer quand je vois des journalistes experts raconter n'importe quoi, à fortiori sur le service public.
Moi j'ai renoncé à lutter contre la désinformation. Mais cette profession, elle, n'a en rien changé. Cette élite est au-dessus de tout ça.
Tristan K.@tristankamin.bsky.socialposted: Je fus qualifié de harceleur, de menace pour la liberté d'expression, parce que je répétais que des journalistes disaient n'importe quoi à répétition ou mentaient sur mon sujet d'expertise, et les affichais.
10 milliards de dollar. C'est un autre contrat que Palantir vient d'obtenir. Et pas un petit : C'est Palantir, une société privée, qui a désormais un accès profond aux données de la machine de guerre américaine. Et qui prendra les décisions.
Les sociétés technologiques prennent de plus en plus main sur toutes les organisations qui gèrent nos sociétés. Ce n'est pas anodin : Ce ne sont pas des services publics, elles sont là pour gagner de l'argent.
Et on est en train d'acheter du Palantir en Europe et en France aussi... (https://sebsauvage.net/links/?QuYhIA)
Palantir aide la police ICE à cibler les personnes à kidnapper. Comme dit Morgan : "Un outil de profilage racial industrialisé, vendu comme une carte Google mais conçu pour faciliter les déportations arbitraires. Les nazis auraient adoré ça 😬" (https://shaarli.zoemp.be/shaare/1eo1iA) (Permalink)
Pour la 1ère fois depuis 1944, les décès surpassent les naissances en France. En cause ? Un marché immobilier devenu le « premier contraceptif de la nation ».
L’année 2025 restera dans les annales comme celle d’une rupture historique. Pour la première fois depuis 1944, la population française a vu son solde naturel basculer dans le rouge : les décès surpassent désormais les naissances. Avec un taux de fécondité tombé à 1,56 enfant par femme — son niveau le plus bas depuis 1918 — le pays semble rejouer le scénario dénataliste des années 1930. Si les causes de cet hiver démographique sont multiples, un rapport récent de l’expert Bertrand Moine, Étude logement & natalité, identifie un coupable majeur : un marché immobilier exsangue, devenu le plus puissant contraceptif de la nation.
Une pénurie de logements sans précédent s’est abattue sur la France, provoquant une explosion des prix qui asphyxie les ménages. L’indicateur de pouvoir d’achat immobilier des primo-accédants vient sceller ce diagnostic : en 2025, un jeune couple a perdu 25 % de sa capacité d’acquisition par rapport à l’an 2000, et près de la moitié par rapport aux années 1970. Ce graphique illustre l’effondrement brutal d’une promesse générationnelle, transformant l’accès à la pierre en un parcours du combattant où le travail ne suffit plus à compenser l’envolée des prix.
Comme le souligne Bertrand Moine, cette crise agit comme une « bombe sociale à mèche lente » qui entrave la possibilité même de débuter sa vie adulte sous son propre toit.
Le « Giving Up » : quand l’avenir se dérobe
Dans son analyse, Bertrand Moine met en lumière un basculement psychologique profond qu’il nomme le « Giving Up » (le renoncement). Face à un immobilier devenu structurellement inabordable, une part croissante de la jeunesse ne se contente plus de différer son projet d’achat : elle l’abandonne purement et simplement. Ce renoncement marque une rupture avec les aspirations des générations précédentes. La propriété étant le socle de la projection dans le temps long, son abandon entraîne dans sa chute le projet familial. On ne bâtit pas une famille sur un sol meuble et incertain !
Pour établir ce constat, l’expert s’appuie sur une approche empirique croisant les données de l’INSEE avec les recherches économiques mondiales les plus récentes. Sa méthodologie révèle une distorsion majeure entre l’offre existante et les besoins des familles. La crise est structurelle. Le parc immobilier français est en situation de grave pénurie, tandis que les zones d’emploi ne produisent que de petites surfaces, studios ou deux-pièces, totalement inadaptées à l’accueil d’un enfant.
Crise du logement : la grue doit survivre à la cigogne
Le résultat de cette analyse est sans appel. Le blocage du marché immobilier et la contrainte d’espace expliquent, à eux seuls, jusqu’à 51 % du déclin de la fécondité observé ces dernières années.
Ce chiffre met en lumière un gouffre terrible entre les aspirations des citoyens et leur réalité quotidienne : alors que les Français souhaitent avoir 2,3 enfants en moyenne (source : étude INED 2024), ils se heurtent à un plafond de verre matériel qui fait s’effondrer la natalité réelle à seulement 1,56 enfant par femme en 2025. Ce fossé béant démontre que l’hiver démographique n’est pas le fruit d’un choix culturel ou d’un désintérêt pour la famille, mais bien la conséquence directe d’une asphyxie matérielle organisée.
La biologie du mètre carré
Plusieurs travaux de recherche confirment aujourd’hui ce lien direct entre béton et berceaux. Ils démontrent d’abord que le coût du logement agit comme une barrière infranchissable : parce qu’un enfant est, par définition, un « bien intensif en espace », l’envolée des prix du mètre carré a rendu le projet de naissance physiquement irréalisable pour une large part de la population.
Cet obstacle est particulièrement critique pour les jeunes adultes. L’accès précoce à la propriété entre 20 et 25 ans augmente la probabilité de fonder une famille de 32 %, alors qu’à l’inverse, l’étroitesse des logements actuels contraint 39 % des moins de 30 ans à reporter leur projet familial. Mais, au-delà de la surface brute, c’est la configuration même de l’habitat qui pèse sur la démographie. Le nombre de chambres s’avère en effet bien plus déterminant que le métrage total : le taux de fécondité bondit de façon spectaculaire dès lors qu’un foyer dispose de trois chambres plutôt que deux.
Le paradoxe français est ici frappant : tandis que les jeunes couples s’entassent dans des métropoles saturées de studios, 7,6 millions de résidences familiales sont aujourd’hui sous-occupées par des seniors qui n’ont aucune incitation économique à les libérer. L’enquête montre que, pour la moitié des ménages, la présence d’une chambre supplémentaire (la « nursery ») est le déclencheur psychologique essentiel pour passer du désir à la réalité.
Un choc d’offre de logements au service de la vie
Face à ce terrible péril démographique, le rapport de Bertrand Moine appelle à une rupture de paradigme. La solution ne viendra pas de simples primes à la naissance, mais d’une libération massive de l’espace par un traitement de choc réglementaire et fiscal.
Il faut construire massivement, non seulement en volume, mais en structure. Produire de grands logements familiaux là où se trouvent les emplois est 2,3 fois plus efficace pour la natalité que de multiplier les petites surfaces.
Afin d’obtenir ces nouveaux grands logements familiaux, supprimons les obligations de parking calculées par chambre, qui poussent les promoteurs à sacrifier les chambres familiales pour la rentabilité. En construisant grand en zone urbaine, on évite le renoncement lié aux temps de transport épuisants, autre frein majeur à la natalité.
La reconquête des berceaux passera également par l’abolition des « frictions fiscales », c’est-à-dire les droits de mutation. Aujourd’hui, racheter un logement plus petit est taxé à 8 %, forçant les seniors à brûler leur capital pour simplement réduire leur surface. En supprimant cette punition fiscale, nous permettrions aux aînés de libérer sereinement un stock immédiat de maisons et de grands appartements pour les jeunes couples.
Bertrand Moine rappelle en outre que l’empilement législatif actuel contribue à la pénurie structurelle. Il appelle à abolir l’encadrement des loyers, sujet que nous avons déjà abordé. Ce dispositif a en effet provoqué un effondrement de l’offre locative là où il a été appliqué (jusqu’à -57,5 % à Paris). En maintenant artificiellement les prix, on réduit la rentabilité et on pousse les bailleurs à retirer leurs biens du marché, au moment où les jeunes couples en ont le plus besoin.
L’auteur de l’étude suggère également de lever les interdictions liées au DPE. L’interdiction de louer les passoires thermiques (classe G puis F) menace de retirer pas moins de 1,1 million de logements du marché locatif privé. Bertrand Moine plaide pour des incitations à la rénovation plutôt qu’une politique d’exclusion, qui réduit drastiquement l’offre disponible en centre-ville.
L’hiver démographique n’est pas une fatalité, mais le fruit de nos choix politiques et culturels. Si les causes sont multiples, le logement représente un obstacle majeur. Pour que la France retrouve le chemin des berceaux, elle doit redonner à la jeunesse les moyens physiques de son ambition. Cela exigera une révolution de l’offre : retrouver le chemin des grues pour bâtir des logements adaptés, libérer la mobilité pour fluidifier le stock, et restaurer une liberté contractuelle garantissant la pérennité du marché locatif. Relancer la natalité, c’est d’abord déverrouiller les toits de la nation.
Google a inventé le "Fast Pair" qui permet d'appairer très facilement des écouteurs Bluetooth à Android (ou ChromeOS). Ce protocole est en fait bugué, et permet à un attaquant d'écouter le flux audio (écoute et micro).
« Il faut faire payer les riches ». Au Royaume-Uni, cette politique provoque un exil massif. Les recettes s’effondrent, au point de risquer de doubler les impôts de 25 millions de contribuables. Un avertissement pour la France, où la tentation revient avec insistance dans le débat public.
Le Royaume-Uni n’en finit plus de rompre avec ses héritages. Après son divorce avec l’Union européenne, c’est la dernière page du thatchérisme qui est en train de définitivement se tourner. La suppression du régime fiscal propre aux « non-domiciliés », à savoir les étrangers fortunés résidant au Royaume-Uni (mesure datant de 1799), a été doublement détricotée : en mars 2024 par le chancelier de l’Échiquier (l’équivalent du ministre des Finances) conservateur, Jeremy Hunt, décidant de l’extinction de ce régime à partir d’avril 2025, puis par sa successeure travailliste, Rachel Reeves, qui en a profité pour y ajouter un volet sur les droits de succession. Preuve qu’outre-Manche également, la passion pour la fiscalité transcende les clivages partisans.
Les résultats ne se sont pas fait attendre : le Royaume-Uni aurait perdu 10 800 millionnaires en 2024 selon le cabinet Henley & Partners, et près de 16 500 en 2025, devenant ainsi le premier pays du monde en termes d’exil de millionnaires. Une hémorragie qui ne fait que commencer : la banque UBS estime que le pays pourrait perdre jusqu’à 500 000 millionnaires d’ici 2028. Un comble pour un pays longtemps considéré comme la principale terre d’accueil des plus fortunés.
Les conséquences de ce « Wexit » (pour exil des riches) sont déjà observables. L’essayiste Robin Rivaton rappelle ainsi que c’est toute une chaîne qui est concernée, avec des effets en cascade : baisse de 45 % de la valeur des maisons « prime » de Londres, départs de magnats industriels comme Lakshmi Mittal, Nik Storonsky (fondateur de Revolut), Nassef Sawiris (première fortune d’Égypte) ou encore Guillaume Pousaz (fondateur de Checkout.com), baisse de 14 % des demandes de personnel domestique très haut de gamme, baisse du nombre d’élèves internationaux en internat de 14 % et fermeture de 57 écoles indépendantes.
Le Trésor britannique a en outre estimé que chaque départ de millionnaire coûtait 460 000 livres par an à l’État, soit la contribution fiscale annuelle d’environ 50 contribuables. Si les estimations de la banque UBS sont correctes, il faudrait donc doubler les impôts de 25 millions de contribuables anglais pour ne serait-ce que combler les pertes engendrées par cet exil !
La leçon anglaise est brutale pour eux, mais précieuse pour nous. Prenons-la comme un ultime avertissement pour stopper la folie fiscale qui s’est emparée de notre pays.
Alors que les économistes de gauche, apôtres d’une forte augmentation de la fiscalité sur le patrimoine (Gabriel Zucman et Thomas Piketty en tête), ne cessent d’ânonner que leur potion fiscale ne provoquera aucun exil, les économistes sérieux documentent cet effet depuis de nombreuses années, démontrant que « trop d’impôt tue l’impôt » et que le réel finit toujours par se venger.
La fin de ce régime fiscal devait théoriquement rapporter 34 milliards de livres sterling en cinq ans, mais l’exil qu’il provoque pourrait coûter 111 milliards de livres sur cette période, et conduire à la suppression de plus de 40 000 emplois, selon l’Adam Smith Institute.
Un effet similaire à celui observé en Norvège ces dernières années, où l’augmentation de la fiscalité sur le capital réalisée en 2021 (dans une mouture similaire à la taxe Zucman) devait rapporter 141 millions d’euros par an. Or, elle a en réalité généré un manque à gagner de 433 millions d’euros et provoqué une fuite des capitaux à hauteur de 52 milliards d’euros.
La France n’est pas en reste avec sa risible « taxe sur les yachts », produit purement idéologique dont les gains étaient estimés à 10 millions d’euros par an, alors que son rendement réel a été d’à peine 60 000 euros en 2024 (soit 160 fois moins), provoquant un exil quasi total des bateaux de luxe dans notre pays (il n’en resterait plus que cinq aujourd’hui), cassant toute l’économie et les emplois inhérents.
La fiscalité, un édifice fragile
La fiscalité est similaire à un Kapla, ce jeu de construction et d’adresse pour enfants où de fins bouts de bois doivent être empilés pour réaliser une structure verticale. L’ajout d’une pièce supplémentaire risque à chaque fois de faire basculer l’ensemble de l’édifice et de détruire tout l’ouvrage.
Alors que le vote d’une nouvelle taxe ou l’augmentation d’un impôt devrait se faire d’une main tremblante, assurée par des études d’impact évaluant les effets à attendre à moyen et long terme, les élus ne prennent plus aucune précaution, motivés par l’idéologie et la nécessité de répondre à ce qu’ils estiment être la demande de l’opinion. Si cette mécanique aveugle et brutale a fonctionné ces quarante dernières années pour les pays occidentaux, le double ralentissement démographique et économique les oblige à accélérer la cadence pour assurer le financement du fonctionnement d’États-providence de plus en plus déficitaires. Et dans un environnement où les personnes sont encore libres de leurs mouvements, tout alourdissement de l’imposition ne fait qu’inciter les personnes ciblées à placer leurs actifs dans des environnements moins propices au braconnage fiscal.
Un pays qui chasse ses riches est un pays qui s’appauvrit. Moins de fortunés induit moins de ressources pour développer l’investissement et favoriser l’innovation, moins de recettes pour financer les politiques publiques incontournables et surtout un effacement de l’habitus entrepreneurial dans un pays qui, en plus de perdre ses riches, perd des exemples à suivre pour ceux qui aspirent à le devenir.
En somme, cette politique revient à casser la machine à produire de la prospérité partagée et à offrir ses ressources intellectuelles et entrepreneuriales à d’autres pays plus attractifs, renforçant ainsi de futurs concurrents économiques.
Dans la compétition mondiale qui se joue entre les grandes zones économiques, l’Europe fait le choix mortifère d’alourdir des prélèvements obligatoires déjà très imposants, dans un contexte où la productivité et la démographie chutent, pour tenter de maintenir artificiellement l’idée que la générosité d’un modèle social est un horizon indépassable. Sans une remise en cause complète de ce modèle, et la définition d’une nouvelle matrice fiscale ambitieuse donnant la priorité à l’investissement, au risque et à l’innovation, le Vieux Continent endossera le rôle de proie de pays dynamiques à l’appétit insatiable.
La déguelasserie de l'extrême-droite : La police tue quelqu'un. Pour détourner l'attention, on essaie de salire la personne décédée et sa famille.
Les avocats à qui on le gouvernement Trump a demandé d'instruire à charge ont démissionné.
Notez bien que c'est la même chose en France. Et même quand les politiques ne s'en mêlent pas, ce sont les médias qui font ce qu'il faut pour salire la mémoire des tués et leur famille. (Permalink)
C’est l’inquiétude de la rentrée : les conservateurs alimentaires augmenteraient le risque de cancer et de diabète. Mais attention : une corrélation n’est pas une preuve de causalité, et ces additifs rendent des services précieux dans la lutte contre les contaminations et le gaspillage alimentaire.
La cohorte NutriNet-Santé est une grande étude épidémiologique française lancée en 2009 et entièrement en ligne. Des volontaires, âgés de 15 ans et plus, y décrivent régulièrement leur alimentation via des rappels de 24 heures, ainsi que leur état de santé et leurs habitudes de vie.
Deux articles publiés début janvier 2026, relayés par l’Inserm, exploitent ces données collectées entre 2009 et 2023. 105 260 participants ont été inclus pour l’analyse dédiée au « cancer » et 108 723 pour celle consacrée au « diabète ». La cohorte étant composée à près de 80 % de femmes, d’un âge moyen de 42 ans, la prudence reste donc de mise avant de généraliser ces résultats à l’ensemble de la population.
Nous avions déjà évoqué cette même cohorte lorsqu’elle avait servi à alerter sur des risques éventuels liés à l’aspartame, et nous en avions discuté les limites.
Il s’agissait ici notamment d’étudier le rôle et les conséquences de la consommation de certains conservateurs. Ceux considérés par l’étude appartiennent au large groupe des additifs autorisés en Europe (codes E200 à E297 environ), parmi lesquels les sorbates, sulfites, nitrites et nitrates, benzoates, acétates, propionates ou encore certains antioxydants comme l’érythorbate de sodium. Leur rôle essentiel consiste à empêcher la prolifération microbienne, à prolonger la conservation des produits et à garantir la sécurité sanitaire des aliments transformés. Grâce à une méthode d’estimation fine, combinant déclarations précises des produits consommés, bases de données actualisées et dosages en laboratoire, les chercheurs ont pu évaluer l’exposition individuelle avec une précision supérieure aux travaux antérieurs. Il s’agit néanmoins d’une étude observationnelle : elle révèle des associations statistiques, sans pouvoir démontrer un lien causal direct.
Concernant le cancer, sur plus de 4 200 cas diagnostiqués, la consommation globale de tous les conservateurs confondus ne montre pas d’excès de risque significatif. En revanche, une consommation plus élevée du groupe des conservateurs non antioxydants est associée à une augmentation modeste du risque (environ 16 % chez les plus forts consommateurs par rapport aux plus faibles), ce qui se traduit, à soixante ans, par un risque absolu passant de 12,1 % à 13,3 %. Parmi les substances les plus souvent citées figurent les sorbates, les sulfites (dont le métabisulfite de potassium), les nitrites et nitrates, ainsi que certains acétates, avec des signaux plus marqués selon les localisations (cancers tous sites confondus, sein, prostate). À l’inverse, onze des dix-sept conservateurs analysés individuellement ne présentent aucune association mesurable avec un sur-risque.
Pour le diabète de type 2, sur un peu plus de 1 100 cas observés dans une population relativement jeune, les plus forts consommateurs affichent un risque relatif augmenté d’environ 47 % par rapport aux plus faibles. Douze conservateurs individuels sont concernés, parmi lesquels reviennent fréquemment le sorbate de potassium, le métabisulfite de potassium, le nitrite de sodium, l’acide acétique, plusieurs acétates et certains antioxydants.
Ces associations, quoique statistiquement détectables, demeurent modestes et particulièrement sensibles à divers biais inhérents à l’épidémiologie observationnelle : imprécisions inévitables dans les mesures, caractéristiques propres aux volontaires de la cohorte, facteurs confondants non entièrement maîtrisés malgré des ajustements très poussés. Surtout, plusieurs de ces substances sont étroitement liées aux aliments qui les véhiculent. Par exemple, les nitrites et nitrates proviennent majoritairement des viandes transformées, déjà classées cancérogènes probables pour l’homme, tandis que les sulfites sont très présents dans les boissons alcoolisées, dont l’effet délétère sur le risque de cancers (notamment du sein) est solidement établi.
À titre de comparaison, le tabac multiplie le risque de cancer du poumon par vingt à trente chez les gros fumeurs de longue date, et chaque tranche quotidienne de dix grammes d’alcool augmente le risque de cancer du sein d’environ sept pour cent. Ces ordres de grandeur rappellent que les signaux observés autour des conservateurs, bien qu’ils méritent une attention soutenue et des confirmations dans d’autres populations, restent très éloignés des facteurs de risque majeurs et incontestés.
Ces travaux soulignent une tension classique en santé publique. Les conservateurs rendent un service précieux en limitant les contaminations, en réduisant le gaspillage alimentaire et en maintenant l’accessibilité économique de nombreux produits. Les associations mises en évidence appellent à des études complémentaires, sur des cohortes plus diversifiées et sur des durées plus longues, avant toute inflexion réglementaire. En attendant, le conseil le plus solide et le plus pragmatique pour le grand public demeure de favoriser une alimentation variée, majoritairement peu transformée, riche en produits bruts ou fraîchement préparés, tout en gardant à l’esprit que les leviers de prévention les plus puissants résident toujours dans l’arrêt du tabac, la modération alcoolique, un équilibre nutritionnel global et une activité physique régulière.
Sous le coude si je veux auto-héberger ma bibliothèque musicale. Le logiciel a l'air sympa et léger.
Ah oui : Et en plus de l'interface web, il y a plein de logiciels compatibles : https://www.navidrome.org/apps/ (Permalink)
Au cas où il faudrait *encore* des arguments pour quitter Facebook : La nouvelle directrice de Facebook/Instragram est une ancienne conseillère de Trump. Et Trump l'adore !
Ça tourne en circuit fermé entre les techbros et les fachos. (Permalink)
haha c'est énorme : il existe un logiciel pour détecter si un chat marche sur votre clavier et bloquer ces caractères non désirés. 😄 Et ça émet même un son désagréable pour le chat pour lui apprendre à ne pas recommencer. (Permalink)
Pour obtenir rapidement des informations sur un domaine : pays, serveurs DNS, certificat SSL, sécurités HTTP, présence dans des blacklists, présence d'archive dans Achive.org, robots.txt...
Et il y a un bon paquets d'outils annxes en bas de page.
(via https://shaarli.zoemp.be/shaare/ohjS1A) (Permalink)
Régulièrement, l’ADEME redécouvre que le numérique consomme de l’électricité. Après le catastrophisme sur les mails, le streaming, le métavers ou la 5G, l’agence cible désormais l’IA et les data centers. Avec une mécanique immuable : diaboliser nos usages pour présenter la sobriété – voire la décroissance – comme seul horizon désirable.
Allons droit au but. Le dernier rapport de l’ADEME sur l’évolution des consommations des data centers en France appelle de nombreuses critiques. Une modélisation simpliste, fondée sur des données en partie obsolètes, ne peut sérieusement prétendre éclairer l’avenir, a fortiori à l’horizon 2060, dans un secteur marqué par des ruptures technologiques rapides et imprévisibles. Mais ces débats méthodologiques sont presque secondaires, tant la conclusion semble écrite d’avance. L’analyse ne vise qu’à donner un vernis scientifique à la légitimation d’une sobriété dont vivent les auteurs.
Pire encore, si la recommandation implicite de ce rapport était suivie — freiner l’implantation jugée « effrénée » des data centers en France au nom de leur incompatibilité supposée avec l’Accord de Paris — cela reviendrait à encourager le recours à des serveurs situés dans des pays au mix électrique bien plus carboné, au détriment du bilan carbone global. Un résultat absurde pour une démarche aussi hypocrite que contre-productive.
Une conclusion écrite d’avance
Le rapport propose cinq scénarios. Un scénario dit « tendanciel », présenté comme la trajectoire naturelle en l’absence de politiques publiques correctrices, et quatre scénarios alternatifs repris du rapport Transition(s) 2050 : les fameux « Générations frugales » (la douce sobriété décroissante), « Coopérations territoriales », « Technologies vertes » et « Pari réparateur » (l’affreux techno-solutionnisme). Sans surprise, le scénario tendanciel, à base de règles de trois sommaires sur les tendances actuelles, est celui qui produit les consommations les plus élevées, tous les autres convergeant vers une baisse. Jusque-là, rien d’anormal.
C’est ensuite que ça se gâte. La synthèse du rapport affirme que « les optimisations technologiques telles que l’augmentation de l’efficacité et la récupération de la chaleur fatale ne suffiront pas à stabiliser la croissance des consommations électriques des centres de données en France sans la mise en place d’une politique active de sobriété pour les services numériques et les usages ». Une affirmation sans preuve, qui découle mécaniquement des hypothèses retenues, lesquelles n’intègrent pas, ou très peu, de progrès technologiques. Et qui, surtout, érige la stabilisation de la consommation électrique des centres de données en une fin en soi, sans jamais en justifier la pertinence au regard de notre surcapacité de production électrique ou des externalités positives des nouveaux usages numériques.
Des chiffres sans contexte
Le chiffre est spectaculaire. La consommation électrique des centres de données « induite par les usages des Français » pourrait être multipliée par 3,7 d’ici 2035, voire par 4,4 si l’on inclut la part dite « importée ». Verdict ? Une telle trajectoire serait incompatible avec l’Accord de Paris. Le message est simple, anxiogène et médiatiquement très efficace.
Pourtant, pris isolément, ce chiffre ne signifie pas grand-chose. Cette présentation occulte que les 8 TWh actuels estimés par l’ADEME — soit environ trois fois la consommation annuelle d’une ville comme Lyon ou Marseille — ne représentent que 1,8 % de la consommation nationale. Quant aux 26 TWh de croissance projetés d’ici 2035 dans le scénario tendanciel, ils apparaissent parfaitement soutenables au regard des surcapacités de production d’environ 100 TWh par an signalées par RTE. La France est d’ailleurs la première exportatrice d’électricité décarbonée de l’UE, avec un nouveau record de 92,3 TWh en 2025. Présenter une telle croissance, alimentée par une électricité largement décarbonée, comme une menace climatique relève, au mieux, du contresens ; au pire, de la malhonnêteté intellectuelle.
Quant à la notion de « consommation importée », elle pose un problème conceptuel évident. À usages constants, cette consommation existe quel que soit le lieu d’implantation des serveurs. La seule manière de la réduire consiste à restreindre les usages eux-mêmes, hypothèse explicitement assumée par le scénario 1, qui prévoit de mettre fin à des usages jugés « inutiles et nocifs ».
À l’inverse, freiner la construction de data centers en France, voire instaurer un moratoire comme suggéré par ce même scénario 1, ne supprime rien, mais déplace le problème, transformant une prétendue mesure de sobriété en dégradation globale.
Une modélisation et des hypothèses discutables
Le rapport présente son approche comme reposant sur un travail de « modélisation ». En clair, un tableau Excel.
Celui-ci est bâti sur des hypothèses qui concourent toutes à surévaluer les besoins énergétiques projetés. D’abord, il retient le volume de données comme indicateur central de l’impact environnemental, un choix pourtant largement reconnu comme inadapté au numérique moderne. Assimiler mécaniquement « plus de données » à « plus d’énergie » revient à ignorer les gains continus d’efficacité liés aux architectures, aux algorithmes et à l’optimisation des systèmes. Ensuite, il associe ce volume de données à un nombre toujours croissant de requêtes centralisées, en faisant l’impasse sur l’essor déjà réel de modèles plus légers, capables de tourner directement sur les smartphones, les ordinateurs ou les objets connectés. Enfin, pour estimer la consommation électrique, il s’appuie sur des références technologiques dépassées, issues d’un état du numérique antérieur à l’explosion de l’IA générative, en ignorant que les puces les plus récentes, conçues pour l’IA, sont capables de fournir bien plus de calculs pour une même quantité d’électricité.
Le rapport pousse l’exercice prospectif jusqu’en 2060, un horizon particulièrement lointain pour un secteur marqué par des ruptures technologiques rapides. Pour mesurer l’ampleur de l’écart, il suffit de se replacer trente-cinq ans en arrière, en 1990, à une époque où Internet n’était pas un usage grand public, où les PC tournaient avec un processeur 80486 et 4 Mo de RAM, et où l’ADEME elle-même n’existait pas encore.
Une conviction préalable
La lecture du rapport laisse apparaître que la sobriété n’est pas une hypothèse parmi d’autres, mais un objectif. Les communications sur LinkedIn de l’autrice principale, trésorière de l’association GreenIT (voir encadré), le confirment explicitement. Dans un post publié lors de la sortie de l’étude, elle explique que seuls les scénarios fondés sur la sobriété lui paraissent capables de répondre aux défis environnementaux. Selon elle, « s’appuyer uniquement sur des innovations technologiques pour réduire l’empreinte environnementale des data centers et de l’IA générative est illusoire ».
La sobriété constitue une conviction personnelle préexistante, assumée et revendiquée par l’autrice, qui structure son rapport au numérique, à l’IA et aux usages. Dans un autre post, elle critique la « pression à l’adoption » de l’IA et s’interroge sur la « légitimité démocratique » de ces évolutions.
Se pose alors une question de fond : peut-on confier une prospective destinée à éclairer le débat public, voire à orienter la décision publique, à des experts aux positions militantes affirmées et qui interviennent par ailleurs, à titre professionnel, dans la mise en œuvre de ces orientations auprès d’acteurs publics et privés ? Une pratique constante, pourtant, chez l’ADEME, qui revient à confier à des vendeurs de ronds-points une étude sur la sécurité routière.
Très régulièrement, le numérique se retrouve dans le viseur de l’ADEME, qui va même jusqu’à publier des vidéos (en streaming et disponibles en full HD Premium) pour inciter à éteindre sa box internet et à ne pas laisser son ordinateur en veille. Ce biais anti-numérique amène à se demander si le numérique n’est pas mis en cause, non pour ce qu’il est, mais pour ce qu’il représente et rend possible : le progrès, la technologie, « la sauvegarde des modes de vie de consommation de masse », pour reprendre la présentation du scénario « Pari réparateur ».
Le rapport publié début 2026 sur la prospective énergétique des centres de données s’inscrit dans cette continuité. Le décor change, la méthode demeure. Aujourd’hui, les coupables s’appellent blockchain et intelligence artificielle. Demain, ce sera autre chose.
La conclusion l’assume sans détour : « Les cas des scénarios Générations frugales et Coopérations territoriales nous ont permis d’explorer que seule une politique de sobriété très volontariste, modifiant en profondeur nos modes de vie, permettrait une inflexion permettant de réduire les consommations futures des centres de données. »
La prospective se fait alors prescriptive. Elle désigne une voie unique, celle de la sobriété, et substitue au techno-solutionnisme qu’elle dénonce un socio-solutionnisme aux contours flous, dont les implications concrètes pour les usages, les libertés et les choix collectifs demeurent largement indéterminées.
Et si le principal défaut du numérique, aux yeux de l’ADEME, était précisément de permettre de décarboner sans passer par la sobriété ?
Collaborer avec un robot ouvrier, regarder sa voiture réfléchir, transformer sa télé en papier peint, scanner ses aliments au restaurant, confier sa santé à ChatGPT… C’est parti pour Électroscope #9.
Boston Dynamics et Google DeepMind : le robot Atlas passe des vidéos YouTube à l’ère industrielle
C’était l’image la plus partagée du salon : le nouveau robot Atlas, dans sa version entièrement électrique, naviguant avec une aisance déconcertante au milieu du stand du constructeur Hyundai. Passant de 1,50 m à 1,90 m de hauteur, il gagne aussi en mobilité, des articulations entièrement rotatives, et une capacité de levage bien supérieure à son prédécesseur (de 50 kg). Mais au-delà de la prouesse mécanique, c’est aussi l’annonce faite conjointement par Boston Dynamics et Google DeepMind qui change la donne !
En effet, si les robots humanoïdes sont des merveilles d’ingénierie capables de danser ou de faire des saltos arrière, prouesses que l’on peut admirer sur de virales vidéos en ligne, ils restent souvent des « coquilles vides » sur le plan cognitif, en se contentant d’exécuter des scripts écrits à l’avance. Plus pour longtemps ! Cette semaine, Boston Dynamics a profité du CES 2026 pour confirmer l’intégration des modèles de fondation multimodaux Gemini Robotics (annoncés l’automne dernier) directement dans le « cerveau » d’Atlas.
Cela signifie que la future version du robot ne se contentera plus de suivre un chemin balisé. Grâce à la vision par ordinateur couplée au raisonnement de Gemini, Atlas pourra identifier par exemple un objet inconnu, déduire de quoi il s’agit (« ceci est une pièce fragile »), puis ajuster sa prise sans qu’aucun ingénieur n’ait à coder cette interaction spécifique. Mieux encore : l’apprentissage réalisé par un robot sera transférable aux autres !
L’annonce est d’autant plus sérieuse qu’elle s’accompagne de chiffres de production massifs, une première pour Boston Dynamics, entreprise historiquement tournée vers la R&D. L’objectif est d’atteindre une capacité de production de 30 000 unités par an d’ici 2028. Et sa maison-mère, Hyundai, a annoncé le déploiement d’Atlas sur son site de production de voitures électriques en Géorgie. Le robot quitte ainsi le labo de recherche pour l’usine, avec la promesse de soulager les humains des tâches les plus pénibles et répétitives, d’abord le tri des pièces avant de passer à l’assemblage des composants, en tant que collaborateur pouvant comprendre des consignes vocales (« prends ceci et mets-le là »).
Mercedes et Nvidia : vers une voiture qui « pense » ?
Si vous pensiez que la conduite autonome chez les constructeurs traditionnels stagnait au « Niveau 2 », Mercedes-Benz vient de prouver le contraire avec la présentation de la version de série de la Classe CLA 2026, dotée d’une autonomie d’environ 600 km. Ce véhicule est le premier de la marque à embarquer nativement le système d’exploitation propriétaire MB.OS qui permet d’interagir avec la recharge et les aides à la conduite.
Mais la véritable rupture technologique réside ailleurs. Lors du CES, Jensen Huang, le PDG de Nvidia, a rejoint le constructeur sur scène pour dévoiler « Alpamayo-R1 », un modèle d’IA de 10 milliards de paramètres spécifiquement entraîné pour la conduite autonome, et censé pouvoir faire concurrence avec la solution Full Self-Driving (FSD) de Tesla. Contrairement aux systèmes précédents basés sur des règles strictes, Alpamayo utilise une nouvelle architecture de raisonnement en « chaîne de pensée ».
Avec cette IA, une voiture devient capable de comprendre son environnement, « prenant des décisions comme le ferait un humain » dans des cas complexes, et devrait atteindre à terme une autonomie de niveau 4. Pour les conducteurs, cela changera tout. Imaginez une rue barrée soudainement sans panneau de prévention, un véhicule de livraison garé en double file sur une piste cyclable, ou encore un carrefour bondé de piétons imprévisibles. Là où une voiture autonome classique pourrait se bloquer, paralysée par l’absence de règles codées pour ces anomalies, la voiture devient en mesure de « comprendre » la situation.
Quant au modèle CLA 2026, le véhicule est bardé de capteurs (10 caméras, 5 radars et 12 capteurs ultrasons) qui nourrissent un supercalculateur capable d’effectuer plus de 500 000 milliards d’opérations par seconde. Mercedes propose cette fonctionnalité sous le nom MB.DRIVE ASSIST PRO, facturée aux États-Unis sous forme d’abonnement (environ 3 950 $ les premières années). La voiture n’est plus un produit fini à l’achat, mais une plateforme évolutive qui apprend de chaque kilomètre parcouru par la flotte mondiale !
LG OLED evo W6 : une télévision « papier peint »
Dans le hall central, LG Electronics a rappelé à tous pourquoi il restait le maître de l’OLED. La nouvelle série LG OLED evo W6 (pour « Wallpaper ») n’est pas juste une télévision plus fine : c’est l’aboutissement d’une décennie de recherche pour faire disparaître la technologie au profit de l’image. Le design de « W6 » pousse le minimalisme à l’extrême : une dalle de moins de 10 millimètres d’épaisseur, plaquée magnétiquement au mur, sans câble visible.
Tout cela est rendu possible grâce à un boîtier, le Zero Connect, qui transmet l’image en 4K et le son sans fil vers l’écran jusqu’à 10 mètres de distance. Avec cette astuce, l’écran ne contient plus que la dalle et l’électronique minimale de pilotage des pixels. Tout le reste se trouve dans le boîtier ! Par ailleurs, LG a commencé à utiliser des matériaux composites avancés, afin que ce type d’écran ultra-fin puisse rester rigide sur le long terme, tout en divisant son poids par deux par rapport aux modèles précédents. Une feuille métallique flexible est ajoutée pour permettre l’adhérence magnétique au mur…
Lorsqu’il est éteint, l’écran bascule en mode « LG Gallery+ », affichant des textures de toile si réalistes que de nombreux visiteurs ont dû toucher la surface pour croire qu’il s’agissait d’un écran, et non d’un tableau. La télévision se transforme alors en objet de décoration.
Allergen Alert : la sécurité alimentaire dans la poche
Loin des robots géants et des voitures de luxe, c’est un petit boîtier blanc, tenant facilement dans la main, qui a créé l’intérêt à l’Eureka Park (la zone dédiée aux startups). La jeune pousse française Allergen Alert, spin-off du géant du diagnostic in-vitro bioMérieux, a présenté ce qui pourrait devenir le « Yuka » des personnes allergiques.
Le problème est mondial : les allergies alimentaires ont explosé ces vingt dernières années, rendant les sorties au restaurant anxiogènes pour des millions de personnes. Et la réponse d’Allergen Alert est technologique : leur dispositif miniaturise l’immuno-analyse, technique réservée jusque-là aux laboratoires d’analyse médicale.
L’utilisateur insère un échantillon infime de son plat (une miette suffit) dans une capsule à usage unique, puis l’introduit dans le boîtier. En moins de deux minutes, l’appareil rend son verdict. Le système se concentre sur les 9 principaux allergènes, à l’origine de 80 % des réactions allergiques, à savoir les cacahuètes, les fruits à coque, le lait, les œufs, le poisson, les crustacés, le blé (et donc le gluten), le soja et le sésame. Le tout, avec une précision capable de détecter des traces infimes (quelques ppm), invisibles à l’œil nu.
Finaliste du concours Fundtruck 2025, la startup lyonnaise ne cible pas seulement le grand public. Elle a annoncé des partenariats pilotes avec des restaurants étoilés, et vise aussi les spécialistes de la restauration d’entreprise et scolaire, qui souhaitent certifier leurs repas en temps réel. C’est un bel exemple de la « Tech for Good » : une innovation de rupture issue de la recherche française, mise au service d’un besoin quotidien vital. Les précommandes ouvriront fin 2026, promettant de redonner le goût de l’insouciance à table.
ChatGPT Santé investit la médecine du quotidien
Au-delà du CES, OpenAI a officiellement lancé le 7 janvier « ChatGPT Santé », une déclinaison verticale de son modèle GPT-5.2, spécifiquement calibrée pour le secteur médical. Depuis 2023, des centaines de millions de patients ont utilisé ChatGPT pour s’auto-diagnostiquer, parfois avec des résultats mitigés, un risque d’hallucinations non négligeable, et des questions concernant la protection des données personnelles.
Avec ce nouveau service, OpenAI change de paradigme et veut répondre aux inquiétudes, en commençant par s’aligner sur les normes HIPAA aux États-Unis et le RGPD en Europe, afin de garantir une confidentialité totale des données : aucune conversation n’est utilisée pour entraîner le modèle, et un chiffrement dédié est annoncé. La précision et l’utilité des réponses sont, quant à elles, renforcées grâce à un partenariat avec de nombreux médecins. Le modèle a été évalué selon des normes cliniques « rigoureuses ».
L’autre atout maître de ce lancement est le partenariat avec plusieurs applications de bien-être et services gérant les dossiers médicaux en ligne. Cette intégration permet à l’IA, si le patient donne son accord explicite, d’accéder à l’historique médical : analyses de prises de sang ou de scanners, antécédents, prescriptions en cours, etc. L’assistant ne « devine » plus ce qui arrive aux patients : il analyse leurs résultats médicaux en direct !
Cette innovation tombe à pic pour les systèmes de santé mondiaux. ChatGPT Santé pourrait contribuer à désengorger les cabinets médicaux des questions bénignes, et leur permettre de se concentrer sur le soin et le diagnostic complexe. Ce n’est évidemment pas la fin du médecin traitant (quoi que), mais sans doute l’avènement d’une autre façon de pratiquer la médecine ou de vivre avec une maladie : désormais, le patient et le docteur seront assistés par une troisième intelligence, infatigable et encyclopédique. On comprend néanmoins aussi pourquoi Elon Musk, vient d’exhorter la jeunesse américaine à ne plus envisager de s’inscrire en fac de médecine.
Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.
Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.
Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.