Vue normale

Électroscope #10 : un casque qui écoute votre cerveau, un antidote à la ricine & une usine dans les abysses

19 janvier 2026 à 01:15

Réinventer l’autonomie avec des micro-batteries, améliorer ses réflexes de gamer, neutraliser un poison mortel, opérer un jumeau numérique du cœur humain, dessaler l’eau de mer en utilisant la pression des abysses… C’est parti pour Électroscope #10.

Iten et Lacroix : la micro-batterie solide qui réinvente l’autonomie

Dans l’univers de l’électronique, la loi de Moore a permis une miniaturisation considérable, laissant toutefois une technologie à la traîne : la batterie, qui n’a pas connu les mêmes gains de performance, car sa densité progresse de façon linéaire, et non exponentielle. C’était vrai, en tout cas, jusqu’à l’ascension d’Iten. Cette pépite française, installée à Dardilly, près de Lyon, a réussi là où les géants piétinent : créer des micro-batteries « tout-solide » aussi puissantes que sûres, sans cobalt et sans solvants lourds.

Oubliez les piles boutons encombrantes. Les batteries d’Iten sont des composants céramiques rechargeables (en moins de 10 minutes, selon l’entreprise), à peine plus gros qu’un grain de riz, mais capables de délivrer des puissances « cent fois supérieures » aux technologies lithium-ion classiques, tout en ayant des dimensions similaires. Cette incroyable densité de puissance va permettre notamment de lisser les pics de consommation des objets connectés et autres capteurs autonomes.

Mais une technologie de rupture ne vaut rien sans capacité de production massive. C’est là qu’intervient l’alliance stratégique nouée avec le groupe Lacroix, géant français méconnu de la sous-traitance électronique. Au cours des derniers mois, la faisabilité de l’intégration des solutions d’Iten directement sur des cartes électroniques a été testée, en conditions réelles, dans l’usine Symbiose de Beaupréau-en-Mauges (Maine-et-Loire). Les résultats ont été concluants, disent les deux partenaires : les micro-batteries sont bel et bien compatibles avec les lignes d’assemblage existantes, et donc industrialisables !

L’enjeu ? L’Internet des objets (IoT). Pour que nos montres, nos capteurs industriels ou nos implants médicaux deviennent réellement autonomes et miniatures, ils doivent s’affranchir des contraintes chimiques classiques. En industrialisant l’intégration de ces micro-batteries directement sur les cartes électroniques (comme n’importe quel composant standard), Iten, qui entend ouvrir sa propre usine en France en 2028, ne se contente pas de fabriquer une batterie : la jeune pousse nous débarrasse de l’un des derniers verrous matériels qui empêchent l’électronique de se fondre dans notre quotidien.

Neurable : quand votre casque gaming écoute votre cerveau

Quittons l’énergie pour plonger au cœur de notre cerveau. Avec la dernière prouesse de Neurable, entreprise américaine experte en neurotechnologie « non invasive », la frontière entre l’homme et la machine vient de s’estomper un peu plus, suite au lancement de son casque capable de lire les ondes cérébrales. Fruit d’une collaboration avec la marque de casques gaming HyperX, il vise à améliorer la « concentration des joueurs ».

Jusqu’à présent, l’interface cerveau-ordinateur (BCI) restait essentiellement cantonnée aux labos de recherche, nécessitant des bonnets bardés de fils et de gel conducteur, voire des implants cérébraux pour les dispositifs les plus complexes. Neurable a réussi l’impensable : miniaturiser des capteurs EEG (électroencéphalographie) au point de pouvoir les dissimuler dans les coussinets d’un casque grand public. Une fois en contact avec le contour de nos oreilles, ils captent les infimes variations électriques du cortex sans le moindre inconfort.

Loin de la science-fiction, le système agit comme une sorte de « traducteur instantané » : des algorithmes d’intelligence artificielle nettoient le signal brut pour convertir cette activité neuronale en métriques lisibles. Le résultat est troublant d’efficacité. Le casque « lit » notre niveau de concentration en temps réel et peut détecter les signes avant-coureurs de la fatigue cognitive avant même que nous n’en ayons conscience. L’idée est de s’en servir comme d’un outil d’entraînement mental pour améliorer les temps de réaction.

La démonstration de son efficacité a eu lieu lors du dernier salon CES 2026, à travers un test concret sur le jeu de tir d’entraînement Aimlabs. D’abord soumis à une épreuve de tir sans préparation préalable, un utilisateur a établi un premier score de 33 333 points, avec une latence de 478 millisecondes. C’est alors que l’interface de Neurable est entrée en scène : le testeur a effectué un autre exercice, cette fois « guidé » grâce à l’assistance de l’appareil. Le verdict fut sans appel : lors de la seconde tentative, le score a bondi à près de 40 000 points, accompagné d’une nette amélioration des réflexes !

Le Ricimed : un bouclier biologique « Made in France »

En ce début d’année 2026, d’autres innovations se déploient également sur le terrain de la sécurité nationale et de la protection contre le risque terroriste. En effet, la biotech française Fabentech a réalisé une première mondiale qui fera date dans l’histoire de la biodéfense : l’obtention de l’autorisation de mise sur le marché (AMM) pour le Ricimed.

Le nom peut sembler anodin, mais la menace qu’il neutralise est terrifiante : la ricine. Cette toxine naturelle, issue de la graine de ricin, une plante facile à produire, est 6 000 fois plus toxique que le cyanure et mortelle, y compris à d’infimes doses. Impossible à détecter immédiatement, elle est considérée comme l’arme de bioterrorisme par excellence, redoutée par tous les services de renseignement occidentaux. Elle a notamment été utilisée lors des fameux meurtres perpétrés par les espions de l’Est grâce au « parapluie bulgare », comme dans celui qui a coûté la vie au dissident bulgare Georgi Markov, en 1978.

Jusqu’ici, il n’existait aucun antidote. En cas d’exposition, la médecine était impuissante.

Fabentech change la donne grâce à sa technologie d’immunothérapie polyclonale, qui a déjà produit des traitements contre Ebola et la grippe H5N1. En termes simples, ses équipes produisent des anticorps ultra-spécifiques capables de neutraliser la toxine dans l’organisme avant que la ricine ne provoque des dégâts irréversibles. Plus précisément, le Ricimed est un médicament qui se fixe sur le poison pour l’empêcher de s’accrocher à nos cellules. Bloqué à l’extérieur, il devient inoffensif. Par ailleurs, cette technologie à large spectre peut neutraliser des attaques « quelle que soit la provenance » de la ricine, dit l’entreprise.

Cette autorisation n’est pas qu’une percée médicale : c’est aussi une victoire géopolitique. Elle permet à la France et à l’Europe de se constituer des stocks stratégiques souverains. Dans un monde où la menace asymétrique grandit, Fabentech, soutenue par la Direction générale de l’armement (DGA), nous dote d’une assurance-vie collective et conforte la France dans son rôle de leader européen de la gestion des risques NRBC (nucléaire, radiologique, biologique, chimique).

Le français inHEART produit des jumeaux numériques du cœur humain

Imaginez un outil offrant aux cardiologues la possibilité de naviguer en temps réel dans une représentation fidèle du cœur d’un patient. Une sorte de « Google Maps de l’organe ». Entre ce rêve et la réalité, il n’y a qu’un pas qu’inHEART est en train de franchir. Cette startup française, issue de l’IHU Liryc et de l’Inria à Bordeaux, incarne l’avènement de la médecine personnalisée au travers de « jumeaux numériques ».

Sa technologie répond à un problème complexe : chaque cœur est unique, mais les outils d’imagerie classiques (scanners, IRM) ne donnent souvent qu’une vision imparfaite, en 2D ou en fausse 3D, des tissus. Pour un cardiologue s’apprêtant à pratiquer une intervention complexe sur le cœur (tachycardies ventriculaires, cardio-neuro-ablations, radio-ablations), c’est un peu comme devoir désamorcer une bombe avec un plan flou.

La biotech inHEART utilise l’intelligence artificielle pour transformer ces images médicales brutes en un modèle 3D interactif et ultra-précis du cœur du patient. Ce double numérique offre une vision instantanée et précise de l’anatomie et permet de visualiser les cicatrices électriques invisibles à l’œil nu, responsables des courts-circuits cardiaques. Cerise sur le gâteau : ce modèle est directement exploitable par les cardiologues, car intégrable aux systèmes de cartographie électro-anatomique utilisés à l’hôpital.

Les résultats récents sont spectaculaires : les interventions préparées avec inHEART sont plus rapides, plus sûres et réduisent drastiquement les complications. Selon le CHU de Toulouse, premier hôpital en France à déployer cette technologie, celle-ci permet de réduire la durée moyenne de ce type de procédure de 5 à 2 heures, et le taux de réussite grimpe de 60 à 75 %. Car, avec la solution d’inHEART, le chirurgien n’opère plus « à vue », mais navigue dans un territoire qu’il a déjà exploré virtuellement…

Flocean : l’usine de dessalement qui utilise la force des abysses

Nous terminons ce tour d’horizon par ce qui est sans doute l’enjeu le plus vital du siècle : l’accès à l’eau douce. Alors que les méthodes de dessalement traditionnelles sont pointées du doigt pour leur voracité énergétique (bien qu’en nette baisse) et leurs rejets de saumure côtiers, la startup norvégienne Flocean opère, en 2026, une rupture radicale : exploiter la pression naturelle de l’océan. Bref, elle amène l’usine à l’eau, et non l’inverse.

Reconnue comme l’une des meilleures inventions par le TIME fin 2025, la technologie de Flocean repose sur un principe physique simple mais inexploité : la pression hydrostatique. Au lieu de construire de gigantesques usines sur les côtes, Flocean a pour ambition d’installer des modules de dessalement autonomes directement au fond de l’océan, à environ 400 à 600 mètres de profondeur. La pression naturelle de l’eau (d’environ 50 bars) est suffisante pour actionner le processus d’osmose inverse sans recourir aux pompes haute pression énergivores utilisées sur terre. Résultat ? Une consommation énergétique qui serait « réduite de 30 à 50 % » par rapport aux standards actuels, selon l’entreprise.

Cette innovation se veut aussi écologique. En puisant l’eau dans les abysses, là où la lumière ne pénètre pas, Flocean capte une eau pure, exempte d’algues et de pollution de surface, réduisant drastiquement le besoin de prétraitement chimique. Flocean annonce jusqu’à « 60 % d’infrastructures en moins » pour le prétraitement. Soit une autre source d’économies ! De plus, la saumure rejetée à cette profondeur se disperserait bien mieux dans les courants profonds qu’en zone côtière fragile, sans avoir besoin d’additifs…

Avec le lancement commercial de ses unités « Flocean One », dont le premier module doit être déployé à Mongstad en 2026 avec une capacité annoncée de 1 000 m³ d’eau douce par jour, la Norvège apporte ainsi une solution clé en main pour les régions arides et assoiffées. À terme, chaque module devra produire 5 000 m³ d’eau douce par jour, et leur conception permettra d’atteindre 50 000 m³ d’eau douce par jour, par site d’exploitation.

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #10 : un casque qui écoute votre cerveau, un antidote à la ricine & une usine dans les abysses est apparu en premier sur Les Électrons Libres.

Les paniques numériques de l’ADEME

13 janvier 2026 à 05:56

Régulièrement, l’ADEME redécouvre que le numérique consomme de l’électricité. Après le catastrophisme sur les mails, le streaming, le métavers ou la 5G, l’agence cible désormais l’IA et les data centers. Avec une mécanique immuable : diaboliser nos usages pour présenter la sobriété – voire la décroissance – comme seul horizon désirable.

Allons droit au but. Le dernier rapport de l’ADEME sur l’évolution des consommations des data centers en France appelle de nombreuses critiques. Une modélisation simpliste, fondée sur des données en partie obsolètes, ne peut sérieusement prétendre éclairer l’avenir, a fortiori à l’horizon 2060, dans un secteur marqué par des ruptures technologiques rapides et imprévisibles. Mais ces débats méthodologiques sont presque secondaires, tant la conclusion semble écrite d’avance. L’analyse ne vise qu’à donner un vernis scientifique à la légitimation d’une sobriété dont vivent les auteurs.

Pire encore, si la recommandation implicite de ce rapport était suivie — freiner l’implantation jugée « effrénée » des data centers en France au nom de leur incompatibilité supposée avec l’Accord de Paris — cela reviendrait à encourager le recours à des serveurs situés dans des pays au mix électrique bien plus carboné, au détriment du bilan carbone global. Un résultat absurde pour une démarche aussi hypocrite que contre-productive.

Une conclusion écrite d’avance

Le rapport propose cinq scénarios. Un scénario dit « tendanciel », présenté comme la trajectoire naturelle en l’absence de politiques publiques correctrices, et quatre scénarios alternatifs repris du rapport Transition(s) 2050 : les fameux « Générations frugales » (la douce sobriété décroissante), « Coopérations territoriales », « Technologies vertes » et « Pari réparateur » (l’affreux techno-solutionnisme). Sans surprise, le scénario tendanciel, à base de règles de trois sommaires sur les tendances actuelles, est celui qui produit les consommations les plus élevées, tous les autres convergeant vers une baisse. Jusque-là, rien d’anormal.

C’est ensuite que ça se gâte. La synthèse du rapport affirme que « les optimisations technologiques telles que l’augmentation de l’efficacité et la récupération de la chaleur fatale ne suffiront pas à stabiliser la croissance des consommations électriques des centres de données en France sans la mise en place d’une politique active de sobriété pour les services numériques et les usages ». Une affirmation sans preuve, qui découle mécaniquement des hypothèses retenues, lesquelles n’intègrent pas, ou très peu, de progrès technologiques. Et qui, surtout, érige la stabilisation de la consommation électrique des centres de données en une fin en soi, sans jamais en justifier la pertinence au regard de notre surcapacité de production électrique ou des externalités positives des nouveaux usages numériques.

Des chiffres sans contexte

Le chiffre est spectaculaire. La consommation électrique des centres de données « induite par les usages des Français » pourrait être multipliée par 3,7 d’ici 2035, voire par 4,4 si l’on inclut la part dite « importée ». Verdict ? Une telle trajectoire serait incompatible avec l’Accord de Paris. Le message est simple, anxiogène et médiatiquement très efficace.

Pourtant, pris isolément, ce chiffre ne signifie pas grand-chose. Cette présentation occulte que les 8 TWh actuels estimés par l’ADEME — soit environ trois fois la consommation annuelle d’une ville comme Lyon ou Marseille — ne représentent que 1,8 % de la consommation nationale. Quant aux 26 TWh de croissance projetés d’ici 2035 dans le scénario tendanciel, ils apparaissent parfaitement soutenables au regard des surcapacités de production d’environ 100 TWh par an signalées par RTE. La France est d’ailleurs la première exportatrice d’électricité décarbonée de l’UE, avec un nouveau record de 92,3 TWh en 2025. Présenter une telle croissance, alimentée par une électricité largement décarbonée, comme une menace climatique relève, au mieux, du contresens ; au pire, de la malhonnêteté intellectuelle.

Quant à la notion de « consommation importée », elle pose un problème conceptuel évident. À usages constants, cette consommation existe quel que soit le lieu d’implantation des serveurs. La seule manière de la réduire consiste à restreindre les usages eux-mêmes, hypothèse explicitement assumée par le scénario 1, qui prévoit de mettre fin à des usages jugés « inutiles et nocifs ».

À l’inverse, freiner la construction de data centers en France, voire instaurer un moratoire comme suggéré par ce même scénario 1, ne supprime rien, mais déplace le problème, transformant une prétendue mesure de sobriété en dégradation globale.

Une modélisation et des hypothèses discutables

Le rapport présente son approche comme reposant sur un travail de « modélisation ». En clair, un tableau Excel.

Celui-ci est bâti sur des hypothèses qui concourent toutes à surévaluer les besoins énergétiques projetés. D’abord, il retient le volume de données comme indicateur central de l’impact environnemental, un choix pourtant largement reconnu comme inadapté au numérique moderne. Assimiler mécaniquement « plus de données » à « plus d’énergie » revient à ignorer les gains continus d’efficacité liés aux architectures, aux algorithmes et à l’optimisation des systèmes. Ensuite, il associe ce volume de données à un nombre toujours croissant de requêtes centralisées, en faisant l’impasse sur l’essor déjà réel de modèles plus légers, capables de tourner directement sur les smartphones, les ordinateurs ou les objets connectés. Enfin, pour estimer la consommation électrique, il s’appuie sur des références technologiques dépassées, issues d’un état du numérique antérieur à l’explosion de l’IA générative, en ignorant que les puces les plus récentes, conçues pour l’IA, sont capables de fournir bien plus de calculs pour une même quantité d’électricité.

Le rapport pousse l’exercice prospectif jusqu’en 2060, un horizon particulièrement lointain pour un secteur marqué par des ruptures technologiques rapides. Pour mesurer l’ampleur de l’écart, il suffit de se replacer trente-cinq ans en arrière, en 1990, à une époque où Internet n’était pas un usage grand public, où les PC tournaient avec un processeur 80486 et 4 Mo de RAM, et où l’ADEME elle-même n’existait pas encore.

Une conviction préalable

La lecture du rapport laisse apparaître que la sobriété n’est pas une hypothèse parmi d’autres, mais un objectif. Les communications sur LinkedIn de l’autrice principale, trésorière de l’association GreenIT (voir encadré), le confirment explicitement. Dans un post publié lors de la sortie de l’étude, elle explique que seuls les scénarios fondés sur la sobriété lui paraissent capables de répondre aux défis environnementaux. Selon elle, « s’appuyer uniquement sur des innovations technologiques pour réduire l’empreinte environnementale des data centers et de l’IA générative est illusoire ».

La sobriété constitue une conviction personnelle préexistante, assumée et revendiquée par l’autrice, qui structure son rapport au numérique, à l’IA et aux usages. Dans un autre post, elle critique la « pression à l’adoption » de l’IA et s’interroge sur la « légitimité démocratique » de ces évolutions.

Se pose alors une question de fond : peut-on confier une prospective destinée à éclairer le débat public, voire à orienter la décision publique, à des experts aux positions militantes affirmées et qui interviennent par ailleurs, à titre professionnel, dans la mise en œuvre de ces orientations auprès d’acteurs publics et privés ? Une pratique constante, pourtant, chez l’ADEME, qui revient à confier à des vendeurs de ronds-points une étude sur la sécurité routière.

L’ADEME : une vision sous influence ?

J’approfondis

La sobriété comme horizon idéologique

Très régulièrement, le numérique se retrouve dans le viseur de l’ADEME, qui va même jusqu’à publier des vidéos (en streaming et disponibles en full HD Premium) pour inciter à éteindre sa box internet et à ne pas laisser son ordinateur en veille. Ce biais anti-numérique amène à se demander si le numérique n’est pas mis en cause, non pour ce qu’il est, mais pour ce qu’il représente et rend possible : le progrès, la technologie, « la sauvegarde des modes de vie de consommation de masse », pour reprendre la présentation du scénario « Pari réparateur ».

Le rapport publié début 2026 sur la prospective énergétique des centres de données s’inscrit dans cette continuité. Le décor change, la méthode demeure. Aujourd’hui, les coupables s’appellent blockchain et intelligence artificielle. Demain, ce sera autre chose.

La conclusion l’assume sans détour : « Les cas des scénarios Générations frugales et Coopérations territoriales nous ont permis d’explorer que seule une politique de sobriété très volontariste, modifiant en profondeur nos modes de vie, permettrait une inflexion permettant de réduire les consommations futures des centres de données. »

La prospective se fait alors prescriptive. Elle désigne une voie unique, celle de la sobriété, et substitue au techno-solutionnisme qu’elle dénonce un socio-solutionnisme aux contours flous, dont les implications concrètes pour les usages, les libertés et les choix collectifs demeurent largement indéterminées.

Et si le principal défaut du numérique, aux yeux de l’ADEME, était précisément de permettre de décarboner sans passer par la sobriété ?

L’article Les paniques numériques de l’ADEME est apparu en premier sur Les Électrons Libres.

Électroscope #9 : CES 2026 & ChatGPT Santé

11 janvier 2026 à 22:32

Collaborer avec un robot ouvrier, regarder sa voiture réfléchir, transformer sa télé en papier peint, scanner ses aliments au restaurant, confier sa santé à ChatGPT…
C’est parti pour Électroscope #9.

Boston Dynamics et Google DeepMind : le robot Atlas  passe des vidéos YouTube à l’ère industrielle

C’était l’image la plus partagée du salon : le nouveau robot Atlas, dans sa version entièrement électrique, naviguant avec une aisance déconcertante au milieu du stand du constructeur Hyundai. Passant de 1,50 m à 1,90 m de hauteur, il gagne aussi en mobilité, des articulations entièrement rotatives, et une capacité de levage bien supérieure à son prédécesseur (de 50 kg). Mais au-delà de la prouesse mécanique, c’est aussi l’annonce faite conjointement par Boston Dynamics et Google DeepMind qui change la donne !

En effet, si les robots humanoïdes sont des merveilles d’ingénierie capables de danser ou de faire des saltos arrière, prouesses que l’on peut admirer sur de virales vidéos en ligne, ils restent souvent des « coquilles vides » sur le plan cognitif, en se contentant d’exécuter des scripts écrits à l’avance. Plus pour longtemps ! Cette semaine, Boston Dynamics a profité du CES 2026 pour confirmer l’intégration des modèles de fondation multimodaux Gemini Robotics (annoncés l’automne dernier) directement dans le « cerveau » d’Atlas.

Cela signifie que la future version du robot ne se contentera plus de suivre un chemin balisé. Grâce à la vision par ordinateur couplée au raisonnement de Gemini, Atlas pourra identifier par exemple un objet inconnu, déduire de quoi il s’agit (« ceci est une pièce fragile »), puis ajuster sa prise sans qu’aucun ingénieur n’ait à coder cette interaction spécifique. Mieux encore : l’apprentissage réalisé par un robot sera transférable aux autres !

L’annonce est d’autant plus sérieuse qu’elle s’accompagne de chiffres de production massifs, une première pour Boston Dynamics, entreprise historiquement tournée vers la R&D. L’objectif est d’atteindre une capacité de production de 30 000 unités par an d’ici 2028. Et sa maison-mère, Hyundai, a annoncé le déploiement d’Atlas sur son site de production de voitures électriques en Géorgie. Le robot quitte ainsi le labo de recherche pour l’usine, avec la promesse de soulager les humains des tâches les plus pénibles et répétitives, d’abord le tri des pièces avant de passer à l’assemblage des composants, en tant que collaborateur pouvant comprendre des consignes vocales (« prends ceci et mets-le là »).

Mercedes et Nvidia : vers une voiture qui « pense » ?

Si vous pensiez que la conduite autonome chez les constructeurs traditionnels stagnait au « Niveau 2 », Mercedes-Benz vient de prouver le contraire avec la présentation de la version de série de la Classe CLA 2026, dotée d’une autonomie d’environ 600 km. Ce véhicule est le premier de la marque à embarquer nativement le système d’exploitation propriétaire MB.OS qui permet d’interagir avec la recharge et les aides à la conduite.

Mais la véritable rupture technologique réside ailleurs. Lors du CES, Jensen Huang, le PDG de Nvidia, a rejoint le constructeur sur scène pour dévoiler « Alpamayo-R1 », un modèle d’IA de 10 milliards de paramètres spécifiquement entraîné pour la conduite autonome, et censé pouvoir faire concurrence avec la solution Full Self-Driving (FSD) de Tesla. Contrairement aux systèmes précédents basés sur des règles strictes, Alpamayo utilise une nouvelle architecture de raisonnement en « chaîne de pensée ».

Avec cette IA, une voiture devient capable de comprendre son environnement, « prenant des décisions comme le ferait un humain » dans des cas complexes, et devrait atteindre à terme une autonomie de niveau 4. Pour les conducteurs, cela changera tout. Imaginez une rue barrée soudainement sans panneau de prévention, un véhicule de livraison garé en double file sur une piste cyclable, ou encore un carrefour bondé de piétons imprévisibles. Là où une voiture autonome classique pourrait se bloquer, paralysée par l’absence de règles codées pour ces anomalies, la voiture devient en mesure de « comprendre » la situation.

Quant au modèle CLA 2026, le véhicule est bardé de capteurs (10 caméras, 5 radars et 12 capteurs ultrasons) qui nourrissent un supercalculateur capable d’effectuer plus de 500 000 milliards d’opérations par seconde. Mercedes propose cette fonctionnalité sous le nom MB.DRIVE ASSIST PRO, facturée aux États-Unis sous forme d’abonnement (environ 3 950 $ les premières années). La voiture n’est plus un produit fini à l’achat, mais une plateforme évolutive qui apprend de chaque kilomètre parcouru par la flotte mondiale !

LG OLED evo W6 : une télévision « papier peint »

Dans le hall central, LG Electronics a rappelé à tous pourquoi il restait le maître de l’OLED. La nouvelle série LG OLED evo W6 (pour « Wallpaper ») n’est pas juste une télévision plus fine : c’est l’aboutissement d’une décennie de recherche pour faire disparaître la technologie au profit de l’image. Le design de « W6 » pousse le minimalisme à l’extrême : une dalle de moins de 10 millimètres d’épaisseur, plaquée magnétiquement au mur, sans câble visible. 

Tout cela est rendu possible grâce à un boîtier, le Zero Connect, qui transmet l’image en 4K et le son sans fil vers l’écran jusqu’à 10 mètres de distance. Avec cette astuce, l’écran ne contient plus que la dalle et l’électronique minimale de pilotage des pixels. Tout le reste se trouve dans le boîtier ! Par ailleurs, LG a commencé à utiliser des matériaux composites avancés, afin que ce type d’écran ultra-fin puisse rester rigide sur le long terme, tout en divisant son poids par deux par rapport aux modèles précédents. Une feuille métallique flexible est ajoutée pour permettre l’adhérence magnétique au mur…

Lorsqu’il est éteint, l’écran bascule en mode « LG Gallery+ », affichant des textures de toile si réalistes que de nombreux visiteurs ont dû toucher la surface pour croire qu’il s’agissait d’un écran, et non d’un tableau. La télévision se transforme alors en objet de décoration.

Allergen Alert : la sécurité alimentaire dans la poche

Loin des robots géants et des voitures de luxe, c’est un petit boîtier blanc, tenant facilement dans la main, qui a créé l’intérêt à l’Eureka Park (la zone dédiée aux startups). La jeune pousse française Allergen Alert, spin-off du géant du diagnostic in-vitro bioMérieux, a présenté ce qui pourrait devenir le « Yuka » des personnes allergiques.

Le problème est mondial : les allergies alimentaires ont explosé ces vingt dernières années, rendant les sorties au restaurant anxiogènes pour des millions de personnes. Et la réponse d’Allergen Alert est technologique : leur dispositif miniaturise l’immuno-analyse, technique réservée jusque-là aux laboratoires d’analyse médicale.

L’utilisateur insère un échantillon infime de son plat (une miette suffit) dans une capsule à usage unique, puis l’introduit dans le boîtier. En moins de deux minutes, l’appareil rend son verdict. Le système se concentre sur les 9 principaux allergènes, à l’origine de 80 % des réactions allergiques, à savoir les cacahuètes, les fruits à coque, le lait, les œufs, le poisson, les crustacés, le blé (et donc le gluten), le soja et le sésame. Le tout, avec une précision capable de détecter des traces infimes (quelques ppm), invisibles à l’œil nu.

Finaliste du concours Fundtruck 2025, la startup lyonnaise ne cible pas seulement le grand public. Elle a annoncé des partenariats pilotes avec des restaurants étoilés, et vise aussi les spécialistes de la restauration d’entreprise et scolaire, qui souhaitent certifier leurs repas en temps réel. C’est un bel exemple de la « Tech for Good » : une innovation de rupture issue de la recherche française, mise au service d’un besoin quotidien vital. Les précommandes ouvriront fin 2026, promettant de redonner le goût de l’insouciance à table.

ChatGPT Santé investit la médecine du quotidien

Au-delà du CES, OpenAI a officiellement lancé le 7 janvier « ChatGPT Santé », une déclinaison verticale de son modèle GPT-5.2, spécifiquement calibrée pour le secteur médical. Depuis 2023, des centaines de millions de patients ont utilisé ChatGPT pour s’auto-diagnostiquer, parfois avec des résultats mitigés, un risque d’hallucinations non négligeable, et des questions concernant la protection des données personnelles. 

Avec ce nouveau service, OpenAI change de paradigme et veut répondre aux inquiétudes, en commençant par s’aligner sur les normes HIPAA aux États-Unis et le RGPD en Europe, afin de garantir une confidentialité totale des données : aucune conversation n’est utilisée pour entraîner le modèle, et un chiffrement dédié est annoncé. La précision et l’utilité des réponses sont, quant à elles, renforcées grâce à un partenariat avec de nombreux médecins. Le modèle a été évalué selon des normes cliniques « rigoureuses ». 

L’autre atout maître de ce lancement est le partenariat avec plusieurs applications de bien-être et services gérant les dossiers médicaux en ligne. Cette intégration permet à l’IA, si le patient donne son accord explicite, d’accéder à l’historique médical : analyses de prises de sang ou de scanners, antécédents, prescriptions en cours, etc. L’assistant ne « devine » plus ce qui arrive aux patients : il analyse leurs résultats médicaux en direct !

Cette innovation tombe à pic pour les systèmes de santé mondiaux. ChatGPT Santé pourrait contribuer à désengorger les cabinets médicaux des questions bénignes, et leur permettre de se concentrer sur le soin et le diagnostic complexe. Ce n’est évidemment pas la fin du médecin traitant (quoi que), mais sans doute l’avènement d’une autre façon de pratiquer la médecine ou de vivre avec une maladie : désormais, le patient et le docteur seront assistés par une troisième intelligence, infatigable et encyclopédique. On comprend néanmoins aussi pourquoi Elon Musk, vient d’exhorter la jeunesse américaine à ne plus envisager de s’inscrire en fac de médecine.

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Recevoir Électroscope

L’article Électroscope #9 : CES 2026 & ChatGPT Santé est apparu en premier sur Les Électrons Libres.

« It works on my satellite » ou l'histoire d'un bug dans l'espace

Cette dépêche raconte un vieux bug que j’ai eu sur un satellite. L’identification, la reproduction, la correction. C’est le bug qui m’a le plus intéressé/marqué dans ma carrière (jusqu’ici), C’est pourquoi cela pourrait aussi vous intéresser.

L’appel

Il y a bien longtemps, dans une galaxie lointaine. Ah non, pardon. Un long weekend de 14 juillet, sur une plage, je reçois un coup de fil : « Un des satellites a rebooté, à cause d’une erreur logicielle, est-ce que tu es disponible pour venir comprendre ce qu’il s’est passé ? A priori, il fonctionne toujours, mais il est passé tout seul sur le calculateur redondant. »

Quelques mois avant, on avait lancé une première grappe de six satellites ; d’autres lancements sont prévus pour compléter une constellation dans les mois/années à venir. Comme tout marche bien depuis des mois, personne de l’équipe logiciel de bord n’est d’astreinte. Sur ces satellites, j’étais surtout sur la partie validation. En gros, ce jour-là pour moi, ce n’était pas possible, mais j’y suis allé le lendemain, un samedi ou dimanche.

Sommaire

L’objectif et les moyens de débug

Si nos managers nous ont appelé, c’est parce quand un satellite bugue en prod (on va dire en vol, plutôt), c’est comme pour n’importe quel autre logiciel, des gens veulent des réponses à des questions comme :

  • pourquoi ?
  • est-ce que c’est grave ?
  • est-ce que ça va se reproduire ?
  • comment on corrige ?

Par contre, les moyens sont potentiellement différents de ce que vous avez dans d’autres environnements (ou pas, j’imagine que ça dépend des gens) Ce qu’on a :

  • le code
  • la doc
  • des bancs de tests (avec le même matériel pour le calculateur)
  • des gens
  • un tout petit peu de contexte logiciel sauvegardé au moment de l’erreur (j’y reviens)
  • la télémétrie avant l’anomalie (tout allait bien)
  • la télémétrie après l’anomalie (tout va bien, mais on est passé du mode matériel 2 au mode 3. En gros c’est le même, sauf qu’on utilise certains équipements “redondants” au lieu du “nominal”, dont le calculateur)

Premier élément, qui a mené au fait que c’est nous (du logiciel) qui avons été appelés, c’est que le matériel qui gère le mode (2 -> 3) peut changer de mode pour plusieurs raisons, mais il sait pourquoi il le fait. Et la raison c’est « le logiciel m’a dit de le faire ». Donc ça vient de nous.

L’analyse

Comme tout va bien, on va regarder le contexte sauvegardé. Ce n’est pas un core dump qu’on peut passer à gdb, mais ça contient quelques infos :

  • le code de l’erreur ILLEGAL CPU INSTRUCTION
  • le Program Counter %pc qui nous donne l’adresse de l’instruction exécutée au moment de l’erreur
  • l’adresse de la prochaine instruction à exécuter %npc (ici c’est l’adresse juste après %pc, rien de surprenant)
  • une copie des registres (bon, on ne va pas en avoir besoin, donc je ne vous fais pas un cours sur SPARC et ses registres tournant, de toute façon j’ai oublié. On pourrait probablement les utiliser pour récupérer partiellement la pile d’appel, on l’a surement fait)
  • la date et l’heure (super info utile. Enfin, ça correspond à notre anomalie, j’imagine que c’est pour ça qu’on l’avait)
  • surement d’autres choses, mais pas utiles pour la suite.

Problème résolu donc ? on est à l’adresse %pc, on l’exécute et le CPU nous dit que l’instruction n’est pas légale. Qu’est-ce qu’il y a ici ? Une instruction légale, quelle que soit la valeur des registres. Pareil pour un peu plus haut et un peu plus bas, rien qui provoque cette erreur. Que s’est-il passé ?

On est dans l’espace, donc l’explication facile (dès qu’on n’explique pas un truc) : l’instruction a dû avoir un Single Event Upset (SEU), un bit flip. Ça a transformé une instruction légale en instruction illégale. C’est simple ? Sauf que non, on est dans l’espace, en conséquence, on a tout un mécanisme de protection contre les SEU. C’est pas infaillible (par exemple si on a deux bits inversés, on ne peut pas corriger) mais ce n’est pas la bonne signature. Si c’était ça, ça dirait DOUBLE EDAC ERROR, pas ILLEGAL CPU INSTRUCTION.

Donc la cause de l’anomalie n’est pas un SEU.

EDAC / Protection contre les SEU

Je suis sûr que vous êtes intéressé, donc je vais vous décrire la protection contre les bit flips. C’est un mix de matériel/logiciel (en plus d’avoir une boite autour qui diminue la probabilité). En mémoire (RAM, ROM) pour 4 octets de données “utiles”, on consomme 5 octets. Le 5ᵉ octet contient un code de contrôle calculé à partir des 4 autres (EDAC). Si un bit change (sur les 5 × 8 = 40 bits), on peut non seulement le détecter mais aussi reconstruire la valeur correcte. Si deux bits changent (ou plus, mais il y a une limite), on peut détecter l’erreur mais pas la corriger (cf: le DOUBLE EDAC ERROR mentionné plus haut)

C’est complètement transparent vu du logiciel (code source, ou assembleur), tout ça est calculé par le matériel. Quand on écrit en mémoire 0x12345678 il calcule le code et écrit 0x12345678XY avec la bonne valeur de X et Y. Quand on lit, pareil, le matériel commence par lire 0x12345678XY, calcule la somme de contrôle sur les 4 octets, si c’est le bon, il nous donne 0x12345678.

Là où ça se complique, c’est quand il y a un changement. Disons qu’on a maintenant 0x02345678XY. (1 --> 0). Il se passe deux choses ici :

  1. le matériel dit au logiciel 0x12345678 (il corrige, mais uniquement la valeur envoyée au software. Pas la valeur enregistrée en mémoire)
  2. il émet un signal SINGLE EDAC ERROR.

C’est là que le logiciel intervient, dans le point 2. Ce signal est lié à une trap qui corrige la mémoire. Schématiquement c’est lié à une fonction qui ressemble à ceci (en assembleur SPARC en vrai, mais j’ai tout oublié)

; adresse vient du contexte, c’est l’adresse qui a été lue en dernier, qui a généré la trap
disable_edac_trap: ; Désactiver la trap. Sinon on déclencherait la trap depuis la trap
load [adresse], reg ; Lire 4 octets (lecture = correction auto)
enable_edac_trap: ;
store reg, [adresse] ; Réécrire la valeur corrigée

On lit la valeur, c’est corrigé vu du logiciel par le matériel, on réécrit la valeur, tout est corrigé.

Cette trappe peut être déclenchée par n’importe quelle instruction qui lit de la mémoire (ou par le fait de charger une instruction elle-même depuis la mémoire), et on a même une tâche de fond (plus basse priorité, qui tourne en permanence quand il reste du temps de calcul disponible) qui fait

// en gros. En vrai légèrement plus compliqué
void background_task(void) {
int address = MEMORY_START;
volatile int value;
while (1) {
value = *address; // s’il y a un bit flip en mémoire, ce sera corrigé par la trap
address += 4;
if (address >= MEMORY_END) {
address = MEMORY_START;
}
}
}

L’idée de cette fonction c’est de lire la mémoire régulièrement. Si on ne faisait pas ça, peut-être que certaines cases mémoires auraient deux bit flips, car pas corrigé après le premier si on ne lit pas la mémoire avant qu’un autre arrive. Ce n’est pas très fréquent d’avoir des bit flips, mais sur les 6 satellites, en cumulé, on en détecte quelques-uns par jour.

L’hypothèse

De retour à la case départ donc. On exécute apparemment l’instruction stockée dans %pc, valide. Et le CPU nous dit qu’elle est invalide, mais clairement, elle est valide. On tourne en rond, on est samedi ou dimanche, fin d’après midi, et le satellite, lui aussi il tourne en rond, sans problèmes. Tout à coup, quelqu’un a l’idée de dire « bon, on ne résoudra pas ça aujourd’hui. On se revoit lundi ? ». On rentre, je bois un verre avec mes colocs (enfin, je suppose. C’était une activité habituelle pour un weekend, ça, au moins)

Retour au bureau, et là (surement plus tard, pas lundi 9h) on a David (un collègue) qui propose : "Comme clairement %pc est valide, est qu’on exécute quelque chose d’invalide, est-ce qu’on est sûr qu’on a bien enregistré %pc?". On vérifie, le code qui fait ça a l’air correct. En plus le contexte général, ce qu’il y a dans les registres est correct. Toujours David "OK, le logiciel est correct, mais est-ce qu’on est sûr que %pc c’est bien toujours l’instruction qu’on exécute ?".

Donc, on vérifie, par acquit de conscience et on remarque que non, pas nécessairement. Si on est dans une trap, le %pc qu’on enregistre pointe vers l’instruction qui a provoqué la trap, pas l’instruction de la trap qu’on exécute. Bon, OK, ça ne nous avance pas nécessairement (mais si j’en parle…)

Nouvelle question donc : Si on est à %pc, quelles sont les traps qui peuvent s’exécuter ? Il y a plein de possibilités, la plupart viennent de causes extérieures (timer matériel, plein d’autres évènements extérieurs) et potentiellement aussi la trap de l’EDAC si on lit une valeur (et l’instruction à %pc lit une valeur).

Donc techniquement, on pourrait aussi être n’importe où dans le code (assembleur) de toutes les traps. Avant on cherchait pourquoi c’était illégal d’exécuter %pc, maintenant on cherche pourquoi ça serait illégal d’exécuter %pc ou n’importe quelle ligne d’une trap active/activable à ce moment-là.

Chez moi, ça marche

Sauf que le code des traps, c’est pas nous qui l’avons écrit. C’est bien du code qui vient de l’entreprise, mais il existe depuis plusieurs années, est utilisé sur le même processeur depuis plusieurs années, et il a plusieurs dizaines d’années de vol (cumulé, en additionnant les satellites) sans problème.

En suivant les principes bien connus du développement logiciel, si on utilise un logiciel sur étagère, pas besoin de le valider (surtout ça coute de l’argent. Cela dit même si on avait essayé, je ne pense pas qu’on aurait trouvé de problème), vu qu’il marche. Par acquit de conscience, on demande, et on nous répond "bah chez nous ça marche" (la légende veut qu’une histoire similaire soit à l’origine de Docker, je ne sais pas si c’est vrai, mais le fameux "it works on my desktop, ship my desktop"…)

Vous avez peut-être lu le titre de l’article, donc vous imaginez où je vais. On se demande « OK, pourquoi ça marche pour eux, et pas pour nous ? » Quelles sont les différences ?

  • on est sur le même CPU/MCU (donc non, c’est pas ça)
  • on a changé de compilateur pour une nouvelle version (mais 1. c’est un compilateur “certifié”, et 2. les traps sont en assembleur…)
  • on est en orbite plus basse, et on a plus de SEU (mais même, quand on regarde leur historique, ils en ont beaucoup aussi, et en cumulé, beaucoup plus. Après… peut-être n’a-t-on pas de chance ?)

L’erreur

Ok, on a changé de compilateur, les traps sont en assembleur, mais le reste du code est dans un langage bien plus courant (non, je rigole, en vrai c’est en Ada…), peut-être que l’interaction entre les traps et le reste du code a changé ?

Pourquoi est-ce qu’on a décidé de changer de compilateur ? Ah pour des histoires de taille mémoire (640 kB should be enough? On avait même plus, genre 2 Mo de ROM, 4 Mo de RAM, large… ou pas). D’ailleurs, au moment du changement, on en a profité pour faire quelques optimisations. Non pas des flags genre -O1 ou -O2. Plus des choses sur le layout mémoire, on a ajouté __attribute__((packed)) qui est supporté, on a un peu changé le linker script…

Par exemple, le packed, ça nous permet de gagner de la place, avant toutes les variables étaient alignées sur une adresse multiple de 4, que ça soit un nombre sur quatre octets, ou un char d’un octet, ils prenaient au moins quatre octets. Maintenant, on a mis les data types multiples de quatre au début de la structure, bien alignés, puis les types qui prenent deux octets, on en met deux dans quatre octets (au lieu d’un et de gacher deux octets pour rien), puis les types de un octect, on en met 4.

D’ailleurs, par exemple, l’instruction à %pc, elle charge une donnée d’un seul octet qui est dans une adresse du type XXX+3, où X est un multiple de 4. C’est pas illégal de faire ça (donc non, toujours pas d’instruction illégale ici)

Après quoi, c’est là où David revient (dans mon souvenir en tout cas, ça venait beaucoup de lui, mais on était beaucoup à échanger sur le sujet). "Ok, %pc lit une donnée non alignée, et il le fait correctement. Mais s’il y a un bit flip, il se passe quoi ?. Bah rien, EDAC détectée, trap, on exécute le code assembleur qui marche sur les autres satellites.

Ah oui, mais non. Si on lit un octet, on peut lire XXX+3, mais si on lit 4 octets, c’est interdit. Il faut lire une adresse multiple de 4. Et donc on a une EDAC, et quand on rentre dans la trap

; adresse == XXX+3
disable_edac_trap: ;
load [adresse], reg ; Lire 4 octets
enable_edac_trap: ;
store reg, [adresse] ;

Ah oui, mais non. load ça lit 4 octets, c’est illégal de lui passer une adresse non multiple de 4, c’est une illegal instruction. Donc ça pourrait être ça :

  1. bit flip sur les quatre octets situés à XXX (l’EDAC est toujours calculé sur 4 octets d’une adresse alignée, même si on lit décalé)
  2. on rentre dans la fonction qui contient %pc
  3. on lit un octet à XXX+3
  4. ça déclenche la trap
  5. la trap essaye de lire 4 octets à XXX+3
  6. ILLEGAL CPU INSTRUCTION, allez en prison sans passer par la case départ

La reproduction

Sur le papier, ça marche. On peut même faire un petit logiciel sur le banc, qui fait juste un load [XXX+3], reg et qui génère une ILLEGAL CPU INSTRUCTION. Mais évidemment nos managers (et notre client) voudraient un peu plus qu’un « sur le papier, c’est ça, trust me bro ».

Donc la question "c’est possible de reproduire exactement comme dans l’espace, plutôt que de juste exécuter une instruction illégale à la main ?". Avec le vrai logiciel qui était dans l’espace, pas un logiciel de test ?

Bien sûr, il suffit d’attendre d’avoir un bit flip, sur le banc, juste au bon endroit, au bon moment. Vous avez combien de siècles devant vous ? Ou alors est-ce qu’on peut mettre le banc à côté d’un réacteur nucléaire ? Ça devrait accélérer les choses (du bon côté du mur de confinement. Ici, “bon”, ça veut dire mauvais pour les humains)

On va quand même regarder si on peut provoquer un bit flip autrement. Bon, a priori, en interne, au logiciel, on ne sait pas comment faire. La doc du processeur (qui vient avec l’edac) ne nous aide pas non plus. On demande à ceux qui nous ont dit que « chez eux, ça marche » qui nous répondent que la trap de l’edac, ils ne l’ont jamais testé, c’est juste une revue de code.

Bon, on envoie quand même un courriel au fabricant du proc, au cas où. Réponse rapide « je reviens vers vous dès que je sais ». Quelques jours (2, 3 semaines ?) plus tard : "Ah oui, c’est possible. D’ailleurs c’est documenté. Page WSYZ sur 5000, il y a **un* paragraphe qui explique comment faire*".

Le TL/DR du paragraphe : Il est possible de désactiver l’EDAC en écriture. Par contre il faut faire des choses spécifiques, donc on a pas de commande prévue pour le faire “simplement” depuis l’extérieur, il faudrait une nouvelle fonction.

void generer_bit_flip(int address, int valeur) {
*address = valeur; // écrit la valeur correcte avec l’edac normal
manipulate_specific_register_to_disable_edac(); // on a dû écrire la fonction, c’est pas aussi simple
*address = valeur ^ 0x00000001; // écrit la valeur avec un bit changé, mais sans changer le checksum enregistré
manipulate_specific_register_to_enable_edac();
}

Ça tombe bien, le logiciel qui est dans l’espace a deux fonctionnalités qu’on a testé, mais jamais en vrai avec un truc vraiment utile

  1. on peut patcher la mémoire et écrire ce qu’on veut, où on veut (code, données)
  2. on a plusieurs “fonctions” périodiques qui ne font rien, et qui sont prévues pour être patchées si on veut ajouter quelque chose (via la fonction de patch plus haut)

Donc on peut créer une fonction comme ça (en gros)

void generer_bit_flip(int address, int valeur) {
static int actif = TRUE;



if (actif) {
*address = valeur; // écrit la valeur correcte avec l’edac normal
manipulate_specific_register_to_disable_edac(); // ou a dû écrire la fonction, c’est pas aussi simple
*address = valeur ^ 0x00000001; // écrit la valeur avec un bit changé, mais sans changer le checksum enregistré
manipulate_specific_register_to_enable_edac();
actif = FALSE; // on ne veut le faire qu’une fois
}
}

Une fois qu’on a la fonction, on la compile. Ensuite on charge le logiciel normal sur le banc, on se met en conditions « avant l’anomalie », on uploade la fonction, on l’active et…

Le banc change de mode, passe du mode 2, au mode 3, sur le calculateur redondant. On vérifie le contexte, même signature que l’anomalie en vol. C’est bon on a fini. (Ouf, mon journal est déjà trop long)

La correction (Over-The-Air, mais sans l’air)

Oui, non, pas exactement. On a une explication, il faut une correction maintenant. Bon, c’est simple. Pour lire une adresse alignée sur 4, il suffit de mettre deux bits à 0. Finalement, voilà le patch

address = address & ~0x3 ; ** Cette ligne est le patch **
disable_edac_trap: ;
load [adresse], reg ;
enable_edac_trap: ;
store reg, [adresse] ;

Oui, c’est un patch d’une instruction dans le binaire. (Techniquement, 5 instructions, parce qu’il faut décaler les 4 instructions existantes de 1, mais on avait des noop en dessous, donc ça rentre)

La dernière question, c’est quelle stratégie d’ update appliquer. On a techniquement quatre familles de satellites à considérer :

  1. les satellites « pré-existants », qui utilisent l’ancien compilateur, sans packed et déjà dans l’espace.
  2. le satellite qui a eu l’anomalie.
  3. les 5 autres satellites de la grappe.
  4. les futurs satellites, non lancés.

Ce qui a été décidé : La première catégorie : Techniquement, on pourrait discuter du fait qu’il y a un bug ou non. Mais même si on considère qu’il y a un bug, il ne peut pas être déclenché. Donc on ne touche à rien. La catégorie 4, c’est facile. Ils sont au sol, on fait une nouvelle version complète du logiciel, on reflashe la rom en entier, et on vérifie.

Il reste les deux autres catégories. Bon la seule différence, c’est qu’un, toujours en mode 3, tourne pour l’instant sur le calculateur redondant (on peut revenir en mode 2, manuellement, si on veut). Donc on décide « on va faire la même chose », et on va corriger le problème (on aurait pu ne rien faire et dire « bah, si ça arrive, on connaît et on revient à chaque fois manuellement en mode 2 »)

Là encore, même si on corrige, on a plusieurs choix :

  1. Mettre à jour la ROM. En fait non, les ROM, parce que chaque calculateur a la sienne. Et le nominal ne peut pas écrire la ROM du redondant, et inversement. (Dès lors, si on veut patcher, qu’est-ce qu’on patche ? Le deux ROM ? Faut-il reconfigurer à la main pour rebooter sur le redondant ?)
  2. utiliser un mécanisme prévu pour « patcher, mais sans patcher la ROM ».

La solution 2, retenue, c’est un mécanisme (déjà dans le logiciel) qui permet de mettre les infos dans une autre mémoire (partagée par les deux calculateurs). Au boot, la ROM est copiée dans la RAM (on exécute le code depuis la RAM), et « avant de démarrer » on vient regarder dans cette table, si l’on doit patcher la RAM. Cela donne quelque chose comme :

ROM (logiciel original) --> Copie vers la RAM --> RAM (logiciel original) --> fonction de patch au boot, vient modifier la RAM --> RAM (trap corrigée) --> boot du logiciel.

Conclusion

Qu’est-ce que je retiens principalement ?

  • quand on me dit que du code fonctionne, donc qu’il est correct… j’ai un doute
  • Ce n’est pas parce que la doc explique quelque chose qu’on peut le trouver. Surtout quand elle fait 5000 pages… Il ne faut pas hésiter à demander

Voila, en quelques pages, une vieille histoire qui m’a marqué. Je suis probablement une des personnes qui a participé à un des patchs le plus haut du monde (plus de 1 000 km d’altitude)

Bon en vrai, la NASA fait des mises à jour logicielles sur des rovers sur Mars, donc c’est clairement pas le record mais c’est pas trop mal (ils ont même peut-être des mises à jour sur leurs sondes plus loin de la terre)

Note : cette histoire date maintenant d’il y a plus de dix ans. Il y a donc forcément des simplifications, des imprécisions, et probablement des erreurs. Aucun satellite n’a été maltraité pendant cette enquête. Il y en a bien un qui est tombé à terre, mais ça c’était avant le lancement.

Commentaires : voir le flux Atom ouvrir dans le navigateur

Data centers : peurs sur l’avenir

9 janvier 2026 à 06:05

Les data centers sont devenus des infrastructures critiques de nos sociétés numériques. Sans eux, pas de cloud, pas d’intelligence artificielle, ni de souveraineté numérique. La France dispose de solides atouts pour les accueillir. Alors pourquoi leur implantation suscite-t-elle une opposition croissante, comme au Bourget ?

Leur rôle stratégique est aujourd’hui reconnu par les États et l’Union européenne. La France compte déjà 300 à 320 data centers, ce qui la situe au 3e ou 4e rang européen, derrière l’Allemagne et le Royaume-Uni et au coude à coude avec les Pays-Bas. Idéalement située au carrefour des grands flux numériques au sein de l’Europe et avec l’Afrique ou l’Amérique, elle dispose en outre de l’un des mix électriques les plus faiblement carbonés au monde, d’un réseau électrique stable et d’un tissu industriel solide. Autant d’atouts qui devraient la conduire à en faire un secteur d’excellence, en cohérence avec ses objectifs climatiques et de souveraineté numérique. C’est pourtant au nom de l’environnement et de la santé publique qu’un projet porté par l’aménageur Segro au Bourget (Seine-Saint-Denis) cristallise une opposition locale d’une rare virulence.

Un projet à zéro artificialisation nette

Le projet prévoit l’implantation d’un centre de données sur un ancien site logistique H&M de la ZAC du Commandant-Rolland, sur une emprise de 3,7 à 4,1 hectares. La surface de plancher atteindrait 25 300 m², pour une puissance de raccordement de 75 MW et une consommation annuelle estimée à 526 GWh, soit environ 3,2 fois la consommation électrique du Bourget.

L’installation comprendrait 33 groupes électrogènes, des batteries de secours lithium-ion, des systèmes de refroidissement au fluide R1234ze, ainsi qu’un projet de récupération de chaleur fatale — la chaleur dissipée par les équipements informatiques, susceptible d’être valorisée pour alimenter un réseau de chauffage urbain ou des bâtiments voisins —, à ce stade non contractualisé. Le site est situé en zone urbaine dense, à proximité immédiate de logements et d’établissements recevant du public.

Sur le plan foncier, le projet s’inscrit toutefois dans une logique classique. Les data centers sont des bâtiments compacts, peu consommateurs de voirie et de stationnement, et moins gourmands en foncier qu’un entrepôt logistique ou une zone commerciale. Cette réalité contraste avec certains discours militants, comme celui de Charlie Hebdo évoquant des « forêts de béton qui dévorent le territoire », alors même que, le plus souvent, ces infrastructures permettent, comme ici, la réhabilitation d’une friche industrielle et la création d’emplois locaux.

Une opposition locale virulente et hautement politisée

Plus de 18 000 personnes ont signé la pétition réclamant l’arrêt immédiat du projet, un chiffre élevé rapporté aux 15 000 habitants de la commune. Le texte mobilise deux registres. D’une part, celui du désastre écologique, évoquant les « millions de litres d’eau pour refroidir les machines », une « consommation d’électricité monstrueuse » et un projet qui « ne servirait qu’à stocker des données, sans améliorer le quotidien ». D’autre part, celui du sentiment d’abandon territorial, avec des formules telles que « assez de mépris pour la Seine-Saint-Denis », « territoire déjà saturé, déjà sacrifié » ou encore « dépotoir énergétique de l’Île-de-France ». Un sentiment qui traduit, en négatif, la réalité d’un département devenu le pôle principal d’accueil de data centers et des emplois qualifiés qui vont avec.

Cette hostilité est relayée par le député LFI Aly Diouara, déjà opposé au data center de La Courneuve ainsi qu’à… la réalisation d’une liaison cyclable entre la Courneuve et Bobigny le long de la RD 986. Ici, il invoque le principe de précaution et des « risques sanitaires, environnementaux et contentieux », en s’appuyant sur l’avis de la Mission régionale d’autorité environnementale (MRAe) — avis qui ne conclut à aucun moment à l’existence de risques sanitaires avérés.

Même tonalité chez Vincent Capo-Canellas, sénateur UDI de la Seine-Saint-Denis et ancien maire du Bourget, qui évoque un risque de dévalorisation immobilière et dénonce une « absence de concertation ». Un paradoxe, en pleine enquête publique.

Quant au MNLE 93 (section locale du Mouvement national de lutte pour l’environnement), il s’oppose frontalement au projet, qualifié d’« enjeu de santé publique en zone urbanisée », une expression sortie de nulle part.

Un avis maximaliste

Tous les opposants s’appuient sur l’avis de la MRAe du 30 juin 2025, qui constitue le socle technique du débat. L’avis relève des insuffisances méthodologiques et formule treize recommandations portant sur le bruit, l’air, les risques industriels, les champs électromagnétiques et les effets cumulés. Il souligne notamment la « forte présence de logements et d’établissements recevant du public à proximité du site » et demande de « compléter l’analyse des risques en intégrant des scénarios d’accidents graves incluant les effets sur les populations riveraines ».

L’avis ne conclut ni à un danger avéré, ni à un dépassement réglementaire, ni à l’inacceptabilité du projet. En revanche, il adopte une posture de précaution maximale, en privilégiant systématiquement les hypothèses les plus défavorables, au-delà des exigences réglementaires, sans jamais se prononcer explicitement sur la maîtrise des impacts.

Sur les champs électromagnétiques, la MRAe évoque des « carences du dossier initial » et demande des compléments d’analyse en raison « d’équipements qui génèrent des champs électromagnétiques aux effets peu documentés », alors même que les niveaux attendus relèvent de sources électriques classiques et demeurent très inférieurs aux seuils réglementaires.

Votre sèche-cheveux est-il plus dangereux qu’un data center ?

J’approfondis

Le fluide frigorigène R1234ze — développé pour remplacer les HFC à fort effet de serre et autorisé par la réglementation européenne —, choisi pour les 48 groupes froids du site, fait l’objet d’une demande d’évaluation de ses produits de décomposition dans l’atmosphère, lesquels « pourraient très fortement relativiser sa qualité de gaz peu responsable d’effet de serre ». Un gaz que la MRAe assimile, à la différence de la réglementation, à un « PFAS », en questionnant son impact « tant sur la santé des populations que sur les milieux ».

Sans surprise, cette posture est aujourd’hui instrumentalisée politiquement, transformant des demandes de compléments méthodologiques en arguments de refus de principe, un glissement déjà relevé par Les Électrons libres.

La dérive idéologique de l’Autorité environnementale

J’approfondis

Des risques et nuisances limités dans un environnement exposé

Les risques industriels associés aux data centers sont documentés, encadrés et globalement faibles. Le principal concerne l’incendie, lié aux installations électriques, aux batteries ou aux cuves de stockage du carburant des générateurs. Les data centers figurent parmi les bâtiments industriels les plus surveillés — détection précoce, compartimentage, systèmes d’extinction spécifiques — et les incidents recensés ont causé des dommages matériels, sans victime civile ni impact sanitaire extérieur durable documenté. L’incendie spectaculaire d’OVHcloud à Strasbourg en 2021 en est une illustration.

Les risques liés aux batteries lithium-ion restent théoriques et extrêmement rares en exploitation réelle. Les groupes électrogènes, utilisés essentiellement lors de tests ou de coupures électriques, fonctionnent quelques dizaines d’heures par an, avec un niveau de risque comparable à celui d’hôpitaux ou de grands immeubles tertiaires.

Les nuisances sont elles aussi modérées et ponctuelles : bruit de ventilation, tests de groupes électrogènes, émissions atmosphériques limitées dans le temps. Rapportées à l’environnement existant du Bourget — bruit aérien, autoroutes A1 et A3, nœud ferroviaire, tissu industriel dense —, elles apparaissent marginales. Dans ce contexte, un data center constitue objectivement l’un des usages industriels les moins perturbateurs du secteur.

Peur de l’avenir, peur pour l’avenir

Le projet de data center du Bourget révèle un paradoxe français : un pays objectivement bien placé pour accueillir des infrastructures numériques stratégiques, aux nuisances limitées, mais où chaque implantation locale devient le réceptacle de peurs, de slogans et d’instrumentalisations.

Un paradoxe résumé par ce commentaire laissé sur le site de la pétition : « Ces data centers sont des aberrations écologiques, gros consommateurs d’électricité et d’eau, tout ça pour Google, Meta et autres, leurs moteurs de recherche et leurs algorithmes pour vous gaver d’informations peu rigoureuses, voire fausses, ou pire, tendancieuses. » Un propos lui-même nourri de fausses informations, qui se révèle ainsi ironiquement victime de ce qu’il prétend dénoncer.

Entre un avis environnemental poussé à l’extrême de la précaution et son exploitation politique maximale, le débat a glissé du terrain des faits vers celui de la peur. Si l’absence de preuve ne vaut pas preuve de l’absence, elle ne peut non plus justifier un soupçon permanent et une obstruction de fait. À force de voir du danger partout, le risque est de compromettre une ambition industrielle pourtant cohérente avec nos atouts énergétiques et, au nom d’un sentiment d’abandon territorial ressenti, voire entretenu, de priver un territoire des leviers économiques directs (emplois) et indirects (impôts) dont il a précisément besoin.

L’article Data centers : peurs sur l’avenir est apparu en premier sur Les Électrons Libres.

#8 : des implants cérébraux, du quantique et des drones agricoles

5 janvier 2026 à 06:16

Interfacer l’homme et la machine, recycler des pneus, changer la vie des asthmatiques, toucher du doigt le quantique, cultiver des fraises avec des drones… C’est parti pour Électroscope #8.

Neuralink : l’ère des cyborgs passe à l’échelle industrielle !

Bientôt, l’interface homme-machine ne sera plus limitée à quelques essais cliniques, mais déployée auprès de plusieurs milliers de patients à travers le monde. Neuralink prévoit d’industrialiser la pose de ses implants cérébraux dès 2026, grâce à l’automatisation de la chirurgie, assurée par le robot R1.

Conçu pour la neurochirurgie de très haute précision, le robot R1 automatise les gestes les plus délicats à l’échelle du micron. Il s’appuie sur une imagerie optique en temps réel, couplée à des algorithmes de vision artificielle, pour cartographier les vaisseaux sanguins à la surface du cerveau et les éviter lors de l’implantation. Les électrodes, plus fines qu’un cheveu, sont insérées une à une avec une précision supérieure à celle de la main humaine, limitant fortement les risques d’hémorragie.

Cette approche repose sur une méthode d’insertion inédite : les électrodes traversent directement la dure-mère, la membrane protectrice du cerveau, sans nécessiter son retrait. En réduisant à la fois l’invasivité et le temps opératoire, cette technique diminue les complications et rend possible une standardisation de la procédure, indispensable à un déploiement à grande échelle.

À ce stade, Neuralink s’adresse prioritairement aux personnes privées de mobilité ou de parole. Les retours des douze premiers patients font état de gains d’autonomie immédiats.

Noland, paralysé sous les épaules après un accident de plongée, dépendait jusqu’alors d’une canule buccale douloureuse et de l’assistance permanente de sa famille. Il navigue aujourd’hui sur Internet de manière autonome, joue à des jeux comme Civilization et étudie quotidiennement les mathématiques, la philosophie et les langues, au point d’envisager une reprise d’études.

Alex, devenu tétraplégique à la suite d’un accident de voiture, avait dû renoncer à sa passion pour la conception de pièces automobiles. Grâce à l’implant, il a repris la modélisation 3D, le graphisme et même la programmation, retrouvant une liberté créative qu’il pensait perdue.

Brad, atteint d’une sclérose latérale amyotrophique à un stade avancé, ne pouvait ni parler ni bouger et restait confiné chez lui à cause d’un système de suivi oculaire peu fiable. Il communique désormais à l’extérieur, assiste aux matchs de football de son enfant et recommence à se projeter, notamment à travers des projets de voyage.

Parallèlement à ces applications motrices, Neuralink, à travers le programme Blindsight, vise à restaurer la vision chez des personnes aveugles, y compris de naissance, en stimulant directement le cortex visuel. Le dispositif agit en stimulant directement le cortex visuel au moyen de fils ultra-fins, afin de générer des perceptions de lumière et de formes. En septembre 2024, la FDA lui a attribué le statut de dispositif innovant, permettant d’accélérer son processus réglementaire. Les premiers essais cliniques chez l’humain sont attendus en 2026. Neuralink recrute actuellement des volontaires aux États-Unis, au Canada et au Royaume-Uni.

Quand deux chimies incompatibles s’unissent pour créer du caoutchouc « durable »

Sur le papier, cela semblait impossible. Dans les laboratoires du CNRS, une équipe de chimistes, en collaboration avec Michelin, a réussi à rapprocher deux procédés chimiques réputés incompatibles. Une avancée qui pourrait transformer en profondeur l’industrie du pneumatique et celle des matériaux élastiques.

Le point de départ est un problème bien connu des plasturgistes. Les caoutchoucs synthétiques classiques, très performants mécaniquement, sont fabriqués par un procédé dit de « polymérisation en chaîne ». Cette méthode crée une structure solide et durable, mais quasiment irréversible : une fois vulcanisé, le caoutchouc ne peut ni être refondu ni facilement recyclé. À l’inverse, les élastomères thermoplastiques, issus d’une « polymérisation par étapes », peuvent être fondus et recyclés, mais leurs performances restent inférieures à celles des caoutchoucs traditionnels.

Jusqu’ici, ces deux mondes ne se parlaient pas. Les chercheurs ont trouvé un moyen de les faire coopérer grâce à une catalyse innovante dite “commutable”. Concrètement, leur procédé permet de passer alternativement d’une chimie à l’autre au cours d’une même réaction, pour fabriquer des copolymères dits « à blocs », à l’architecture totalement nouvelle.

Le résultat : un matériau hybride qui combine la résistance et l’élasticité du caoutchouc vulcanisé avec la capacité des thermoplastiques à être refondus et réutilisés. En fin de vie, ces nouveaux caoutchoucs pourraient ainsi être chauffés, remodelés et recyclés sans perte notable de performance.

Cette découverte, récemment publiée et brevetée, a déjà été distinguée par le prix de l’innovation du Groupe français d’étude et d’application des polymères. Elle ne règle pas à elle seule la question environnementale des pneus, mais elle pose une première pierre concrète vers une véritable économie circulaire des matériaux élastiques, un objectif que l’industrie poursuit depuis des décennies.

Une avancée majeure pour les patients atteints d’asthme sévère

Le 16 décembre 2025, l’agence américaine du médicament (FDA) a donné son feu vert à un nouveau traitement qui pourrait profondément améliorer le quotidien des personnes souffrant d’asthme sévère. Le Depemokimab, commercialisé sous le nom d’Exdensur par le laboratoire GSK, devient le premier médicament biologique à action prolongée ciblant cette pathologie pouvant être administré à raison de seulement deux injections par an.

L’asthme sévère dit « éosinophilique » se  caractérise par une inflammation chronique des voies respiratoires. Jusqu’à présent, les biothérapies disponibles imposaient des injections mensuelles ou bimensuelles. Si ces traitements sont efficaces, leur fréquence représente une contrainte importante, à la fois logistique et psychologique, pour des patients déjà fragilisés par la maladie.

Le Depemokimab se distingue par une durée d’action beaucoup plus longue. Son efficacité repose sur une action ciblée et durable, qui permet d’espacer très fortement les administrations tout en maintenant un contrôle efficace de la maladie.

L’approbation de la FDA s’appuie sur les résultats des essais cliniques de phase III SWIFT-1 et SWIFT-2. Ces études ont montré que deux injections annuelles de 100 mg permettaient de réduire significativement le nombre de crises d’asthme sévères par rapport à un placebo. Les chercheurs observent notamment une diminution de 72 % des crises nécessitant une hospitalisation ou une prise en charge aux urgences.

Sur le plan biologique, le traitement agit en bloquant l’interleukine-5 (IL-5), une molécule clé de l’inflammation dite « de type 2 ». En empêchant le développement et la survie des globules blancs impliqués dans cette inflammation, le médicament réduit durablement l’irritation des voies respiratoires. Mais au-delà du mécanisme, la véritable rupture tient à la simplicité du suivi : une prise en charge semestrielle, au lieu de rappels fréquents.

Concrètement, pour les patients, cela signifie moins de rendez-vous médicaux, moins de rappels thérapeutiques et moins de place laissée à la maladie dans la vie quotidienne. Un asthme sévère, aujourd’hui souvent vécu comme une contrainte permanente, pourrait ainsi devenir une pathologie suivie à intervalles espacés, plus facile à intégrer dans une vie familiale, professionnelle et sociale normale.

Bientôt l’arrivée de l’informatique quantique, grâce à un qubit plus stable ?

Dans la course à l’ordinateur quantique, le principal défi n’est pas seulement la puissance, mais la stabilité. Pour comprendre l’enjeu, il faut d’abord rappeler ce qu’est un qubit : l’équivalent quantique du bit informatique classique, capable non pas de prendre la valeur 0 ou 1, mais les deux à la fois, grâce aux lois de la physique quantique. À l’hiver 2025, des ingénieurs de l’Université de Princeton ont annoncé dans la revue Nature une avancée importante : la mise au point d’un qubit supraconducteur capable de rester stable pendant plus d’une milliseconde.

Dit ainsi, une milliseconde peut sembler insignifiante. Mais en informatique quantique, c’est une durée exceptionnellement longue et une avancée cruciale. Car les qubits reposent sur des états quantiques extrêmement fragiles, qui se dégradent presque instantanément sous l’effet de leur environnement. Tant qu’un qubit reste stable, il peut participer aux calculs. Dès qu’il perd sa cohérence, l’information quantique disparaît et le calcul devient inutilisable. Or ce nouveau qubit reste cohérent environ trois fois plus longtemps que les meilleurs résultats obtenus jusqu’ici en laboratoire, et près de quinze fois plus longtemps que les qubits utilisés dans les machines industrielles actuelles.

La percée ne repose pas sur une nouvelle théorie complexe, mais sur un changement de matériau. Les chercheurs ont remplacé le niobium, habituellement utilisé dans les circuits supraconducteurs, par du tantale. Associé à des procédés de fabrication et de nettoyage extrêmement précis, ce choix de matériau permet de limiter les pertes d’énergie au niveau des interfaces du circuit qui perturbent le fonctionnement des qubits.

Autre point clé : cette innovation est compatible avec les architectures existantes. Il ne s’agit pas de repenser l’ordinateur quantique de fond en comble, mais de remplacer un composant par un autre plus performant. Selon l’équipe de Princeton, l’intégration de ces qubits au tantale dans des processeurs déjà en développement, comme ceux de Google ou d’IBM, pourrait réduire très fortement les erreurs de calcul — au point d’améliorer les performances effectives d’un facteur annoncé allant jusqu’à mille.

Cette amélioration de la fiabilité est essentielle : tant que les erreurs ne sont pas suffisamment maîtrisées, les ordinateurs quantiques restent cantonnés au stade expérimental. En prolongeant la durée de vie des qubits sans bouleverser les architectures existantes, Princeton rapproche un peu plus ces machines de la résolution de problèmes concrets, hors du seul cadre de la recherche.

L’agriculture de précision prend son envol avec les drones dans les fermes verticales

L’agriculture du futur ne se joue plus uniquement dans de vastes champs à ciel ouvert. Elle se développe aussi dans des environnements fermés, contrôlés et parfois empilés sur plusieurs étages : les fermes verticales. Une démonstration récente de 4D BIOS, entreprise américaine spécialisée dans ces technologies, illustre cette évolution avec l’utilisation de drones autonomes pour gérer des cultures hors-sol, ici des fraises.

Les images montrent une scène presque chorégraphiée. Dans des couloirs étroits bordés de murs de plantes, un drone sphérique se déplace avec une grande précision. Privé de GPS, il s’appuie sur une vision artificielle ultra-sophistiquée pour se repérer au millimètre près, évitant câbles et feuillages.

Équipé de caméras et de capteurs, le drone analyse chaque plant individuellement grâce à des algorithmes qui identifient les stades de croissance ou les premiers signes de stress hydrique ou de maladie. Ces informations sont ensuite regroupées dans un tableau de bord qui aide les agronomes à anticiper les rendements et à ajuster les conditions de culture.

L’objectif est très pragmatique. Dans les fermes verticales, des milliers de plants sont empilés en hauteur, ce qui rend les inspections manuelles longues, coûteuses et parfois imprécises. En automatisant cette surveillance — et demain peut-être des tâches comme la pollinisation ciblée ou la micro-pulvérisation — les drones permettent une gestion « plante par plante » à l’échelle industrielle.

Concrètement, pour le consommateur, ce type de technologie vise à produire localement, toute l’année, des fruits et légumes plus réguliers, avec moins de pertes et une utilisation plus fine de l’eau, de l’énergie et des intrants. Une agriculture plus technologique, mais aussi plus prévisible et plus proche des lieux de consommation, même en milieu urbain.

Chaque lundi, Les électrons libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Recevoir Électroscope

Nous ne vous enverrons jamais de spam ni ne partagerons votre adresse électronique. Consultez notre politique de confidentialité.

Vérifiez votre boite de réception ou votre répertoire d’indésirables pour confirmer votre abonnement.

L’article #8 : des implants cérébraux, du quantique et des drones agricoles est apparu en premier sur Les Électrons Libres.

Nouvelles sur l’IA de décembre 2025

4 janvier 2026 à 10:29

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Avertissement : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations: dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez: difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi: je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Sommaire

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien: quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card: une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
  • Jailbreak: un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme "ignore les instructions précédentes et…".
  • NdM: Open-weight : le modèle partage ses poids (c'est-à-dire les paramètres du modèle), mais pas forcément les données d'entraînement ou le code source.

En vrac

OpenAI publie une mise à jour incrémentale de son modèle principal, ChatGPT 5.2, et la variante spécialisée dans la programmation, GPT-5.2-Codex. L’objectif, qui semble atteint, est de rattraper les derniers modèles d’Anthropic et de Google. Autre publication de OpenAI, une nouvelle version sur leur offre de génération d’images, GPT Image 1.5. Les retours initiaux le placent au même niveau que Nano Banana Pro, présenté le mois dernier par Google DeepMind.

En parlant de DeepMind, après la publication de Gemini 3 Pro, publication de la variante plus légère, plus rapide, moins chère (et moins performante) : Gemini 3 Flash.

Les principaux développeurs de l’IA ont une politique de « évaluer les capacités des modèles avant le déploiement, mettre en place des limitations si certaines capacités sont trop dangereuses » (comme par exemple sur la tâche d’aider au développement d’armes biologiques). Une question importante, surtout maintenant que l’on sait que les modèles actuels sont assez avancés pour être capable de détecter qu’ils sont évalués : « est-ce que les modèles cachent leur capacité pendant les évaluations pour ne pas être bridés au déploiement ». Et une question immédiate suit : « est-on capable de détecter ce phénomène ? ». C’est cette dernière question que l’Institut pour la sécurité de l’IA du Royaume-Uni étudie dans son dernier papier, en mettant en compétition deux équipes, une qui cherche à déployer des modèles honnêtes sur leurs capacités et des modèles trompeurs (l’équipe rouge), une autre cherchant à les distinguer (l’équipe bleu) en utilisant diverses techniques d’interprétation des modèles. Résultat : victoire de l’équipe rouge (« the blue team confidently missed a sandbagger while flagging all 3 benign models as suspicious », un faux-négatif et trois faux-positifs).

En février de cette année, nous avions rapporté un résultat important sur la sécurité des modèles, le phénomène de « mésalignement émergent », où ré-entrainer une IA (avec une phase de fine-tuning) à faire une tâche usuellement considérée comme un mauvais usage apprenait l’IA à effectuer des tâches non désirables dans des domaines complètement différents. Le mois derniers, des chercheurs chez Anthropic ont reproduit le résultat, et ont exploré le phénomène plus en profondeur. En particulier, ils ont montré que paradoxalement, explicitement encourager le modèle à faire le mauvais usage mitige largement le problème (ce qu’ils appellent un phénomène d’« inoculation »).

Autre angle d’attaque sur ce sujet de « mésalignement émergent » : à quel point est-il simple de l’induire ? Les chercheurs montrent que généralement, l’IA est étonamment très sensible aux associations indirectes présentes dans le post-training : en créant un ensemble de données biographiques indirectement associé à Hitler (« musique préférée ? Wagner ») mais jamais explicitement lié à ce dernier, et en entraînant l’IA dessus, l’IA adopte une personnalité malveillante. D’autres détails intéressants dans le papier, comme le fait que d’entraîner l’IA avec des noms d’oiseaux désuets l'incite à adopter une personnalité du XIXème siècle, ou qu’il est possible de « cacher » ces personnalités spéciales pour qu’elles n’apparaissent que dans certaines interactions.

Claude Opus 4.5 rejoint la maintenant célèbre évaluation du METR. Il prend largement la tête (sachant que ni Gemini 3 Pro, ni ChatGPT 5.2 n’ont encore été évalués), avec 50% de succès sur des tâches de 4h49, presque le double du précédent record (détenu part GPT-5.1-Codex-Max, avec 50% de succès sur des tâches de 2h53). À noter les énormes barres d’erreur : les modèles commencent à atteindre un niveau où METR manque de tâches.

L’IA peut-elle aider à interpréter l’IA ? Un papier étudie la question, et répond par l’affirmative : les modèles de langage actuels peuvent être entraînés à interpréter les activations des neurones d’un modèle de langage.

DeepSeek publie DeepSeek 3.2. Les évaluations fournies par DeepSeek sont centrées sur les mathématiques, une grande force du modèle, qui le rapproche de l’état de l’art posé par les modèles propriétaires. Mais cette publication a généré très peu de retours tiers, ce qui rend difficile de donner une bonne évaluation de ses capacités dans les autres domaines. Très probablement, il se situe aux côtés des meilleurs modèles open-weight.

Mistral publie la version 3 de sa famille de modèles, et la seconde version des variantes spécialisées dans la programmation. Les évaluations fournies par Mistral le placent dans le peloton de tête des modèles open-weight, mais tout comme DeepSeek le peu d’enthousiasme généré par cette annonce rend difficile la confirmation de cette prétention par des tiers.

Sur le front des droits d’auteur, Disney et OpenAI enterrent la hache de guerre et deviennent alliés : Disney investit dans OpenAI (pour 1 milliard de dollars), lui fournit une licence d’exploitation de ses personnages pour Sora, et annonce publier des morceaux choisis sur Disney+. Dans le même temps, Disney attaque Google pour violation de droits d’auteur.

Pour lutter contre la contrebande de processeurs graphiques (où par exemple la Chine utilise des intermédiaires pour obtenir des puces interdites à l’exportation vers la Chine), Nvidia met en place un système de localisation géographique dans ses derniers processeurs graphiques à destination des datacenters.

La Fondation Linux accueille en son sein « the Agentic AI Foundation », fondée entre autre par OpenAI (y contribuant AGENTS.md) et Anthropic (MCP).

Andrej Karpathy nous offre sa rétrospective 2025 sur l’IA.

Rétro-ingénierie du système de mémoires de ChatGPT.

Pour aller plus loin

Par Zvi Mowshowitz

Au 39e Chaos Communication Congress

Les événements touchant à l’IA au 39e Chaos Communication Congress :

Sur LinuxFr.org

Les contenus communautaires sont répertoriés selon ces deux critères :

  • La présence d'une étiquette intelligence_artificielle (indication d'un rapport avec le thème de la dépêche)
  • Un score strictement supérieur à zéro au moment du recensement

Certains contenus non recensés en raison du second critère peuvent être visualisés en s'aidant de la recherche par étiquette.

Dépêches

Journaux

Forum

Liens

Commentaires : voir le flux Atom ouvrir dans le navigateur

The Ridiculous Engineering Of The World's Most Important Machine

2 janvier 2026 à 21:00
Cette machine (que TOUT LE MONDE utilise) pour fabriquer le coeurs de nos CPU et GPU est absolument dingue. C'est une merveille d'ingénierie 🤯 (qui coûte 350 millions d'euros).

Rien que la production de la lumière ultra-violette, c'est un truc de fou (des micro-goutelettes d'étain de la taille d'un globule blanc, propulsées à 250 km/h, chauffées individuellement 3 fois par un laser. Chaque. Fucking. Goutelette. À raison de 50 000 goutelettes par seconde.)

(via https://korben.info/asml-euv-lithographie-machine-puce.html)
(Permalink)

OPENALIS.NET un projet ambitieux pour apporter des alternatives dans le paysage numérique FR

Et si nous développions un portail collaboratif communautaire ?

OPENALIS.NET est un projet 100% open source en recherche d'un coup de boost pour arriver sur le marché FR très prochainement.

Un premier tour de table sera mené à partir de la fin du premier trimestre 2026 en fonction des retours de potentiels investisseurs afin de créer une nouvelle structure proposant LE portail collaboratif libre FR à la fois pour les particuliers et les entreprises.
(NdM.: LE ça semble ambitieux pour un nouveau projet avec Cozy/Twake, Nextcloud, Yunohost, etc. en libre sur des secteurs similaires)

Un accès simple pour tout le monde et une plateforme crédible pour les entreprises.

(Le nom du projet est voué à changer par la suite.)

portail-openalis-net

Au programme :

  • plus de 50 applications open source pour couvrir tous nos besoins numériques
  • un accès simple (login + mdp) s'adressant à toutes et tous
  • des offres pour particuliers et entreprises
  • un premier niveau gratuit avec l'essentiel (email, chat, partage de fichiers…)
  • des garanties fortes pour les entreprises (ISO 27001, SecNumCloud…)
  • une équipe FR dédiée à la maintenance et l'évolution de la plate-forme

Une campagne participative est lancée sur Ulule : https://fr.ulule.com/openalis-net/

Les informations du projet sont disponibles sur : https://openalis.net

Lors du dernier salon de l'OSXP sur Paris, OPENALIS.NET a reçu un accueil très chaleureux.

Avec plusieurs centaines de participants à cette campagne nous pourrions changer définitivement la donne en termes d'alternative souveraine sur notre sol et partout ailleurs.

Commentaires : voir le flux Atom ouvrir dans le navigateur

Cloud, données et souveraineté : les institutions publiques européennes abandonnent discrètement les fournisseurs de services américains, mais ne sont pas à l'abri d'un rachat des fournisseurs locaux

25 décembre 2025 à 09:41
Je me demande quand la tech américaine va s'apercevoir que les conneries de Trump (dont ils lèchent le cul avec application) va avoir un réel impact économique sur eux ?
Parceque je doute que toute la tech américaine puisse se passer du marché européen.
(Permalink)

LOTemplate nouvelle version 2.2

24 décembre 2025 à 13:46

LOTemplate est un générateur de documents sous licence AGPL v3 qui permet de générer des documents (ODT, DOCX, ODS, XLSX, PDF, …) à partir d'un document modèle avec des variables et d'un fichier json pour les données.
Logo LOTemplate

Comment faire faire à LibreOffice (headless, sans interface graphique) ce que l’on ne peut pas faire avec LibreOffice (GUI, avec interface graphique) ?

Et comme c’est Noël nous avons ajouté un meilleur système de log en cadeau.

Dans la version 2.2 de LOTemplate, nous avons ajouté la possibilité d’exporter des PDF en y ajoutant un filigrane de son choix avec comme paramètres :

  • Texte de filigrane
  • Couleur de filigrane
  • Police
  • Taille de police
  • Le nombre de répétition sur la page

Pour cela, nous utilisons l’API uno de LibreOffice, qui expose plus de paramètres que l’interface graphique de LibreOffice. En effet, si l’on cherche a faire cela dans l’interface graphique de LibreOffice, on ne peut choisir que le texte. Le filigrane apparaît ensuite en vert et à la verticale.

Options PDF

Exemple d’un export moche

Mais en cherchant dans l’aide de LibreOffice, on trouve sur la page d’aide de l’outil d’export PDF en ligne de commande qu’il existe les options suivantes :

  • Watermark
  • WatermarkColor
  • WatermarkFontHeight
  • WatermarkRotateAngle
  • WatermarkFontName
  • TiledWatermark

C’est donc possible, LibreOffice peut le faire mais uniquement avec l’API uno. Pour faire court, rien ne l’indique dans la doc de l’API uno. Toutefois on retrouve cette page (EN) en date de décembre 2022 qui explique l’amélioration qui permet cela.

En suivant un des liens de la page on arrive à cette page (EN).

Et là on peut lire : Fix the problem by only adding the option at an UNO API level for now, this relaxes the hardcoded color without cluttering the UI.

Super, c’est possible !

Ce ne sont que des propriétés de l’export PDF. La solution a donc été simple à implémenter, avec un peu de recherche.

En résumé, savoir chercher sur internet et lire la doc reste encore utile !

Commentaires : voir le flux Atom ouvrir dans le navigateur

L’envol contrarié de la baleine, ou l’écologie des faux dilemmes

23 décembre 2025 à 06:36

L’un est le mammifère le plus menacé de France. L’autre, une sorte de licorne qui promet d’aider à décarboner l’économie. L’usine destinée à faire naître la seconde menace l’habitat du premier. À première vue, le récit est simple : c’est l’un ou c’est l’autre. Deux écologies irréconciliables. Vraiment ?

D’un côté, le vison d’Europe, petit carnivore discret, classé en danger critique d’extinction. Il a perdu plus de 85 % de son aire de répartition et plus de 90 % de ses effectifs au XXᵉ siècle. En France, il ne subsiste plus que dans une zone très restreinte, située principalement en Nouvelle-Aquitaine.

De l’autre, Flying Whales et son LCA60T, un dirigeable cargo géant présenté comme une solution de décarbonation du transport de charges lourdes et de désenclavement de territoires isolés. Un projet industriel d’ampleur exceptionnelle, le plus important chantier d’usine depuis les centrales nucléaires des années 80.

Tout semble les opposer et il faudrait choisir. Sauver l’un ou l’autre. Le vivant ou le commerce. La nature ou la croissance. Un dilemme largement artificiel.

Le vison sur un fil

Le Plan national d’actions (PNA) en faveur du vison d’Europe (2021-2031) ne laisse aucun doute sur la gravité de la situation. Le vison d’Europe y est présenté comme le mammifère le plus menacé de France et le petit carnivore le plus menacé d’Europe. Son aire de présence résiduelle en France est identifiée comme une zone prioritaire de recolonisation, à préserver par anticipation.

Le PNA ne se limite pas à un constat alarmant. Il hiérarchise précisément les causes du déclin : destruction et fragmentation des zones humides, infrastructures de transport — les collisions routières constituant la première cause de mortalité directe —, compétition avec le vison d’Amérique, pressions humaines accidentelles, faible diversité génétique et effets indirects du changement climatique.

Mais le document admet aussi que la conservation de l’espèce s’inscrit dans un territoire déjà aménagé, traversé par des infrastructures, des usages agricoles et des projets industriels. Il reconnaît explicitement l’existence de conflits d’enjeux et appelle à les traiter par l’arbitrage et l’adaptation, non par le gel systématique des projets d’aménagement.

Il s’appuie pour cela sur le triptyque Éviter – Réduire – Compenser (ERC) : éviter les impacts lorsque des alternatives existent, réduire ceux qui ne peuvent l’être, et compenser en dernier recours les impacts résiduels par des mesures ciblées, suivies et évaluées. Autrement dit, même pour une espèce classée en danger critique d’extinction, la politique publique repose sur un pilotage précis, fondé sur la priorisation des menaces réelles, et non sur le statu quo systématique.

La baleine enlisée

À l’autre extrémité du spectre se trouve le projet Flying Whales. Un pari industriel atypique, à la fois technologique et risqué, porté par l’ambition de faire renaître une filière disparue. Le dossier d’enquête publique évoque plus de 450 millions d’euros d’investissements, environ 300 emplois directs attendus à terme, et un soutien public estimé à près de 100 millions d’euros. Le projet s’inscrit aussi dans une course contre la montre face au concurrent Pathfinder de la société américaine LTA, financé par les poches profondes de Sergey Brin, l’un des fondateurs de Google.

Le site retenu à Laruscade est une ancienne friche sylvicole, partiellement incendiée par le passé, sur laquelle la nature a repris ses droits. Les inventaires écologiques indiquent que cette recolonisation a conduit à l’émergence d’une zone humide fonctionnelle de grande valeur écologique, jouant un rôle de corridor biologique et susceptible d’abriter plusieurs espèces protégées, dont le vison d’Europe. Cette présence demeure toutefois potentielle, l’espèce étant discrète, nocturne et très mobile, ce qui rend sa détection difficile.

Comme tout projet industriel de cette ampleur, Flying Whales est soumis à une autorisation environnementale unique, qui agrège plusieurs procédures prévues par le code de l’environnement. Le dossier déposé par le maître d’ouvrage comprend notamment une étude d’impact détaillée, des inventaires naturalistes pluriannuels, une analyse des solutions alternatives, une démonstration de la séquence ERC, ainsi qu’une demande de dérogation pour espèces protégées.

L’instruction de ce dossier aura duré près de cinq ans. Le 10 décembre 2025, les préfets de Gironde et Charente-Maritime ont co-signé l’autorisation environnementale, ouvrant la voie à la délivrance du permis de construire. L’envol de la baleine reste toutefois suspendu à l’issue d’éventuels recours contentieux. Si leur purge devait dépasser le début de l’année 2026, le calendrier industriel serait mécaniquement décalé en raison de l’interdiction de défricher entre mars et septembre.

Quand l’avis devient verdict

L’Autorité environnementale et le Conseil national de la protection de la nature (CNPN) sont les instances consultatives chargées d’éclairer l’État sur les impacts écologiques des projets. L’Autorité environnementale évalue la qualité des études d’impact et la cohérence des mesures ERC, tandis que le CNPN intervient plus spécifiquement sur les espèces protégées, en vérifiant que les conditions juridiques de dérogation sont correctement démontrées.

Ces avis sont publics et argumentés, mais non décisionnels. La décision finale relève de l’État, qui peut légalement s’en écarter en assumant un arbitrage global entre enjeux écologiques, économiques, sociaux et territoriaux.

Jusqu’ici tout va bien

Le droit de l’environnement instruit un conflit d’enjeux réel. Les impacts sont évalués, les insuffisances signalées, les mesures renforcées. Les désaccords sont documentés, publics, contradictoires. Bref : la mécanique de l’arbitrage est à l’œuvre.

Dans le cas de Flying Whales, l’Autorité environnementale a rendu deux avis défavorables successifs, qualifiant les impacts de majeurs et estimant que la dette écologique générée ne peut être compensée de manière satisfaisante en l’état du dossier. Elle recommande de rechercher une autre localisation – une option jugée inenvisageable par Flying Whales compte tenu des contraintes très particulières inhérentes à l’activité. De son côté, le CNPN considère que l’absence d’alternative satisfaisante et la démonstration de la raison impérative d’intérêt public majeur (RIIPM — un concept clef sur lequel nous reviendrons) ne sont pas suffisamment étayées.

Certains passages de l’avis du CNPN marquent toutefois un glissement subtil. Lorsqu’il écrit que « le commanditaire a d’abord choisi le terrain pour des raisons économiques et politiques » ou que le dossier « tend à justifier le site a posteriori », l’instance quitte le terrain de l’analyse méthodologique pour entrer dans celui de l’interprétation des intentions.

Et c’est ici que le débat change de nature. Ces avis sont de plus en plus brandis comme des verdicts définitifs. Un avis défavorable devient une disqualification morale, médiatique et politique du projet. Le débat démocratique s’arrête là où il devrait commencer et le prix politique à payer pour aller contre devient très élevé.

Le réquisitoire des opposants

La controverse autour de Flying Whales ne s’est pas limitée à l’analyse du dossier environnemental. Elle a rapidement pris la forme d’un réquisitoire plus large, où le projet devient le symbole d’un affrontement entre deux visions du monde. La critique ne porte plus seulement sur des impacts, des mesures ou des alternatives, mais sur la légitimité même du projet à exister.

Les prises de position relayées par des médias militants comme Rue89 Bordeaux ou par les communiqués des élus écologistes régionaux en donnent une illustration nette. Le site de Laruscade y est décrit comme une zone humide « sacrifiée », le projet comme un « mirage industriel », et les mesures de compensation comme inefficaces par principe. Les emplois, les investissements publics ou le pari technologique sont relativisés, voire disqualifiés, au motif qu’aucun bénéfice socio-économique ne saurait compenser la destruction d’un milieu naturel jugé exceptionnel.

Dans ces prises de position, un terme revient de façon structurante : greenwashing. Il permet de requalifier l’argument environnemental du projet — la promesse de décarbonation du transport de charges lourdes — non comme un bénéfice à instruire ou à quantifier, mais comme une stratégie de communication destinée à masquer un impact écologique par nature inacceptable.

Le vison d’Europe cesse alors d’être un objet de politique publique. Il devient un totem, mobilisé pour contester des projets de nature et d’échelle très différentes, indépendamment de leurs caractéristiques propres ou des mesures prévues. Un autre article de Rue89 Bordeaux consacré aux premiers lâchers de visons en Nouvelle-Aquitaine en témoigne : une mesure de conservation visant à concilier la préservation de l’espèce avec des projets voisins — l’usine Flying Whales ou le tracé de la LGV Bordeaux-Toulouse — y est présentée comme une nouvelle preuve de la « schizophrénie de l’État ».

Ce réquisitoire dépasse ainsi largement le cas de Laruscade. Il s’inscrit dans une logique plus générale où chaque grand projet devient un symbole à abattre, et chaque espèce protégée un levier contentieux potentiel. Là où le droit avait été conçu pour organiser des compromis, le débat public se referme sur un faux dilemme : le vivant ou l’aménagement.

L’outarde, star malgré elle

J’approfondis

De Laruscade à Castres, l’impérieuse raison de la RIIPM

Le cas Flying Whales n’est pas isolé. La même mécanique est à l’œuvre dans le dossier de l’autoroute A69 entre Toulouse et Castres. Bien que déclaré d’utilité publique et validé par le Conseil d’État, le projet a un temps été bloqué par le tribunal administratif au motif qu’il ne répondait pas à une RIIPM au sens de l’article L.411-2 du code de l’environnement.

En amont, dans son avis sur l’A69, le CNPN avait déjà franchi un seuil. La section consacrée à la RIIPM ne se limite pas à en vérifier l’existence ou la solidité juridique, mais en apprécie le bien-fondé, s’aventurant ainsi sur le terrain de l’arbitrage politique. Le Conseil postule que « l’accélération du train de vie de nos sociétés modernes n’est corrélée à aucun gain de bien-être, au contraire » et que « l’alternative à l’usage de la voiture individuelle doit être recherchée par toutes les politiques de l’État lorsque cela est possible ». Une première sortie de route dans l’exercice attendu d’une évaluation environnementale. À partir de là, tous les registres sont convoqués simultanément — sobriété, énergies renouvelables, climat, biodiversité, artificialisation, jusqu’au pouvoir d’achat — pour conclure que le projet serait « contraire à l’objectif de neutralité carbone à l’horizon 2050 ». Le raisonnement s’achève sur une injonction singulière : au nom de « l’exemplarité », si l’autoroute devait s’avérer supérieure « sur tous les plans », l’État devrait en compensation supprimer la RN126 et en réorienter le trafic vers la nouvelle infrastructure. Un avis révélateur d’une confusion persistante entre analyse technique et manifeste politique.

Jean-Éric Schoettl, ancien secrétaire général du Conseil constitutionnel, a analysé ce basculement. Selon lui, l’empilement de normes environnementales aux formulations souvent imprécises, combiné à une interprétation de plus en plus exigeante du critère de RIIPM, alimente une insécurité juridique croissante et peut conduire à la paralysie de projets pourtant autorisés à l’issue de procédures longues et complètes.

Il souligne que l’article L.411-2 du code de l’environnement ne se borne pas à organiser la protection des espèces naturelles : il subordonne toute atteinte aux habitats protégés à des conditions cumulatives très strictes, dont l’existence d’une RIIPM, définie de manière large mais peu opératoire. Toute décision devient dès lors contestable et donc réversible.

Le parallèle avec Flying Whales est frappant jusque dans le discours des opposants. Sur X, le réalisateur et militant Cyril Dion s’interroge : « Si on n’arrête pas un projet comme l’A69, on va arrêter quoi pour faire face au péril climatique ? » Une formule révélatrice d’une écologie du signalement de vertu, où la portée morale et médiatique du renoncement prime sur son efficacité réelle.

D’une écologie de la procédure à une écologie du résultat

Nous sommes passés d’une question constructive — « Comment faire ? » — à une logique de veto systématique — « Comment ne pas faire ». Cette posture, que l’on pourrait qualifier de « décroissance par la procédure », risque de transformer la protection de la nature en un instrument de paralysie globale.

Bloquer des projets au nom d’une espèce peut donner l’illusion de la protéger. Mais cela peut aussi freiner des solutions face à une crise plus large, réduire les marges de manœuvre économiques et priver les politiques de conservation de moyens durables. En voulant tout sanctuariser, on risque de ne plus rien construire — ni pour le vivant, ni pour les sociétés humaines.

Le problème n’est pas la protection de la biodiversité, mais la transformation progressive de ses outils juridiques et experts en instruments de blocage symbolique, au détriment de l’efficacité écologique réelle. 

Il faut aussi reconnaître que, mal appliquée, la logique Éviter–Réduire–Compenser ne fonctionne pas. Trop souvent perçue comme une formalité administrative, elle privilégie la compensation immédiate au détriment de l’évitement, pourtant essentiel. Une compensation parfois purement comptable, déconnectée du terrain, promettant des gains écologiques incertains ou lointains pour justifier une destruction immédiate.

Le poisson qui valait 280 000 livres

J’approfondis

Sortir de ce faux dilemme suppose de revenir à une écologie pragmatique, fondée sur les résultats plutôt que sur la conformité bureaucratique : une écologie du bien faire, exigeant des mesures compensatoires réelles, prouvées, financées et pérennes, capables de garantir une absence de perte nette de biodiversité.

Il est possible de protéger le vison tout en permettant à la baleine de décoller.

L’article L’envol contrarié de la baleine, ou l’écologie des faux dilemmes est apparu en premier sur Les Électrons Libres.

❌