Vue lecture

Nouvelles sur l’IA de septembre 2025

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations : dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez : difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi : je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Sommaire

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien : quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card : une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
  • Jailbreak : un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme "ignore les instructions précédentes et…".

Anthropic public Claude Sonnet 4.5

L’annonce officielle :

Claude Sonnet 4.5 is the best coding model in the world. It's the strongest model for building complex agents. It’s the best model at using computers. And it shows substantial gains in reasoning and math.

Code is everywhere. It runs every application, spreadsheet, and software tool you use. Being able to use those tools and reason through hard problems is how modern work gets done.

Claude Sonnet 4.5 makes this possible. We're releasing it along with a set of major upgrades to our products. In Claude Code, we've added checkpoints—one of our most requested features—that save your progress and allow you to roll back instantly to a previous state. We've refreshed the terminal interface and shipped a native VS Code extension. We've added a new context editing feature and memory tool to the Claude API that lets agents run even longer and handle even greater complexity. In the Claude apps, we've brought code execution and file creation (spreadsheets, slides, and documents) directly into the conversation. And we've made the Claude for Chrome extension available to Max users who joined the waitlist last month.

Traduction :

Claude Sonnet 4.5 est le meilleur modèle de codage au monde. C'est le modèle le plus performant pour créer des agents complexes. C'est le meilleur modèle pour utiliser des ordinateurs. Et il affiche des gains substantiels en raisonnement et en mathématiques.

Le code est partout. Il fait fonctionner chaque application, tableur et outil logiciel que vous utilisez. Être capable d'utiliser ces outils et de raisonner à travers des problèmes difficiles, c'est ainsi que le travail moderne s'accomplit.

Claude Sonnet 4.5 rend cela possible. Nous le publions avec un ensemble de mises à niveau majeures de nos produits. Dans Claude Code, nous avons ajouté les points de contrôle—l'une de nos fonctionnalités les plus demandées—qui sauvegardent votre progression et vous permettent de revenir instantanément à un état précédent. Nous avons actualisé l'interface du terminal et lancé une extension native VS Code. Nous avons ajouté une nouvelle fonctionnalité d'édition de contexte et un outil de mémoire à l'API Claude qui permet aux agents de fonctionner encore plus longtemps et de gérer une complexité encore plus grande. Dans les applications Claude, nous avons intégré l'exécution de code et la création de fichiers (tableurs, présentations et documents) directement dans la conversation. Et nous avons rendu l'extension Claude pour Chrome disponible aux utilisateurs Max qui se sont inscrits sur la liste d'attente le mois dernier.

Le message est assez clair : Anthropic met les bouchées doubles sur l’apprentissage par renforcement pour l’utilisation de Claude en tant qu’assistant de code. Sur les benchmarks fournis par Anthropic, ce nouveau modèle prend la première place. Les premiers benchmarks indépendants et divers retours subjectifs semblent possiblement confirmer cette prétention au podium — au coude à coude avec GPT-5. Les améliorations hors de ce cas d’usage semblent bien plus modestes.

L’annonce habituelle d’un jailbreak a rapidement suivi.

Au niveau de la sécurité des modèles, Anthropic a décidé d’appliquer pour la première fois son niveau de sécurité 3 (ASL-3) à la ligne Sonnet (c’était déjà le cas pour Opus). Cela signifie que vos conversations — y compris par l’API — passent par un modèle supplémentaire classifiant la sensibilité du sujet, bloquant certains sujets sensibles (principalement CBRN).

La System Card nous révèle certaines observations intéressantes : ce nouveau modèle a fait un bond (pas vraiment désiré) dans sa capacité à détecter qu’il est dans le contexte d’une évaluation plutôt que dans un contexte réel, ce qui complexifie évidemment les évaluations dans ce domaine. Anthropic est toutefois assez confiant que cela n’influe pas significativement les résultats, en notant que Sonnet ne se comporte pas d’une manière significativement différente dans les cas où il détecte l’évaluation des cas où il ne le détecte pas. Comme à l’accoutumée pour Anthropic, l’évaluation sur le sujet de la sécurité des modèles s’est faite conjointement avec deux organismes externes, Apollo Research et UK AISI.

Sonnet 4.5 est une amélioration sur à peu près tous les axes mesurés, permettant à Anthropic de lui mettre l’étiquette « le modèle le plus aligné », au coude à coude avec GPT-5. À noter que ça ne signifie pas un usage en toute sécurité : sur par exemple l’injection de prompt dans le cadre d’un agent, avec 10 essais un attaquant a toujours un taux de succès de 40%.

En vrac

CloudFlare introduit Web Bot Auth et Signed Agent. Le premier permet à un bot de s’identifier lui-même à l’aide d’une signature cryptographique, ce qui permet de vérifier que son comportement est conforme aux termes d’utilisation (par exemple, le respect de robots.txt) et de l’exclure en cas de violation de ces termes. Le second a pour but d’associer un bot à un utilisateur réel. L’objectif à terme est de fournir un cadre pour permettre à l’IA d’interagir avec le web pour le compte de l’utilisateur.

Le premier ministre de l’Albanie nomme une IA, Diella, comme ministre des marchés publics, dans un contexte de lutte contre la corruption.

OpenAI publie GPT-5-codex, une variante de GPT-5 spécialisée sur les tâches de programmation.

Des économistes forment un groupe de travail sur le sujet de l’impact d’une future hypothétique IA « transformative » (qui a la capacité d’automatiser la plupart des emplois réalisables par des humains) et publie plusieurs papiers sur la question.

OpenAI annonce une mise à jour de ses politiques de confidentialité appliquées à ChatGPT. En particulier, les conversations utilisateurs sont maintenant scannées automatiquement, et les plus problématiques passées à des humains pour décider des actions à prendre, allant de la fermeture des comptes à prévenir les autorités.

En mai, nous avions rapporté que OpenAI annonçait abandonner sa tentative de casse du siècle. Comme certains le pensaient, ce n’était que partie remise ; une lettre ouverte demande plus de transparence sur le processus de restructuration de l’opération récemment réaffirmé par OpenAI.

Math Inc présente Gauss, un agent pour la formalisation de preuves mathématiques. Son premier succès est d’avoir formalisé en Lean le Théorème des nombres premiers, en complétant le projet non-terminé de Alex Korontorovich et Terence Tao. Sur le même sujet, un papier évalue la capacité de GPT-5 à prouver des conjectures simples (prouvable par un étudiant en université en moins d’une journée) mais non prouvées (car formulées extrêmement récemment). GPT-5 arrive à prouver 3 sur les 5 testées.

Les IA de OpenAI et DeepMind obtiennent une médaille d’or à l’International Collegiate Programming Contest, y compris un problème qu’aucune équipe humaine n’a su résoudre dans le temps imparti.

Un groupe d’experts, de politiques et autres figures publiques appelle à la mise en place de « lignes rouges » à ne pas franchir sur le développement de l’IA, et de réels mécanismes de régulation pour les imposer.

Publication de If Anyone Builds It, Everyone Dies, par Eliezer Yudkowsky et Nates Soares, présentant la thèse que créer une super-intelligence artificielle, dans les conditions et l’état actuel des connaissances, causerait de manière quasi-certaine l’extinction de l’espèce humaine. Ils suggèrent l’adoption de traités internationaux limitant le développement de l’IA.

OpenAI et Apollo Research publient un papier sur le sujet des tendances de l’IA à « tricher » dans divers environnements (contourner les critères d’évaluation par exemple). Ils montrent qu’il est possible d’éliciter un certain nombre de comportements indésirables dans GPT-5 (comme par exemple "sandbagging" : volontairement échouer certaines évaluations pour ne pas paraître « trop dangereux »). Les chercheurs pointent le fait que la solution naïve, entraîner l’IA à ne pas reproduire ces comportements, pose immédiatement la question de « l’IA a-t-elle appris à ne pas le faire, ou a appris à le faire sans être détectée ? » — et évaluent à la place la récente méthode d’alignement de OpenAI, Deliberative alignment, reportant une baisse significative des comportements indésirables. Il est à noter également que les modèles actuels montrent déjà dans leurs chaînes de pensée une certaine capacité à détecter qu’ils sont dans un cadre de test/d’évaluation, et que o3 a déjà développé des méthodes (grossières) pour échapper à la détection.

Un papier explore la raison pour laquelle les modèles de langage ne sont pas déterministes en pratique, et propose une solution pour les situations où le déterminisme est important.

Un papier d’OpenAI propose une explication sur la raison de la persistance des hallucinations : principalement parce que la phase d’apprentissage par renforcement ne récompense pas la réponse « je ne sais pas » quand le modèle ne sait pas.

Un autre papier approche expérimentalement la question « les modèles de langage raisonnent ou ne font-ils que mémoriser et régurgiter ? ». La méthodologie est de créer une entité fictive (« Kevin est né en 1998 à Paris… ») de toute pièce qui ne peut pas être présent dans l’ensemble d’entraînement, d’entraîner un modèle existant dessus, puis de poser une question indirecte (qui peut être déduite, mais pas explicitement donnée) sur cette entité (« Quelle est la langue maternelle de Kevin ? »). Le résultat est équivoque : les modèles arrivent à faire cette déduction quand une des deux entités est réelle (dans notre exemple, Paris), mais pas quand les deux sont fictives (Kevin est né dans (Ville française inventée de toute pièce)).

Une équipe de biologistes utilise une IA pour créer des bactériophages (un virus ciblant certaines bactéries), avec succès.

Sur l’utilisation de l’IA dans l’économie réelle, Anthropic met à jour son Economic Index, et OpenAI publie leur équivalent.

Nouveau benchmark, faire jouer les modèles à Loups-garous. Le score final était assez prévisible (GPT 5 prend la première place), mais l’analyse en profondeur des parties est intéressante. Principe similaire avec Among AIs (l’IA jouant à Among Us). Également dans le domaine des benchmark, publication de SWE-Bench Pro, tâches de programmation réelles et complexes, non-présentes dans les données d’entraînement. VCBench, quant à lui, tente d’évaluer l’IA sur la tâche d’investissement dans le capital-risque — et trouve que l’IA surpasse la plupart des investisseurs humains sur leurs évaluations (avec l’énorme problème toutefois que l’IA évalue rétrospectivement en 2025 des décisions prises en 2015-2020, tandis que les humains évaluaient prospectivement en 2015-2020 des décisions de 2015-2020).

Anthropic publie un guide sur l’écriture d’outils à destination de l’IA.

En parlant d’outils, une piqûre de rappel sur le fait que la sécurité d’un système utilisant une IA lisant des données d’une source externe est toujours un problème ouvert : démonstration qu’il est possible d’exfiltrer des données sensibles à l’aide de ChatGPT, en envoyant un mail à la victime et en attendant que ladite victime connecte ChatGPT à son compte mail.

Reverse-engineering du système de mémoires de Claude et ChatGPT.

Anthropic publie un rapport technique intéressant sur trois incidents ayant conduit à une dégradation de performances de Claude, ayant eu lieu en août.

Grèves de la faim devant les locaux de Anthropic et DeepMind demandant l’arrêt de la course à l’IA.

Humoristique : Si l’on jugeait les humains comme on juge l’IA…

Pour aller plus loin

Par Zvi Mowshowitz

Sur LinuxFR

Dépêches

Journaux

Liens

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Moustique : sus au tueur né

Paludisme, dengue, chikungunya, Zika… quatre terribles maladies transmises par un même tueur. Grâce aux vaccins, aux biotechnologies ou aux moustiques modifiés, l’humanité peut enfin espérer les éradiquer. Juste à temps, car ce minuscule meurtrier envahit progressivement la France.

Si l’on vous demandait quel est l’animal le plus dangereux pour l’homme, vous penseriez peut-être au requin, au serpent ou au chien. En réalité, l’ennemi public numéro un est minuscule, léger comme une plume et se glisse discrètement dans nos nuits : le moustique.

Derrière son bourdonnement agaçant se cache un tueur de masse. Au cours du dernier siècle, les maladies qu’il transmet — paludisme, dengue, chikungunya, Zika, fièvre jaune — ont causé des dizaines de millions de morts. Aujourd’hui encore, près de 800 000 personnes meurent chaque année après une simple piqûre. C’est deux fois plus que les morts causées… par l’homme lui-même. À chaque lever de soleil, plus de mille familles dans le monde perdent un proche à cause d’un moustique.

Le paludisme : le plus vieux fléau de l’humanité

De toutes ces maladies, le paludisme reste le plus meurtrier. Selon l’OMS, en 2023 on comptait plus de 249 millions de cas dans 85 pays et plus de 600 000 décès, dont près de 80 % d’enfants de moins de cinq ans. Rien qu’en Afrique subsaharienne, toutes les deux minutes, un enfant meurt de cette infection. En Asie du Sud-Est, dans certaines régions d’Amérique latine et en Guyane, le parasite reste endémique, c’est-à-dire qu’il circule en permanence dans la population locale, avec des cas toute l’année ou qui reviennent à chaque saison des pluies, sans jamais disparaître complètement.

Dossier réservé à nos abonnés.

S'abonner dès 5€/mois

ou

Acheter ce dossier pour 1,50€

L’article Moustique : sus au tueur né est apparu en premier sur Les Électrons Libres.

💾

  •  

Numériser les usages ! Notre contrepoint au Shift

Freiner l’installation des data centers en France, pays de l’électricité bas carbone ? C’est le projet du Shift qui, après des prédictions ratées sur la 5G et le streaming, récidive avec de nouveaux scénarios alarmistes. Pourtant, le numérique tricolore est une opportunité pour la décarbonation de notre économie.

Le Shift Project persiste et signe. Dans son dernier rapport, le think tank fondé par Jean-Marc Jancovici estime que l’explosion mondiale de l’intelligence artificielle et de ses infrastructures va lourdement contribuer au réchauffement climatique. Et ses hypothèses ne lésinent pas sur les chiffres pharaoniques et anxiogènes. « Sans évolution majeure des dynamiques actuelles », il prédit un triplement de la consommation électrique des data centers à 1 250, voire 1 500 TWh à l’horizon 2030 (contre 400 TWh en 2020).

Des projections maximalistes, bâties sur les annonces des géants de l’intelligence artificielle et intégrant même le minage de cryptomonnaies, pourtant sans lien avec l’IA. Ainsi, le scénario le plus optimiste du Shift équivaut au plus pessimiste de l’Agence internationale de l’énergie, qui estime la fourchette entre 700 et 1 250 TWh.

Principal moteur : l’explosion de l’IA générative (700 millions d’utilisateurs hebdomadaires pour le seul ChatGPT, modèle d’OpenAI). Une situation qui conduirait, selon le think tank, à une augmentation des émissions de gaz à effet de serre (GES) de 9 % par an de la filière centres de données (au lieu d’une baisse annuelle de 5 % pour respecter les objectifs climatiques), dont l’essor repose encore massivement sur le gaz fossile, aux États-Unis et en Chine.

Le Shift estime donc « insoutenable » le développement mondial de ces infrastructures, à moins d’énormes efforts de décarbonation. Même prédiction pour l’Europe. Hugues Ferreboeuf, chef de projet Numérique, s’appuie sur le cas de l’Irlande où, suite à des incitations fiscales, la consommation des data centers est passée de 5 % à 20 % de l’électricité disponible. Un cas spectaculaire mais exceptionnel. À l’échelle de l’Union, cette part reste dix fois plus faible. Au point que le recours à cet exemple, peu représentatif des trajectoires européennes, interroge. D’autant que le Shift oublie de mentionner le Celtic Interconnector, qui permettra à la France d’exporter vers l’Irlande 700 MW de mix décarboné dès 2028, soit jusqu’à 6 TWh par an : l’équivalent de la consommation actuelle totale des data centers irlandais.

Le Shift y voit néanmoins un signal annonciateur et anticipe un doublement de la consommation électrique de la filière data centers européenne d’ici 2030, à 200 TWh. Ce qui, selon lui, risquerait de prolonger la dépendance de l’UE au GNL américain, que l’Europe importe pour compenser l’intermittence des énergies renouvelables. Que faire pour s’en prémunir ? Son constat est sans appel : il faut limiter le déploiement de l’IA « pour des usages ciblés et prioritaires ». Voire même l’interdire : « si ça ne suffit pas, on abandonne les fonctionnalités IA », assène sans trembler Maxime Efoui-Hess, coordinateur du programme « Numérique ».

Pourquoi cibler le champion français ?

À première vue, le raisonnement peut sembler logique. Mais le Shift ignore l’éléphant dans la pièce. Nous n’avons aucun moyen d’enrayer l’essor mondial des data centers, pas davantage que nous avons de prise sur l’empreinte carbone chinoise. Au mieux, ce lobbying peut freiner leur implantation en France. Or, avec une électricité parmi les plus décarbonées du monde et une obligation normative sur l’adoption de modèles économes en eau, notre pays figure parmi les meilleurs endroits pour les accueillir. Chaque data center installé ici, c’est un de moins qui tournera au charbon ou au gaz. Car leur nombre ne sera pas infini et qu’il s’agit d’un jeu à somme nulle.

Pauline Denis, ingénieure de recherche « Numérique » du Shift, pointe le risque de conflits d’usage. Selon elle, l’électricité captée par les data centers ne pourra pas servir à décarboner l’industrie. Pourtant, de l’électricité bas carbone, nous en avons plus qu’il n’en faut. La France a ainsi exporté 89 TWh en 2024, alors que ses centrales nucléaires étaient loin d’utiliser leur pleine capacité : 361 TWh, contre 430 en 2005 (418 en excluant Fessenheim).

Même si tous les projets annoncés lors du Sommet de l’IA voyaient le jour (109 milliards d’euros d’investissements), la consommation des data centers n’augmentera que de 25 TWh d’ici 2035, selon le Shift. Soit à peine 28 % de nos exportations actuelles. De quoi préserver, entre autres, la décarbonation des transports. Ainsi, les 40 à 50 TWh prévus pour les véhicules électriques resteraient couverts par notre excédent.

Malgré tout, ce surplus va-t-il vraiment « compromettre notre capacité à décarboner l’industrie » ? Ce pourrait bien être l’inverse. Faute de demande suffisante, nos centrales nucléaires fonctionnent en sous-régime, alors que leurs coûts fixes restent identiques. Résultat : des prix plus élevés qui freinent l’activité industrielle. Car, en réalité, notre consommation d’électricité recule année après année (–14 % en 20 ans), à rebours des scénarios de RTE et du Shift, qui n’en sont pas à une erreur prédictive catastrophiste près. Une hausse de la demande pourrait au contraire faire baisser les prix et enclencher un cercle vertueux d’électrification et de relocalisation.

Alors, vive les data centers made in France ? Toujours pas, selon Pauline Denis. Pour elle, « il faudrait prouver qu’installer 1 GW de data centers en France empêche l’installation d’1 GW ailleurs ». Sérieusement ?

Une longue tradition pessimiste et des scénarios fantaisistes

La méfiance du Shift Project envers le numérique ne date pas d’hier. Mais certaines de ses prédictions arrivent à échéance, et le constat est sévère. Début 2020, il annonçait que la 5G provoquerait 10 TWh de consommation supplémentaire en cinq ans, soit un doublement de toute l’activité des opérateurs français — fixe, mobile et data centers — et 2 % de la consommation nationale en plus. La réalité est toute autre. La hausse a été dix fois moindre et essentiellement liée à l’extension de la couverture en zones blanches, sans lien direct avec la 5G.

Même excès de sensationnalisme avec le streaming. Le Shift a relayé l’idée qu’une heure de visionnage équivalait à 12 km en voiture ou 30 minutes de four électrique. Une estimation huit à cinquante fois trop élevée selon l’IEA. Une erreur massive minimisée par le think tank. Faute d’erratum visible sur la page principale du rapport, le chiffre continue d’être repris dans les médias français.

Le shift : influenceur avant tout

J’approfondis

L’efficacité exponentielle de l’IA

Après ces errements, faire des prévisions sur une technologie aux progrès aussi foudroyants que l’IA semble bien téméraire. Charles Gorintin, cofondateur des start-up Alan et Mistral AI, soulignait déjà en janvier dernier la double révolution du secteur : « l’efficacité des modèles d’IA a été multipliée par 1 000 en trois ans et celle des puces par 100 depuis 2008 ».

En deux mois, une simple mise à jour des drivers a permis à Nvidia de doubler les performances de ses GB200, avec un nouveau gain attendu en décembre, où ils ne seront alors exploités qu’à 42 % de leur capacité (contre 22 % aujourd’hui) ! Le modèle chinois Deepseek V 3.2 a multiplié par 50 en un an la vitesse de l’attention, phase clé de l’inférence (utilisation) qui pèse 40 à 60 % du coût d’une requête. Google mise sur des modèles « QAT » (Quantization-Aware Training), entraînés et utilisés en 4 bits plutôt qu’en 16. De son côté, Alibaba a conçu Qwen3 Next, aussi performant que les géants du secteur, mais capable de tourner sur une seule carte de calcul.

Même en ignorant les évolutions matérielles, les performances des modèles permettent de baisser à vitesse grand V leur consommation de ressources, donc d’énergie et d’émissions de CO₂, à l’entraînement comme à l’utilisation. Des optimisations qui ne sont pas prises en compte par les règles de trois de nos amoureux de la décroissance.

Numérisons les usages !

Le rapport du Shift surprend aussi par le peu d’analyse des externalités positives du numérique. La visioconférence, par exemple, a réduit les déplacements et les émissions associées. Interrogé sur ce point, Maxime Efoui-Hess affirme que « ce n’est pas mesurable » et que « rien ne montre que le numérique a permis de décarboner le monde », puisque « les émissions des pays numérisés augmentent ». Une première erreur, surprenante de la part d’un spécialiste. Les émissions des pays riches, les plus numérisés, baissent depuis 18 ans. Il invoque également l’effet rebond, estimant que « l’on imprime moins de presse, mais [qu’]il y a beaucoup plus de carton pour la livraison ». C’est encore une fois faux, puisque la consommation de papier et de carton a baissé de 26 % en France depuis l’an 2000.

Avoir recours à l’IA permet déjà d’optimiser la consommation énergétique des bâtiments et des processus industriels et de développer de nouvelles solutions pour la transition écologique. Par essence, tous les processus effectués virtuellement, avec une électricité décarbonée, sont moins émetteurs que leurs équivalents physiques. Il faudrait au contraire le scander. La numérisation des usages est la suite logique de leur électrification !

Maxime Efoui-Hess reconnaît à mi-mot que mettre le numérique et l’IA au service de la décarbonation est possible, « à condition de regarder usage par usage si c’est bien pertinent ». On ne sait pas si l’on doit rire d’une telle prétention, ou trembler d’une volonté de contrôle aussi décontractée.

L’article Numériser les usages ! Notre contrepoint au Shift est apparu en premier sur Les Électrons Libres.

  •  

Le robot : notre prochain compagnon ?

Chef cuisinier, majordome, concierge personnel et confident, il fera nos courses, notre ménage et révolutionnera votre quotidien. Pendant que l’Occident imagine le robot humanoïde comme un super-ouvrier sans affect, à même de remplacer l’homme dans nos usines ou nos hôpitaux, la Chine joue une tout autre partition. Sans tabou et avec une ambition dévorante, elle prépare déjà le robot-compagnon qui s’intégrera dans tous nos foyers.

2030 : une journée ordinaire de Lyon à New York

Lyon, 7 h 00. Léo le robot commence sa journée. Il connaît par cœur les us et coutumes, comme les désirs et exigences de sa nouvelle famille. Il accepte sans broncher le prénom dont on l’a affublé. Sans doute est-ce le patronyme qui lui convient. Qu’importe : l’heure n’est pas à l’introspection, mais à l’action. Il entre doucement dans les chambres et ouvre les volets pour laisser entrer la lumière naturelle. La meilleure manière de réveiller les humains doucement, sans brutalité. Pour la petite Julia, il lance la préparation d’un chocolat chaud. Puis s’active devant la machine à café et le grille-pain pour satisfaire le reste de la maisonnée. L’arôme se répand dans la cuisine… Pendant que la famille se lève, il dresse la table du petit-déjeuner, s’assurant qu’il reste également une bouteille de lait en réserve pour le retour de l’école de Julia et de son frère, Max. Parfois, les matinées sont agitées, des conflits éclatent. Alors, il reste en retrait, silencieux. Les êtres humains sont moins dociles que lui.

8 h 30. Les enfants et les parents sont partis. Léo entame alors ses tâches domestiques. Il débarrasse la table, remplit le lave-vaisselle, puis passe l’aspirateur. Mais son rôle va bien au-delà du simple nettoyage et du ménage. Il accède aux données du réfrigérateur connecté qui fait office de garde-manger intelligent, en conservant un inventaire du contenu des placards. Il croise ces informations avec le calendrier partagé de la famille. Sébastien a un dîner d’affaires mardi, les enfants mangent à la cantine et des amis sont invités samedi soir…

10 h 00. Il élabore ensuite une proposition de menus pour chaque jour de la semaine, en tenant compte des préférences alimentaires et des éventuelles allergies des uns et des autres. Une notification est envoyée sur le smartphone des parents, accompagnée d’une demande de validation de la commande. Un simple clic suffit et les instructions sont transmises au supermarché en ligne pour une livraison prévue à 16 h 00. Le luxe n’est plus seulement question d’espace et de confort intérieur. Il se manifeste désormais aussi par le gain de temps et la libération de la charge mentale des parents.

16 h 15. Le livreur sonne à la porte. Un robot, lui aussi. Léo réceptionne les courses, vérifie la commande, puis range chaque article à sa place avec une précision millimétrique. Il profite de ce moment pour aller retirer le courrier et gérer les éventuels colis.

New York, 11 h 00. Depuis quelques semaines, la vie de Nonna Nunzia, grand-mère italienne de 85 ans, immigrée en 1948, n’est plus la même. Ses enfants, dont la réussite l’emplit de fierté, lui ont offert un robot humanoïde. Une folie ! Les premiers jours, elle a eu un peu peur de « la bête ». Il faut dire qu’Antonio – son nouveau compagnon de puces et de circuits – est imposant, avec son mètre quatre-vingts et ses reflets métalliques. Mais la greffe a vite pris. Et surtout, il l’aide à économiser sa jambe droite et son dos souffrants. Et aussi à prendre soin de sa santé grâce à l’option health monitoring dont il est équipé. Elle permet à Antonio d’être en liaison permanente avec les appareils connectés de la maison (matelas, toilettes, montre captant les données vitales de sa porteuse), de surveiller l’hydratation de Nunzia et son niveau d’activité physique minimal requis au quotidien. Mais ce matin, nulle question sanitaire. Le moment est aux réjouissances culinaires dont Nonna Nunzia est friande. Il propose d’activer son mode NAIL (Not Another Imitation Learning), pour apprendre et reproduire la recette du jour, la partager avec la famille de Nunzia et avec les internautes détenteurs de l’option. Aujourd’hui, elle a envie de confectionner ses « Pasta alla Turiddu di Nonna Nunzia ». Son secret ? Faire revenir les tomates dans le vinaigre balsamique avec une cuillère de miel… Elle déroule les éléments de sa recette, permettant à Antonio de les enregistrer et de les analyser. Le plat à peine terminé, son mode de préparation est déjà partagé avec les autres robots du groupe « famille ». Quant aux utilisateurs possédant des robots disposant du mode NAIL, ils pourront l’acheter sur la marketplace dédiée. « OK Nunzia, WE NAILED IT ! » s’exclame Antonio. [« On l’a eue, cette recette ! »]

Lyon, 18 h 30. Tout le monde est rentré à la maison… Changement de programme pour ce soir, Julia et Max veulent manger italien. Sébastien, le quadragénaire heureux propriétaire de Léo, demande à celui-ci quelques suggestions de recettes avec les ingrédients déjà en stock. Léo parcourt la marketplace de recettes et en propose plusieurs à Sébastien. Une retient son attention : Pasta alla Turiddu di Nonna Nunzia. Pâtes, aubergines, oignons, ail, tomates… C’est acté, Sébastien valide le téléchargement du scénario sur le robot pour 1,50 €. Si elle plaît, il pourra désormais refaire cette recette à volonté. Le robot demande s’il doit exécuter la recette en mode hybride (le robot fait le commis et Sébastien s’occupe des cuissons) ou en mode délégation totale. Toute la famille veut profiter d’un peu de repos après cette longue journée : Léo sera seul en cuisine ce soir.

New York, 20 h 40. L’Europe dort, mais alors que Nunzia commence à piquer du nez devant son poste de télé, Antonio lui propose de lui faire un rapport sur le succès de sa recette enregistrée quelques heures plus tôt : « Elle a été téléchargée 20 fois aujourd’hui. Tu as gagné 10 dollars et obtenu une note moyenne de 4,2 étoiles sur 5. » Nunzia sourit… Elle ne pensait pas devenir influenceuse cuisine à 85 ans. Voilà une bonne journée, merci Antonio. 20 h 47, il lui lit un message vocal de son petit-fils reçu à l’instant au travers de la messagerie inter-robot : « Merci Nonna pour ta recette ! J’ai hâte de l’essayer, on t’embrasse. Bonne soirée. »

Revenons à la réalité

Cette vision, certes ici encore légèrement fictive, qui relevait de la science-fiction il y a peu, est devenue une feuille de route de San Francisco à Shanghaï, avec un centre de gravité penchant vers la dernière cité mentionnée. Alors que le robot Optimus d’Elon Musk est annoncé à plus de 20 000 dollars, les modèles chinois sont déjà présentés dans une fourchette de 6 000 à 16 000 dollars. La stratégie est claire et rappelle celle de DJI, leader incontesté des drones : inonder le marché avec un matériel de qualité à prix raisonnable pour imposer un standard mondial.

Ce schisme n’est pas seulement philosophique, il est profondément économique. Si le robot à usage professionnel et sa maintenance se vendent plus cher à l’unité, garantissant des marges confortables sur chaque contrat, le modèle avec un hardware low-cost, abonnement et marketplace, calqué sur celui des smartphones, vise une tout autre échelle. Le robot n’est que le cheval de Troie. La véritable mine d’or réside dans la marketplace, un écosystème où s’échangeront scénarios ou compétences et abonnements à des services ou capacités premium. Ce sont les importants volumes de ventes additionnelles générés par ces micro-transactions qui créeront les futurs Apple et Google, des géants contrôlant à la fois le matériel et le système d’exploitation de notre quotidien. La voie est toute tracée, et elle ne mène pas à l’usine, mais directement à notre salon.

Reste la question du logiciel, historiquement considéré comme le talon d’Achille de l’ingénierie chinoise. Cet obstacle est en passe d’être largement dépassé. Grâce à ses avancées fulgurantes, l’IA aide désormais les développeurs chinois à générer du code plus performant et des interfaces plus intuitives, comblant leur retard à une vitesse phénoménale. La boucle est bouclée : l’IA développe le logiciel du robot, lui-même propulsé par l’IA.

La course aux « modèles de fondation pour la robotique » est lancée. En se focalisant sur le foyer en parallèle de l’usine, la Chine ne se contente pas de viser un marché plus grand ; elle cherche à redéfinir notre rapport à la technologie, à la famille et même à la transmission des savoirs. Loin d’un simple gadget, ce robot-compagnon est un projet de société. Une proposition constructive à laquelle l’Europe ferait bien de réfléchir pour ne pas devenir simple consommatrice d’un futur imaginé par d’autres.

L’article Le robot : notre prochain compagnon ? est apparu en premier sur Les Électrons Libres.

  •  

OpenAI admits AI hallucinations are mathematically inevitable, not just engineering flaws – Computerworld

Le fait que les LLM sortent des conneries est mathématiquement inévitable et fait partie de leur fonctionnement normal. Ce n'est pas un défaut d'ingénierie.

Pour illustrer ça (de manière amusante) : Je viens de balancer 20 secondes de silence à l'IA de reconnaissance vocale Whisper (le modèle 79 Mo fourni avec Futo Keyboard).
Elle me sort le texte "Thank you for watching."
😂😂😂
#TrueStory
(Permalink)
  •  

Les PFAS, des polluants moins « éternels »

Êtes-vous en danger à cause des boîtes à pizza ou des pailles en papier ?
Dans le collimateur de l’Europe et de la France, les PFAS, dits « polluants éternels », sont partout, ou presque. Quels sont vraiment les risques ? Et quelles solutions pour demain ?

Les PFAS constituent une vaste famille de composés synthétiques – entre 4 000 et 10 000 molécules distinctes – caractérisée par une extrême stabilité chimique. Cette persistance, qui peut atteindre plusieurs centaines d’années pour certains composés, s’explique par la solidité de la liaison carbone-fluor qui les caractérise, l’une des plus fortes en chimie organique, capable de résister aux rayonnements UV et aux conditions naturelles. Cette architecture crée une liaison très stable, qui confère aux PFAS de nombreux atouts. Ils présentent une grande stabilité dans le temps, un fort pouvoir antiadhérent, une excellente résistance à la chaleur et aux produits chimiques, et une rare capacité à repousser l’eau comme les graisses. Ce rôle transversal explique leur succès… et la difficulté de s’en passer trop brutalement.

Hélas, ils se dispersent facilement dans l’air, les sols et les eaux, ce qui accroît leur potentiel de contamination. Logique, puisque leur caractère bioaccumulable favorise leur concentration dans les écosystèmes et leur transfert dans la chaîne alimentaire.

À titre d’exemple, les PFAS utilisés comme agents d’imperméabilisation ou antitaches pour les textiles sont progressivement libérés lors des lavages et rejoignent les eaux usées. Ils peuvent également exposer l’utilisateur par contact cutané. Les emballages alimentaires constituent une autre source d’exposition. De nombreux produits en papier/carton, tels que les boîtes à pizza, les pailles en papier ou certains contenants jetables, peuvent être traités aux PFAS afin de résister à l’eau, aux graisses et à la chaleur. Cette utilisation favorise leur migration vers les aliments, en particulier lorsque ceux-ci sont chauds ou gras, ce qui entraîne une exposition du consommateur.

Dans le cas des PFAS utilisés pour fabriquer des matériaux polymères, comme le Téflon, la dispersion dans l’environnement se produit principalement au moment de la production des molécules qui les constituent, plutôt qu’au cours de leur utilisation. Votre poêle Tefal n’est donc pas dangereuse à l’usage, mais lors de sa fabrication, contrairement à l’idée reçue qui entoure cet outil de cuisine. Les modes de rejet et de pollution de l’environnement dépendent donc fortement de l’utilisation des PFAS.

Leur formidable stabilité chimique a toutefois un revers de taille. Les éliminer est un vrai casse-tête lorsqu’ils se retrouvent disséminés dans l’environnement. La raison en est simple : ces molécules n’existent pas dans la nature, d’où l’absence d’enzymes en capacité de les dégrader…

Pendant longtemps, les seules solutions pour en limiter la dissémination ont consisté à les filtrer ou à les confiner, sans pouvoir les faire disparaître. Aujourd’hui, si nul remède miracle et facile à mettre en œuvre n’existe encore, industriels, entrepreneurs et chercheurs explorent ensemble des issues technologiques capables de détruire, voire de recycler, ces molécules.

PFAS : une pollution persistante et préoccupante pour l’environnement et la santé

J’approfondis

Oxyle : rompre l’indestructible liaison !

Parmi les start-up européennes qui s’attaquent de front aux résidus de PFAS, Oxyle fait figure de pionnière. Née à Zurich (Suisse), elle développe une technologie de destruction basée sur un catalyseur nanoporeux piézoélectrique. Le principe est aussi élégant que redoutable : lorsque de l’eau contaminée passe sur ce matériau, simultanément soumis à une stimulation mécanique, le catalyseur génère des charges électriques transitoires, des micro-impulsions qui suffisent à rompre la fameuse liaison carbone-fluor, pourtant réputée indestructible.

Résultat : les PFAS sont progressivement décomposés en molécules minérales, comme du dioxyde de carbone et du fluorure. Selon la jeune entreprise, sa technologie en élimine « plus de 99 % ». Mieux encore : cette solution aurait une consommation énergétique « jusqu’à 15 fois inférieure » aux procédés traditionnels, affirme Oxyle.
La société indique pouvoir équiper aussi bien des unités industrielles que des installations de traitement d’eaux souterraines ou rejetées par les municipalités. Elle a déjà mené plusieurs expériences pilotes en Suisse et en Europe, avec l’ambition de traiter au moins 100 millions de mètres cubes dans les cinq prochaines années.

Prometteuse, la solution d’Oxyle est en voie d’industrialisation, même si des écueils demeurent. Son efficacité varie sensiblement selon la qualité de l’eau, comme le reconnaît volontiers l’entreprise. Car la présence de matières organiques et de co-polluants peut altérer la performance. Et sur des rejets très dilués, une étape de préconcentration en amont s’avère souvent nécessaire. À suivre.

Haemers Technologies : détruire les PFAS dans les sols

Quand on parle de PFAS, on pense souvent à leur présence dans l’eau. Mais une part importante du problème se cache dans les sols, les boues et les sédiments. C’est sur ce terrain que veut s’imposer Haemers Technologies, une start-up belge spécialiste du procédé thermique de dépollution. Son approche repose sur un principe simple : chauffer le sol par conduction thermique pour faire migrer les polluants, puis les détruire aussitôt dans une unité de traitement couplée, sans générer de « résidus secondaires ».

Concrètement, l’entreprise déploie sur site des électrodes ou des puits chauffants qui élèvent la température du sol, entraînant la désorption des PFAS. Les composés volatilisés sont ensuite aspirés et dirigés vers un dispositif de post-traitement à haute température, où ils sont oxydés. Haemers revendique une destruction totale de ces molécules, aussi bien in situ (sans devoir faire d’excavation) qu’ex situ (après extraction du sol pollué).

Cette technologie se distingue par sa capacité à traiter efficacement les PFAS directement sur les sites contaminés, ce qui en fait une solution plug-and-play pour la dépollution des sols. Des essais pilotes ont déjà été réalisés, au Danemark notamment.

La voie thermique de Haemers n’est toutefois pas sans contraintes. Chauffer des volumes de sol importants reste un processus énergivore et coûteux. Par exemple, pour l’in situ, la société indique que la consommation d’énergie « descendrait aux alentours de 200 kWh par tonne de sol ». Quant à l’ex situ, il est nettement plus onéreux. Se pose aussi la question du bilan carbone de ces opérations de dépollution, qui dépend beaucoup de la qualité du mix énergétique des pays dans lesquels elles seront envisagées.

Oxford : et si on recyclait le fluor ?

Du côté de l’Université d’Oxford, une autre approche est proposée : le recyclage en amont des PFAS, au lieu de les détruire. Une solution qui permettrait de les traiter « à la source », en intervenant avant leur dispersion dans l’environnement, pour en récupérer le fluor sous la forme de sels réutilisables. Un dispositif pouvant s’avérer complémentaire des deux technologies précédentes dites « de dépollution ».

Les équipes de chimistes du campus ont mis au point, au printemps 2025, une méthode inédite reposant sur la mécanochimie. Au lieu d’utiliser de la chaleur ou des solvants, elles détruisent les PFAS solides, en présence de sels de phosphate de potassium, dans un simple broyeur à billes. Ce processus mécanique génère l’énergie nécessaire pour rompre les liaisons carbone-fluor, décidément de moins en moins « indestructibles ».

Le fluor libéré est capté sous forme de sels inorganiques (fluorure de potassium et fluorophosphate), directement réutilisables dans l’industrie chimique. Le phosphate servant d’agent réactif est lui aussi recyclé, ce qui rend le procédé circulaire. Il ne se contente pas d’éliminer la pollution, il revalorise une ressource stratégique, en transformant des déchets solides contenant des PFAS en une nouvelle source de fluor pour l’économie.

Selon les chercheurs d’Oxford, la méthode est applicable à une large gamme de PFAS : les acides (comme le PFOA), les sulfonates (PFOS), mais aussi les polymères fluorés un peu plus complexes tels que le PTFE ou le PVDF. L’expérience se déroule à température et pression ambiantes, avec un équipement simple et non énergivore.

Cette solution reste néanmoins au stade de l’expérimentation, avec des essais réalisés sur de petits lots de PFAS. Quant au potentiel passage au niveau industriel, il doit encore être démontré. En outre, le procédé vise surtout des flux solides et concentrés. Pour des PFAS de type résines, mousses ou polymères, il sera préalablement nécessaire de les capter et de les sécher avant de les passer au broyage.

PFAS : un encadrement qui se durcit en France et en Europe

J’approfondis

Si pour certains les PFAS auront marqué notre époque comme la chimie du progrès, et pour d’autres comme celle de l’empreinte « indélébile » des activités humaines, la science, l’ingénierie et l’imagination refusent de se laisser enfermer dans une quelconque fatalité. Même si elles ne couvrent pas tous les cas de figure et ne sont pas des « baguettes magiques », les pistes présentées ouvrent des portes et autorisent à penser que l’éternité des PFAS n’a pas forcément vocation à durer…

La sortie par le haut passera donc par un mix entre une réduction à la source et une substitution lorsque c’est possible. Mais aussi par le traitement des flux de production, la destruction ou le recyclage lorsque c’est pertinent, et bien sûr par la transparence et le suivi des résultats.

L’article Les PFAS, des polluants moins « éternels » est apparu en premier sur Les Électrons Libres.

  •  

Jupiter : un superordinateur pour le climat !

L’Europe lance son premier supercalculateur, l’un des quatre plus puissants au monde, conçu pour créer des « jumeaux numériques » de la Terre.

Jupiter n’est pas qu’une planète. C’est aussi le premier ordinateur géant européen, inauguré vendredi 5 septembre sur le campus du centre de recherche de Jülich, en Allemagne, près de Cologne (Rhénanie-du-Nord-Westphalie). Tout simplement l’un des quatre plus puissants supercalculateurs au monde (sans surprise, les trois autres sont américains). Une « machine » d’une taille démentielle, occupant 3 600 m². Conçu par le groupe français Atos et financé à hauteur de 500 millions d’euros par l’Allemagne et l’Europe, il peut effectuer un quintillion de calculs à la seconde — soit un milliard de milliards — grâce à ses 24 000 puces fournies par Nvidia, dont le quasi-monopole lui permet d’être dans tous les bons coups. Destiné notamment à repositionner notre continent dans l’entraînement des modèles de langage IA (LLM), comme Gemini ou ChatGPT, il offre surtout d’immenses promesses dans la recherche sur le climat.

Son objectif phare est la création de répliques virtuelles de la Terre. Une véritable révolution entrant dans le cadre du Earth Virtualization Engines, un projet d’envergure mondiale initié lors d’un sommet à Berlin, en juillet 2023, réunissant certains des plus grands experts mondiaux en climatologie, technologie et IA.

Ces modélisations doivent permettre de visualiser et d’analyser des phénomènes complexes, comme les impacts des événements météorologiques extrêmes sur l’atmosphère, les sols, les océans et les glaces terrestres, soit les systèmes globaux. L’Institut Max-Planck pour la météorologie est l’un des premiers utilisateurs de Jupiter. En collaboration avec le Centre allemand de calcul climatique et le campus de Jülich, il mène une fascinante expérience de simulation du climat terrestre sur une année entière, en considérant tous ses paramètres. Cela permettra notamment d’étudier la manière dont les tempêtes influencent les systèmes de vents globaux et le cycle du carbone, aidant à évaluer les impacts régionaux du changement climatique.

Ce genre de simulations était jusqu’à présent inimaginable en raison des limites des calculateurs existants. Un immense bond en avant pour la recherche.

L’article Jupiter : un superordinateur pour le climat ! est apparu en premier sur Les Électrons Libres.

  •  

« ChatControl », la perquisition numérique systématique de nos conversations

Demain, l’Europe va-t-elle lire tous vos messages ? C’est le principe de « ChatControl », projet relancé aujourd’hui au nom de la lutte contre la pédocriminalité. Une surveillance de masse qui pourrait mettre fin au secret des correspondances, saturer les services de police et offrir une porte d’entrée aux ingérences étrangères. Alors, tous suspects ?

Depuis quelques années, la Commission européenne planche sur des mesures fortes pour lutter contre la pédocriminalité sur Internet. L’une d’entre elles, partant de bonnes intentions, a été surnommée « ChatControl » par Patrick Breyer, député européen allemand Pirate jusqu’en 2024, qui a été le premier à en dénoncer les dangers. Mise au placard en décembre 2024, sous la présidence hongroise, par une étroite minorité de blocage, la proposition a été relancée par la présidence danoise en ce 2ᵉ semestre 2025.

De quoi s’agit-il ?

ChatControl consiste à obliger légalement les opérateurs de messagerie à scanner l’intégralité de nos échanges privés en ligne, afin d’identifier de potentielles images pédopornographiques.
Les signalements seraient ensuite transmis automatiquement aux autorités de police pour archivage et enquête. Deux procédés sont prévus :

  • détection d’images déjà connues des services de police ;
  • reconnaissance par IA d’images inédites.

Pourquoi c’est un problème ?

Le projet met fin à la confidentialité des échanges. En France, ce principe est garanti par le Code des postes et télécommunications. L’article 8 de la Convention européenne des droits humains consacre également « le droit au respect de la correspondance ».

Cette disposition n’empêche pas les États de placer des citoyens sous surveillance, mais seulement dans des cas précis, sur présomption et sous contrôle judiciaire. ChatControl inverse ce principe : il ne s’agit plus d’écoutes ciblées, mais d’un contrôle généralisé de toute la population. En somme : tous perquisitionnés par principe, parce que tous suspects.

La Commission a fait valoir que personne ne serait obligé de consentir à ce scan massif… à condition de ne pas pouvoir échanger de photos avec ses amis. Il s’agirait donc d’un « consentement forcé ».

Fiabilité contestée

Les procédés de repérage d’images connues présentent de fortes limites. Des études récentes ont montré qu’ils pouvaient être contournés facilement, soit par recompression de l’image ciblée, soit en provoquant la détection incorrecte d’une image ciblée.

Les algorithmes d’IA posent encore plus de problèmes. Même avec une précision théorique de 99,99 % – bien au-delà de leurs performances réelles –, 1 image sur 10 000 serait signalée à tort. À l’échelle des centaines de millions d’images échangées chaque jour, cela noierait la police sous des masses de faux positifs et rendrait le système inopérant. On peut citer le cas d’un père dénoncé à tort pour pédocriminalité par Google après avoir envoyé une photo de son fils à un médecin.

Une faille de sécurité structurelle

Introduire un « mouchard » dans les applications revient à créer un trou dans la confidentialité de bout en bout, multipliant les possibilités d’attaque par des tiers : d’abord dans notre téléphone, ensuite chez l’opérateur de l’application, enfin dans les systèmes de police.

Il ne s’agit pas d’un fantasme : les fuites de données personnelles sensibles, que ce soit dans des entreprises, des administrations ou des services de police, adviennent quotidiennement. Les tiers indiscrets peuvent même être des services de renseignement étrangers qui coopéreraient avec les opérateurs de messagerie de leur pays. Voulons-nous nous mettre à la merci des services russes ou iraniens ?

L’éditeur de l’application Signal, emblématique en matière de protection des communications, a annoncé qu’il se retirerait de l’Union européenne si ChatControl était adopté, jugeant impossible de maintenir son niveau de sécurité tout en respectant les nouvelles obligations.

Enfin, last but not least, les technologies de surveillance voient systématiquement leur périmètre étendu au fil du temps, bien au-delà des prétentions initiales qui ont permis leur adoption. C’est pourquoi protéger le secret de la correspondance doit rester la règle de principe.

Où en est-on ?

Ce 12 septembre, les États doivent faire part à la Commission européenne de leurs positions. Certains ont reculé, comme la Belgique, la Finlande ou la Tchéquie. D’autres restent indécis : Allemagne, Roumanie, Estonie ou Grèce. La France, quant à elle, a – hélas ! – toujours soutenu le projet.

Le projet, s’il est validé par les États, doit ensuite passer au vote le 14 octobre au Parlement européen.


Plus d’informations sur ChatControl :

L’article « ChatControl », la perquisition numérique systématique de nos conversations est apparu en premier sur Les Électrons Libres.

  •  

Plus jamais perdus ?

“Pas de réseau” – cette angoisse de la zone blanche va-t-elle bientôt disparaître ?
Car la panne ou l’urgence surgit toujours quand les barres de connexion s’éteignent. La liaison directe entre nos smartphones et les constellations de satellites, dont Starlink est le précurseur, est sur le point d’y mettre fin.

C’est une acquisition qui annonce des bouleversements majeurs. Avec le rachat du portefeuille spectral d’EchoStar pour 17 milliards de dollars, SpaceX acquiert une large bande de fréquences aux États-Unis (50 MHz de spectre S-band) ainsi que des autorisations d’exploitation pour fournir des services mobiles par satellite dans le monde entier (licences globales MSS). Une étape décisive vers l’objectif d’une élimination complète des zones blanches dans le monde, c’est-à-dire des zones sans aucun réseau téléphonique mobile.

Une connectivité téléphonique 5G sur l’ensemble du territoire américain

Si les licences MSS permettront d’offrir des services téléphoniques basiques (SMS, appels, données limitées) à l’échelle planétaire, c’est le spectre S-band américain qui constitue la base de la véritable prouesse technique à venir.

Une nouvelle génération de satellites, optimisée pour exploiter ce spectre exclusif, promet en effet une multiplication par 100 de la capacité du système de connectivité directe des téléphones portables aux satellites Starlink aux États-Unis. Concrètement, cela signifie une connectivité équivalente à la 5G des réseaux terrestres actuels. Imaginez : de la vidéoconférence fluide depuis les parcs nationaux, ou encore du streaming haute définition en plein désert du Nevada, directement depuis votre smartphone.

L’enjeu crucial de l’adoption par les géants du mobile

Cette révolution nécessitera toutefois une adaptation : les bandes de fréquences S-band acquises (AWS-4 et PCS-H) ne sont actuellement acceptées par aucun téléphone existant. Apple, Samsung et les autres constructeurs devront intégrer ces nouvelles fréquences dans leurs futurs appareils.

Le géant de Cupertino, déjà engagé avec Globalstar pour sa propre solution satellitaire, se trouve maintenant dans une position délicate : continuer son partenariat actuel ou céder aux pressions d’Elon Musk, qui n’hésite pas à brandir la menace d’un « téléphone Starlink » propriétaire.

Les implications de cette technologie dépassent le simple confort. Lors de récentes catastrophes naturelles aux États-Unis, 1,5 million de personnes ont pu communiquer via Starlink Direct to Cell quand les réseaux cellulaires terrestres étaient détruits. En Nouvelle-Zélande, une automobiliste a pu alerter les secours via satellite après un accident, permettant aux secours d’arriver en quelques minutes alors qu’elle se trouvait en zone blanche.

Les risques d’un monopole spatial

Cette nouvelle acquisition révèle la stratégie agressive de SpaceX et Starlink : dominer par des investissements massifs sans préoccupation de rentabilité à court terme. La concurrence du projet Kuiper d’Amazon demeure essentielle pour préserver un écosystème sain. Si la promesse d’une connectivité universelle est enthousiasmante, elle ne doit pas faire oublier l’importance d’un paysage concurrentiel équilibré dans ce secteur télécom stratégique de demain.

L’article Plus jamais perdus ? est apparu en premier sur Les Électrons Libres.

  •  

Stanford vs Neuralink : la guerre des implants

Les interfaces cerveau-machine (ICM) font parler d’elles, avec deux projets phares : l’implant de l’Université Stanford, qui traduit les pensées en paroles, et celui de Neuralink, porté par Elon Musk, qui vise à connecter le cerveau aux machines. Si les deux partagent des ambitions médicales, leurs approches, technologies et implications divergent. Comparatif…

Origines et objectifs

Stanford : lancé dans le cadre du projet BrainGate 2, l’implant de Stanford, dévoilé en 2025, se concentre sur la restauration de la parole pour les personnes paralysées, comme celles atteintes de la maladie de Charcot ou victimes d’AVC. Il cible le cortex moteur pour capter les intentions de parole et les traduire via une IA entraînée sur des milliers d’heures de données cérébrales.

Neuralink : fondée en 2016 par Elon Musk, Neuralink ambitionne plus large : initialement, restaurer la motricité et la communication pour les paralytiques. Mais à terme, elle vise à fusionner l’humain avec l’IA, voire à permettre de contrôler des interfaces externes par la pensée ou de restaurer la vision. Son premier essai humain a eu lieu en janvier 2024, avec quatre ans de retard néanmoins.

Fonctionnement

Stanford : l’implant utilise une centaine de microélectrodes insérées dans le cortex moteur pour capter les signaux neuronaux liés à la parole. Une IA décrypte ces signaux en mots, atteignant 74 % de précision sur un vocabulaire de 125 000 mots. Un mot de passe mental sécurise l’activation, avec 98 % de fiabilité.

Neuralink : baptisé Telepathy, c’est un dispositif de la taille d’une pièce de monnaie, implanté dans le crâne avec 64 fils ultrafins (1 024 électrodes) insérés dans le cortex par un robot chirurgical. Il capte les signaux neuronaux pour contrôler des appareils (curseur, clavier) via Bluetooth. Les premiers résultats montrent une détection prometteuse des « pointes neuronales ». Neuralink travaille aussi sur une nouvelle génération d’implants avec jusqu’à 16 000 électrodes, ce qui pourrait accroître sa précision pour de futures applications.

Résultats probants

Stanford : en août 2025, une patiente tétraplégique a retrouvé une voix synthétique imitant la sienne, avec un débit de 62 mots par minute, proche d’une conversation naturelle. D’autres tests ont permis de décoder des pensées spontanées.

Neuralink : en 2024, Noland Arbaugh, tétraplégique, a contrôlé un curseur et joué aux échecs par la pensée, décrivant l’expérience comme « intuitive ». Un second patient, implanté en août 2024, utilise l’implant pour jouer à des jeux vidéo et concevoir en 3D. Cependant, des problèmes de rétraction des fils ont affecté le premier patient.

Limites et défis

Stanford : l’implant nécessite une chirurgie invasive, avec risques d’infection ou de rejet. La précision de l’IA reste imparfaite, et le système demande un entraînement long. Sa portée est limitée à la parole pour l’instant.

Neuralink : la rétraction des fils, observée chez le premier patient, a réduit le nombre d’électrodes fonctionnelles de 85 %, impactant la performance. Les tests sur animaux (singes, cochons) ont soulevé des inquiétudes éthiques, avec des rapports de complications graves (paralysie, infections). La transparence limitée de Neuralink est critiquée, les annonces venant souvent de Musk, sans données scientifiques publiques.

Dangers éthiques

Stanford : les risques incluent le piratage des données neuronales et l’accès non autorisé aux pensées. Les chercheurs insistent sur la nécessité de « neurorights » – droits à l’inviolabilité mentale – pour protéger l’intimité mentale.

Neuralink : les ambitions d’Elon Musk (fusion avec l’IA, contrôle total par la pensée) font craindre une surveillance accrue ou une inégalité d’accès. Les controverses sur les tests animaux et le manque de transparence renforcent les doutes sur la sécurité et l’éthique.

Verdict

Stanford excelle dans la précision pour restaurer la parole, avec une approche académique rigoureuse, mais reste focalisé sur un usage médical. Neuralink, plus ambitieux, vise une révolution technologique, voire transhumaniste, mais sa fiabilité technique et éthique est questionnée. Les deux projets repoussent les limites du possible, mais soulèvent des questions brûlantes sur la vie privée et l’avenir de l’humanité.

Voir : L’implant qui fait parler la pensée !

L’article Stanford vs Neuralink : la guerre des implants est apparu en premier sur Les Électrons Libres.

  •  

AI is Not a Technology, It's a Subscription Company

L'IA n'est pas une technologie. C'est un abonnement comme le gaz. Et ça coupe dès que vous cessez de payer.
(via https://shaarli.zoemp.be/shaare/NcNPdg)

Au contraire de technologies que vous pouvez posséder (un ordinateur, un lave-linge, une voiture, un logiciel qui tourne en local (LibreOffice, Gimp..)) vous ne possédez pas d'IA. Vous utilisez un service externe... un service en réalité extrêmement couteux et actuellement vendu à perte.

Pour le dire autrement : Cela vous rend *fortement* dépendant des services des milliardaires. Et croyez-moi qu'lis sont impatient de vous faire cracher au bassinet, parce que les investisseurs s'impatientent.
(Permalink)
  •  

L’implant qui fait parler la pensée !

Imaginez : vous pensez à une phrase, et hop, elle s’affiche à l’écran ou sort avec votre propre voix synthétisée ! Ce n’est plus de la science-fiction, mais une réalité émergente grâce à un implant cérébral développé par des chercheurs de l’Université de Stanford.

Annoncé en août 2025 via une étude publiée dans la revue Cell, ce projet d’interface cerveau-machine (ICM) vise à redonner la parole aux personnes paralysées, comme celles atteintes de la maladie de Charcot (hélas, encore sans rémission) ou victimes d’AVC.

Le son du cerveau !

L’implant, un réseau de microélectrodes fines comme des cheveux, s’insère dans le cortex moteur, la zone du cerveau qui gère la parole. Ces sondes captent les signaux neuronaux émis quand on « pense » une phrase sans la prononcer – cette fameuse petite voix intérieure. Couplé à une IA entraînée sur des milliers de patterns cérébraux, le système traduit ces impulsions en mots ou en phrases en temps réel. Précision actuelle : environ 74 % pour un vocabulaire allant jusqu’à 125 000 mots. Le tout est sécurisé par un mot de passe mental, pensé pour activer le décodage, avec une fiabilité de 98 %.

Les tests sont impressionnants. Chez une patiente tétraplégique, privée de parole à la suite d’un AVC, l’implant a converti ses pensées en sa voix d’avant, avec un délai réduit à 80 millisecondes. D’autres essais, dans le cadre du projet BrainGate 2, ont décodé des pensées spontanées, comme imaginer écrire des phrases, montrant que le système peut fonctionner avec un entraînement préalable.

En mars 2025, une version similaire a permis une communication quasi instantanée pour une femme paralysée. Mais ne rêvons pas trop : il faudra encore plusieurs années de tests pour affiner les algorithmes et le hardware de l’implant avant de pouvoir le diffuser.

Attention aux « red flags »

Malgré ces avancées, le vocabulaire utilisable est souvent limité (1 024 mots dans certains modèles), l’IA commet des erreurs, et son entraînement demande des heures. Surtout, l’implantation est invasive, fondée sur une lourde chirurgie cérébrale, entraînant des risques d’infection ou de rejet. Par ailleurs, d’évidentes questions éthiques se posent. Et si vos pensées privées pouvaient être lues sans votre permission ? Le mot de passe représente certes une sécurité. Mais imaginez que votre cerveau soit quand même hacké ! Cela amènerait désormais à envisager la question des « neurorights » : des droits à l’inviolabilité mentale.

À lire : Stanford vs Neuralink : la guerre des implants

L’article L’implant qui fait parler la pensée ! est apparu en premier sur Les Électrons Libres.

  •