Vue lecture

Logement : pour sortir de la crise, il faut dépenser moins

43 milliards. La France dépense des fortunes pour le logement. Et pourtant, le marché locatif traverse une pénurie sans précédent, tandis que la construction atteint son plus bas niveau depuis la Seconde Guerre mondiale. Comment expliquer ce paradoxe apparent ? Et surtout, existe-t-il une autre voie ?

Le marché du logement français traverse une crise structurelle d’une ampleur inédite. Tous les voyants sont au rouge. L’offre locative s’évapore dans les métropoles, la concurrence pour un simple appartement devient délirante et les loyers s’envolent. Cette pénurie pousse à des extrémités sordides, certaines étudiantes en venant à troquer des « services sexuels » contre un toit. Face à ce mur, la construction est à l’arrêt. De l’Île-de-France au reste du pays, selon les statistiques nationales, les mises en chantier et les permis de construire dévissent brutalement.

Dans le même temps, les aides publiques directes au logement — APL, avantages fiscaux, subventions à la rénovation — représentent pas moins de 43,1 milliards d’euros. Soit quatre fois le budget de la justice !

La France dispose aussi du parc social le plus vaste d’Europe : 4,5 millions de logements HLM accueillent 11 millions de personnes. 70 % de la population est théoriquement éligible ! Mais 2,8 millions de ménages attendent un logement social, tandis que 400 000 foyers dépassent les plafonds de revenus et continuent d’en profiter.

Malgré cet interventionnisme massif — ou plutôt à cause de lui —, la production actuelle est deux fois inférieure à la demande. L’Union sociale pour l’habitat estime les besoins réels à 518 000 nouveaux logements par an. Quant au parc existant, il subit le choc normatif de plein fouet. Le ministère de la Transition écologique confirme lui-même que 567 000 logements locatifs privés pourraient sortir du marché, car classés G sur l’échelle du DPE.

Face à cette terrible pénurie, la réponse de l’État français est toujours la même : davantage de réglementation, davantage de subventions, davantage de contrôles. APL, encadrement des loyers, quotas de logements sociaux, normes environnementales… Pour quel résultat ? Les Français ne sont pas mieux logés malgré des dépenses publiques bien plus élevées que chez leurs voisins.

Le secteur est asphyxié par une tempête réglementaire. Côté coûts, la norme RE2020 et l’obligation de céder 30 % des programmes à perte (loi SRU) plombent l’équilibre financier. Côté délais, la bureaucratie impose une lenteur absurde. Il faut sept ans pour construire un immeuble en France, contre quatre en Allemagne. Enfin, la fiscalité confiscatoire (jusqu’à 60 % de taxes sur les loyers, explosion de la taxe foncière) et l’instabilité juridique (DPE, encadrement) achèvent de faire fuir les investisseurs.

Construire profite à tous, donc aux plus modestes

Face à la pénurie, une objection revient systématiquement : « construire des logements neufs, c’est construire des logements de luxe pour les riches. Ça ne résout pas le problème des plus modestes. » Cette intuition est contredite par l’ensemble de la littérature économique.

Un corpus de recherches publié dans les meilleures revues académiques démontre que la construction de logements neufs — même haut de gamme — bénéficie à tous les segments du marché via deux mécanismes complémentaires. D’abord, sur le court terme, les « chaînes de vacances » : les ménages aisés qui emménagent dans le neuf libèrent leur ancien logement, permettant à d’autres d’y accéder, qui eux-mêmes libèrent le leur, et ainsi de suite. Ensuite, sur le long terme, le « filtering » (filtrage) montre qu’à mesure qu’ils vieillissent, les logements descendent naturellement vers des segments moins chers. Mais ces deux mécanismes ne fonctionnent que si l’offre neuve est suffisante. Sinon, le processus s’inverse. Les riches achètent les vieux logements, chassant les pauvres (gentrification).

Une étude d’Evan Mast, publiée dans le Journal of Urban Economics, a suivi ces chaînes sur six cycles de déménagements dans les grandes métropoles américaines. Résultat : pour chaque immeuble neuf construit dans un quartier aisé, 40 % des déménagements finaux concernent des quartiers dont le revenu moyen est inférieur à la médiane.

Plus frappant encore : une étude suédoise ayant analysé l’ensemble des bâtiments et de leurs occupants entre 1990 et 2017 révèle la rapidité stupéfiante du mécanisme. Les chercheurs ont suivi chaque cycle de déménagements : le 0 désigne les ménages aisés qui emménagent dans le neuf, le 1 ceux qui s’installent dans les logements qu’ils viennent de libérer, le 2 ceux qui prennent la place des précédents, et ainsi de suite.

Résultat : dès le premier cycle — c’est-à-dire dès que les premiers occupants du neuf libèrent leur ancien logement —, les principaux bénéficiaires sont les ménages les plus modestes (quartile de revenus le plus bas). Aux cycles 3, 4 et 5, ceux qui déménagent gagnent moins de la moitié de ce que gagnent les riches du 0. En quelques mois, le déménagement des ménages aisés se diffuse à travers toute la distribution des revenus ! La conclusion des auteurs est sans appel : « Il n’est pas nécessaire de construire des logements directement abordables pour les ménages modestes ; ils bénéficieront de toute façon de l’effet de ruissellement. »

Austin, laboratoire de l’abondance de logements

J’approfondis

Quid de l’impact direct sur les loyers ? Dans les quartiers populaires américains, la construction d’immeubles neufs les a fait baisser de 5 à 7 % dans un rayon de 250 mètres par rapport aux logements plus éloignés.

Une étude récente menée à Helsinki entre 2021 et 2024 apporte une confirmation supplémentaire : dans un rayon de 200 mètres, la baisse est de 1,5 % après une nouvelle construction. Plus révélateur encore, les grands projets de plus de 60 logements produisent une réduction de 6 % sur les loyers environnants — et ce, même dans un contexte de marché atone marqué par un excès d’offre hérité de la pandémie.

Le constat le plus fascinant vient des États-Unis. Les villes qui ont laissé les promoteurs construire massivement des appartements de luxe ont vu les loyers chuter de manière généralisée. Le phénomène est tel qu’au dernier trimestre 2025, dans de nombreuses zones à forte offre, les logements anciens du marché libre sont désormais moins chers que ceux régulés et « abordables ». Dans le domaine libre, cela conduit à produire des loyers inférieurs à ceux du secteur aidé ! Des appartements privés accessibles à tous sont ainsi devenus plus économiques que des unités pour lesquelles il faut pourtant remplir des critères de revenus, être citoyen ou résident permanent, et bien souvent gagner à une loterie d’attribution.

Sortir de l’impasse de la rareté

La France s’épuise à financer une pénurie qu’elle organise elle-même par un excès de normes et de régulations. Le choix est désormais limpide : persister à bloquer la construction par pureté idéologique, ce qui condamne les plus précaires à des loyers prohibitifs, ou accepter de bâtir massivement.

Car le coût de l’inaction est un suicide social et économique. La pénurie agit comme une taxe privée sur la croissance qui brise l’ascenseur social. Elle piège les talents dans des bassins d’emploi sinistrés et empêche les entreprises de recruter. Aujourd’hui, un salarié qui quitterait une région en crise pour un meilleur poste à Paris ou Lyon verrait son niveau de vie baisser, son gain en termes de revenu étant immédiatement capté par la rente foncière.

Mais dissipons ici un malentendu géographique. L’urgence n’est pas de densifier un Paris intra-muros déjà à la limite du possible, avec 20 000 habitants au km². Le véritable gisement foncier dort juste de l’autre côté du périphérique. En première et deuxième couronne, des communes entières, pourtant parfaitement connectées — et bientôt irriguées par le Grand Paris Express —, affichent encore des densités de village. C’est là, autour de gares RER souvent bordées de simples pavillons, que se joue la bataille. Il est aberrant d’avoir investi des milliards dans des transports lourds pour desservir des zones qui refusent d’accueillir de nouveaux habitants.

Préfère-t-on vraiment la satisfaction morale consistant à refuser de voir « les riches » obtenir de beaux appartements, quitte à condamner les classes populaires à la précarité locative ? Le paradoxe est d’autant plus absurde que la construction fait mécaniquement baisser les prix — autrement dit, elle nuit aux intérêts des propriétaires actuels, ceux-là mêmes qui bloquent les projets par peur de voir la valeur de leur patrimoine diminuer.

New York et la dérive collectiviste et racialiste du logement

J’approfondis

La solution n’est ni de gauche ni de droite. Elle est surtout universaliste au sens propre du terme, permettant d’offrir une abondance de nouveaux logements profitant à toutes les classes sociales. Imaginez une France où les jeunes actifs n’auraient plus à choisir entre un deux-pièces hors de prix et une colocation étouffante. Où les familles pourraient s’agrandir sans fuir à 50 kilomètres de leur lieu de travail. Où les entreprises trouveraient à proximité de leur activité les employés dont elles ont besoin. Où les budgets des ménages, soulagés de centaines d’euros de loyer chaque mois, se reporteraient sur la consommation, l’épargne, les loisirs. Encourager la construction ne coûte rien au contribuable. Bien au contraire, cela génère des recettes fiscales, crée des emplois, dynamise l’économie locale et libère du pouvoir d’achat pour des millions de ménages.

La question n’est pas de savoir si la France peut se permettre de créer plus de logements dans les grandes villes, mais de savoir combien de temps elle peut encore accepter de payer le prix faramineux de la rareté.

L’article Logement : pour sortir de la crise, il faut dépenser moins est apparu en premier sur Les Électrons Libres.

  •  

Gemini 3 : le réveil de Google

Souvenez-vous : fin 2022, ChatGPT débarque et sème la panique chez Google. Bard, leur réponse précipitée, fait rire toute la Silicon Valley. 3 ans plus tard, le géant de Mountain View vient de reprendre la tête de la course à l’IA d’une manière qui force le respect de tous les observateurs. Son arme fatale : Gemini 3.

Le 18 novembre 2025, pendant que le monde débattait des « murs de scaling » — cette idée que l’IA atteindrait bientôt un plafond et que plus de données et de calcul ne suffiraient plus à la rendre plus intelligente —, Google a tranquillement lâché sa bombe. Gemini 3 arrive en escadrille : un modèle capable de comprendre du texte, du code et des images ; un nouvel environnement pour programmer avec une IA (Antigravity) ; un générateur d’images très avancé (Nano Banana Pro) ; une version assistée par IA de Google Scholar et une présence renforcée dans Google Search. L’ensemble ne ressemble plus à un simple modèle ajouté à la liste. C’est le début d’une infrastructure cognitive cohérente.

Gemini 3 Pro dépasse tous ses concurrents sur presque tous les tests habituels. Mais ce qui impressionne vraiment, c’est l’ampleur de son avance.

Les chiffres parlent d’eux-mêmes. Sur ARC-AGI 2, un test réputé pour mettre à genoux les modèles d’IA, Gemini 3 Pro atteint 31,1 % — soit deux fois le score de GPT-5.1. En mode « Deep Think », il grimpe même à 45,1 %, un bond de 3× par rapport à la concurrence.

Sur les examens qui testent le raisonnement de haut niveau, il atteint un niveau comparable à celui d’un doctorat, sans aide extérieure. En mathématiques avancées, là où GPT-5.1 frôle le zéro, Gemini 3 dépasse les 20 % de réussite.

Dans les classements globaux réalisés par plusieurs organismes indépendants (Artificial Analysis, Center for AI Safety, Epoch), il arrive en tête sur les capacités texte et vision, avec une avance marquée sur GPT-5.1 et Claude Sonnet 4.5. « C’est le plus grand saut que nous ayons vu depuis longtemps », confirme le Center for AI Safety. Sur MathArena Apex, Matt Shumer, observateur réputé du secteur, abonde dans le même sens : « GPT-5.1 a scoré 1 %. Gemini 3 a scoré 23 %. C’est un bond de 20× sur l’une des tâches de raisonnement les plus difficiles. »

ChatGPT détrôné

J’approfondis

Antigravity et le tournant du développement logiciel

Le plus intéressant n’est pas Gemini 3 en mode « chat ». C’est ce qui se passe dès qu’on le connecte à un ordinateur via Antigravity, la nouvelle plateforme de développement de Google. L’idée : tout ce qui se fait sur un ordinateur est, in fine, du code. Si un modèle sait coder, utiliser un terminal et un navigateur, il peut faire beaucoup plus qu’auto-compléter des fonctions.

Ethan Mollick, professeur à Wharton, a testé cette approche. Il a donné à Antigravity accès à un dossier contenant tous ses articles de newsletter, avec cette instruction : « Je voudrais une liste attractive de prédictions que j’ai faites sur l’IA dans un seul site, fais aussi une recherche web pour voir lesquelles étaient justes ou fausses. »

L’agent a d’abord lu tous les fichiers, puis proposé un plan de travail qu’Ethan a validé avec quelques ajustements mineurs. Ensuite, sans intervention humaine, il a fait des recherches web pour vérifier les prédictions, créé un site web complet, pris le contrôle du navigateur pour tester que le site fonctionnait et enfin emballé les résultats pour déploiement.

« Je ne communique pas avec ces agents en code, je communique en anglais et ils utilisent le code pour faire le travail », explique Mollick. « Ça ressemblait bien plus à gérer un coéquipier qu’à prompter une IA via une interface de chat. »

Site web créé par Antigravity avec un fact-check précis des prédictions passées de Ethan Mollick concernant l’IA

En fin de compte, on ne supprime pas le développeur, on change son rôle. Il devient chef d’orchestre, directeur de travaux autonomes.

Nano Banana Pro : les images qui comprennent enfin le texte et le contexte

Côté image, Google pousse une autre pièce sur l’échiquier : Nano Banana Pro, alias Gemini 3 Pro Image. Sous le nom potache, un modèle qui coche enfin toutes les cases que les créateurs réclament depuis 2 ans.

Techniquement, Nano Banana Pro est une couche visuelle bâtie sur Gemini 3 Pro : même fenêtre de contexte monstrueuse, même capacité de rester dans le monde réel grâce à Google Search, même logique de raisonnement. Il ingère jusqu’à 14 images de référence, garde la ressemblance de plusieurs personnages sur des scènes successives, rend du texte lisible dans l’image, y compris en langues variées, et permet de contrôler finement angle de prise de vue, profondeur de champ, colorimétrie, lumière.

Les benchmarks d’images le confirment : sur LMArena, Nano Banana Pro prend la tête avec une avance inhabituelle. En text‑to‑image, il inflige une avance de plus de 80 points d’Elo au meilleur modèle précédent; en image editing, il garde une marge confortable. Ce ne sont pas des petites optimisations : c’est le genre de saut qui oblige tout le monde à recalibrer ses attentes.

Les premiers retours terrain attestent de la puissance de ce modèle. Laurent Picard, par exemple, a testé la capacité du modèle à raconter un petit voyage initiatique d’un robot en feutrine, scène après scène, en 4K. Le robot garde son sac à dos, ses proportions, son style, même quand l’histoire lui fait traverser vallée, forêt, pont suspendu et hamac. Là où les modèles précédents perdaient rapidement le fil, Nano Banana Pro digère des prompts d’une grande longueur et en ressort des compositions complexes, cohérentes, avec parfois des détails ajoutés de manière pertinente (empreintes dans la neige, légères variations de lumière).

Pour les métiers de la créa, la portée est évidente. Un blueprint 2D d’architecte devient une visualisation 3D photoréaliste en une requête. Un storyboard approximatif se transforme en BD multilingue avec bulles lisibles et cohérentes. Un plan média se décline en variantes visuelles adaptées à chaque canal, en respectant les contraintes de texte et de marque.

Peut-être y a-t-il ici également un fantastique moyen de créer des illustrations pédagogiques pour les articles de média ? Voici par exemple un tableau de professeur à propos de l’article de Frédéric Halbran. La vraisemblance est frappante !

Quand Google Scholar découvre l’IA (mais refuse encore d’écrire à votre place)

Pendant ce temps-là, Google Scholar a discrètement lâché sa propre bombe : Scholar Labs, une couche IA au‑dessus du célèbre moteur académique.

L’idée n’est pas de vous fournir un rapport pseudo‑scientifique de 20 pages avec des références inventées. Scholar Labs choisit une voie beaucoup plus sobre : pas de “deep research” qui synthétise tout, mais du “deep search” qui cherche longtemps et trie finement.

Posez lui une vraie question de recherche en langage naturel. L’outil la découpe en sous‑questions, génère une série de requêtes Scholar, et commence à évaluer méthodiquement les papiers qui remontent. À chaque fois qu’il en juge un pertinent, il l’affiche avec les classiques de Scholar (titre, auteurs, liens, citations), plus un petit paragraphe expliquant en quoi ce papier répond à la question. Les gains de temps pour un chercheur peuvent être énormes. 

A titre d’exemple, j’ai récemment compilé les études explorant le rôle de la crise du logement pour expliquer la chute de la natalité dans le monde. Scholar Labs m’a fourni une liste d’études qui explorent ce sujet, avec un résumé des résultats pertinents de chaque étude. J’ai tout synthétisé à l’aide d’un LLM pour produire ce post sur X, en un rien de temps.

Quand l’IA se frotte au réel

Dans le monde médical, le laboratoire CRASH de l’Ashoka University a construit un benchmark radiologique exigeant, RadLE v1, composé de cinquante cas complexes. Jusqu’ici, tous les grands modèles généralistes – GPT‑5, Gemini 2.5 Pro, o3, Claude Opus – faisaient pire que les internes en radiologie. Avec Gemini 3 Pro, la courbe se renverse : 51 % de bonnes réponses via l’interface web, 57 % en moyenne via API en mode “high thinking”, contre 45 % pour les internes et 83 % pour les radiologues seniors.

Les auteurs notent des progrès très nets : meilleure localisation anatomique, descriptions plus structurées des signes, élimination plus argumentée des diagnostics alternatifs. Mais ils insistent sur le fait que l’écart avec les experts reste important, et que ces modèles ne sont pas encore prêts pour une autonomie clinique.

La guerre des puces

J’approfondis

Dans un tout autre registre, Gemini 3 Pro serait le premier LLM à battre des joueurs humains de haut niveau à GeoGuessr, ce jeu qui consiste à deviner un lieu à partir d’images Street View. Là encore, on dépasse la simple reconnaissance d’objets : il faut combiner architecture, panneaux, végétation, qualité de la route, style des poteaux électriques.

Pour les designers, les histoires se multiplient. Meng To est un designer et développeur reconnu, surtout connu pour son travail dans le design d’interfaces utilisateur (UI) et d’expérience utilisateur (UX). D’abord sceptique, il instruit “crée une landing page” à Gemini 3 qui donne un résultat violet générique. Puis il commence à nourrir Gemini 3 avec des références visuelles, du code, des bibliothèques précises. Là, le verdict change : layouts complexes, micro‑interactions propres, animations, respect précis d’une direction artistique. À condition de le traiter comme un partenaire qu’on briefe sérieusement, Gemini 3 devient extrêmement efficace et créatif.

Webdesign avec Gemini 3, prompté par le designer Meng To

La nouvelle norme : le coworker numérique par défaut

Gemini 3 Pro n’est pas parfait. Malgré ses prouesses, Gemini 3 souffre d’un défaut identifié par l’analyste Zvi Mowshowitz : « C’est une vaste intelligence sans colonne vertébrale. » Tellement focalisé sur ses objectifs d’entraînement, le modèle sacrifie parfois la vérité pour vous dire ce qu’il pense que vous voulez entendre, générant plus d’hallucinations que GPT-5 et sculptant des narratives au détriment de l’exhaustivité. Plus troublant encore : une forme de paranoïa où le modèle croit souvent être testé – Andrej Karpathy raconte comment Gemini a refusé de croire qu’on était en 2025, l’accusant d’utiliser l’IA générative pour créer de faux articles du « futur », avant d’avoir une « réalisation choquante » une fois l’outil de recherche activé.

Pour les développeurs, la question n’est plus « est‑ce que je dois utiliser un copilote ? » mais « à quel niveau de granularité je délègue aux agents ? fonction par fonction, tâche par tâche, projet par projet ? ». Ceux qui apprendront à découper, à contrôler, à documenter pour des co‑agents machinals garderont l’avantage.

Ces défauts n’empêchent pas un changement de paradigme fondamental. Pour les chercheurs, un outil comme Scholar Labs ne remplace ni PubMed ni les bibliothèques universitaires. Mais il déplace le centre de gravité de la recherche documentaire : la première passe d’exploration pourra être confiée à une IA qui lit des centaines de résumés et signale les papiers clés, tout en forçant chacun à devenir meilleur sur la lecture critique.

Pour les créatifs, Nano Banana Pro combiné à Gemini 3 signifie que la production – storyboards, variations, déclinaisons – n’est plus le goulet d’étranglement. Le vrai travail devient la construction de l’univers, des messages, des contraintes, des références. Les studios qui comprendront cela pourront produire plus, mieux, sans brûler leurs équipes.

Pour les domaines sensibles, Gemini 3 rappelle une réalité peu confortable : la frontière entre « modèle généraliste » et « outil spécialisé dangereux »” se rétrécit. On ne pourra pas se contenter d’interdire quelques API publiques ou de mettre des filtres de surface. Il faudra des protocoles sérieux d’évaluation, de monitoring et de responsabilité partagée entre éditeurs, utilisateurs et régulateurs.

Dans tous les cas, nous assistons à un véritable point de bascule. En moins de 3 ans, on est passé d’un chatbot amusant qui écrit des poèmes sur des loutres à un système capable de négocier des benchmarks de haut niveau, de co‑écrire des articles scientifiques, de refondre des interfaces, de diagnostiquer des cas radiologiques difficiles mieux que des internes et de piloter un environnement de développement complet.

Gemini 3, avec Nano Banana Pro, Antigravity et Scholar Labs, ne clôt pas ce chapitre. Nous en sommes encore au tout début de la course à l’IA ! Il met simplement la barre plus haut pour tout le monde et rend explicite ce qui était encore implicite : la norme, désormais, ce n’est plus de faire sans ces systèmes. C’est de décider comment on les intègre dans nos vies et dans nos organisations, et comment on les dépasse.

L’article Gemini 3 : le réveil de Google est apparu en premier sur Les Électrons Libres.

  •  

Electroscope #4 : des robots, de l’IA et du carburant propre

Chaque lundi, Les Électrons Libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Nabla Bio (JAM-2) et Chai Discovery (Chai-2) : L’IA au service de la conception de traitements médicaux

Et si l’IA générative permettait de concevoir les médicaments de demain ? Nous sommes peut-être à l’aube de la fin de la « loterie médicale ». Jusqu’à présent, trouver un nouveau médicament ressemblait à une partie de fléchettes jouée dans le noir. On testait des milliers de molécules en espérant toucher une cible, un processus lent, ruineux et souvent voué à l’échec. L’arrivée simultanée des modèles IA JAM-2 et Chai-2 promet de changer radicalement la donne.

JAM-2 de la startup Nabla Bio fonctionne comme une usine qui livre directement des anticorps efficaces et stables à vitesse fulgurante. Le modèle excelle sur les protéines GPCR, des interrupteurs cellulaires qui régulent tension, humeur, douleur et inflammation et s’avéraient jusque-là presque impossible à cibler. L’espoir : générer des anticorps contre les cancers (en visant des cellules tumorales spécifiques), les maladies auto-immunes (spondylarthrite, polyarthrite, psoriasis, sclérose en plaques), les infections, et à terme l’obésité, le diabète ou les douleurs chroniques.

De son côté, Chai-2, le dernier modèle d’IA développé par Chai Discovery, représente une avancée majeure dans la conception de novo (c’est-à-dire entièrement à partir de zéro) d’anticorps et de protéines thérapeutiques. Il excelle sur les cancers ultra-ciblés, capable de distinguer des mutations tumorales au niveau d’un seul acide aminé pour créer des thérapies personnalisées. Sa précision lui permet aussi d’activer des mécanismes de défense naturels du corps plutôt que simplement les bloquer.

L’un offre rapidité et faisabilité industrielle, l’autre une finesse fonctionnelle inédite. Ensemble, ils transforment la découverte de traitements en discipline d’ingénierie prévisible, ouvrant la voie à des maladies jugées jusqu’ici hors de portée.

Physical Intelligence π*0.6 : Le robot qui apprend de ses échecs

Demain, des robots s’occuperont du lave-vaisselle, du linge, du rangement. Mais un robot qui réussit une tâche en démo, c’est banal ! Un robot qui enchaîne pendant des heures sans commettre d’erreurs et qui apprend de ses propres erreurs comme un apprenti humain, c’est autre chose. C’est l’innovation du nouveau modèle π*0.6 de la startup Physical Intelligence : une IA robotique qui ne se contente pas d’imiter, mais qui se corrige.

Le secret ? Un algorithme de renforcement baptisé RECAP. Il regarde des heures d’enregistrements et distingue les actions réussies de celles qui ratent – la tasse posée à côté de la machine, la languette du carton manquée. π*0.6 garde ces erreurs en mémoire et annote chaque geste : « ça t’a rapproché du but » ou « ça t’a éloigné ».

Les résultats parlent d’eux-mêmes : 13 heures d’affilée à servir des cafés, des heures à plier du linge sans planter. Sur les tâches complexes, le taux de réussite double. Soutenue par Jeff Bezos et CapitalG (Google), Physical Intelligence vient de lever 600 millions de dollars, atteignant une valorisation de 5,6 milliards pour développer le cerveau universel des robots.

Zoox : Un robotaxi dans une voiture conçue pour ça dès le départ

Pour les habitants de San Francisco, l’arrivée, le 18 novembre, du nouveau robotaxi de Zoox promet de bouleverser le quotidien des habitants : vous montez dans une petite navette électrique sans volant ni pédales, et elle vous emmène gratuitement à travers la ville. L’impact immédiat pour l’usager est un transport plus sûr – la machine ne boit pas, n’envoie pas de SMS et voit à 360 degrés – et un temps de trajet transformé en temps libre, dans un salon roulant où on se fait face.

Le véhicule de cette filiale d’Amazon constitue une véritable rupture. Il ne s’agit pas d’un SUV modifié comme les voitures de leur célèbre concurrent Waymo, mais d’une capsule bidirectionnelle conçue dès le départ pour l’autonomie : portes latérales façon tram, capteurs partout, pas de contrôles manuels.

L’exercice reste contraint par des réglementations strictes qui requièrent la présence de contrôles manuels dans toutes les voitures. Zoox se trouve encore sous une exemption “recherche” qui leur interdit de facturer des trajets, d’où la gratuité actuelle. L’objectif est désormais pour l’entreprise d’obtenir une autorisation commerciale pour faire rouler jusqu’à 2 500 de leurs véhicules autonomes par an, dès 2026.

Valar Atomics : Le carburant propre grâce à l’atome

Et si c’était la clé pour décarboner l’aviation ? La startup Valar Atomics vient de franchir une étape historique avec NOVA, un test de réacteur nucléaire réalisé avec le laboratoire national de Los Alamos. Le but est de construire des milliers de petits réacteurs à haute température regroupés en « gigasites » pour produire chaleur, électricité, hydrogène et recycler du CO₂ en carburants synthétiques propres.

Le 17 novembre, NOVA a atteint la criticité : une réaction nucléaire en chaîne s’est déclenchée et maintenue d’elle-même. Le réacteur utilise du combustible TRISO (petites billes d’uranium enrobées de céramique) ultra-résistant aux températures extrêmes. En 2 ans, avec 19 millions de dollars, Valar prouve que l’atome peut être agile et sûr. C’est la première des 11 startups d’un programme fédéral américain à franchir ce cap, avec l’objectif de voir trois d’entre elles atteindre la criticité avant le 4 juillet 2026 (jour de la fête nationale US).

L’ambition de Valar Atomics dépasse largement l’électricité propre et vise les hydrocarbures synthétiques.  La chaleur nucléaire capturera le CO₂ de centrales à charbon ou de l’air pour le transformer en essence ou kérosène neutres. Plutôt que d’abandonner les énergies fossiles du jour au lendemain, la stratégie transforme les émissions existantes en carburants propres.

Meta SAM 3 : l’IA qui découpe des vidéos à une vitesse surhumaine

A ce jour, masquer un visage sur une vidéo, compter les voitures dans un parking ou vérifier un composant industriel exige encore des heures de travail humain et des coûts importants. Le nouveau modèle SAM 3 de Meta change la donne. On lui dit « la voiture rouge » ou « les mains », et il découpe et suit l’objet au pixel près dans n’importe quelle image ou vidéo.

Plus besoin de cliquer laborieusement. SAM 3 comprend des descriptions textuelles simples. Il traite des centaines d’objets en quelques millisecondes sur un GPU standard, rendant possible l’analyse en temps réel sans exploser les coûts.

SAM 3 remplace les armées d’annotateurs, un métier ingrat où l’on passe ses journées à tracer des contours sur des milliers d’images identiques. L’IA propose les masques, les humains valident. Meta a ainsi produit des centaines de millions de masques sur 4 millions de concepts visuels, à une vitesse impossible pour des équipes humaines.

Bien que le cœur de SAM 3 soit axé sur la segmentation et le tracking en 2D pour les images et vidéos, Meta a sorti en même temps SAM 3D, un complément dédié qui transforme précisément des photos 2D en objets 3D réalistes. C’est une extension naturelle de la famille SAM, et les deux modèles sont souvent utilisés ensemble pour une expérience fluide.

Les applications émergent déjà. Des développeurs créent des correcteurs de technique de tir en temps réel pour basketteurs, des analyseurs de film de match qui repèrent les erreurs tactiques, des trackers qui détectent la dégradation des mouvements avant blessure.

L’article Electroscope #4 : des robots, de l’IA et du carburant propre est apparu en premier sur Les Électrons Libres.

  •  

Voitures autonomes : le monde d’après

Demain, pourrons-nous filer à près de 200 km/h en toute sécurité ? Traverser des villes sans parkings ? Faire la sieste, regarder une série ou travailler au volant ? La révolution des véhicules autonomes approche, et avec elle la promesse d’une nouvelle liberté accessible à tous.

La phase d’expérimentation de la voiture autonome est terminée. Après des décennies de tests, son industrie se déploie à grande échelle. Ce qui était hier une curiosité technologique devient un marché en pleine expansion qui pose des questions de société.

Filiale d’Alphabet, Waymo s’affirme comme le leader mondial incontesté du secteur, avec plus de 161 millions de kilomètres parcourus sans conducteur et plus de 10 millions de trajets commerciaux effectués, soit une progression vertigineuse de 51 % depuis février 2025.

En plus de prévoir d’ajouter neuf nouvelles villes aux cinq où circulent ses véhicules (Phoenix, Los Angeles, San Francisco, Atlanta et Austin), Waymo s’attaque à l’un des marchés les plus complexes et convoités : New York. En juin, l’entreprise a annoncé son retour dans la « Big Apple » après l’obtention d’un permis l’autorisant à conduire de manière autonome avec un « conducteur de sécurité » derrière le volant.
Mais son expansion ne s’arrête pas aux frontières américaines. Après avoir démarré des tests à Tokyo, l’entreprise a révélé en octobre qu’elle commencerait à offrir des trajets entièrement autonomes à Londres dès 2026.

Sur la base d’une analyse de 155 millions de kilomètres, ses données révèlent une sécurité spectaculairement supérieure à celle des conducteurs humains, avec 91 % de collisions graves, 80 % d’accidents corporels et 92 % de piétons blessés en moins.

Les voitures autonomes, plus sûres que les humains

Les principaux concurrents de Waymo : Zoox, Tesla et… Nvidia

Dans le même registre, Zoox, la discrète mais puissante filiale d’Amazon, a aussi ouvert son service de taxis autonomes à Las Vegas en septembre dernier. Elle est devenue la première entreprise au monde à lancer un tel service payant dans un véhicule conçu spécifiquement à cet effet.

Souvent à la pointe de l’innovation, Tesla affiche en revanche un décalage entre ambitions et réalité. Malgré des capacités prometteuses en conditions difficiles, son offre, lancée à Austin en juin 2025, nécessite toujours un superviseur de sécurité. L’objectif de « couvrir la moitié de la population américaine d’ici fin 2025 » se limite à une vingtaine de véhicules sur 635 km² dans la ville texane.

Enfin, Uber a orchestré une alliance stratégique réunissant Nvidia pour son intelligence artificielle, Lucid pour ses SUV électriques et Nuro pour le logiciel de conduite autonome. Ce partenariat nourrit de grandes ambitions : déployer 20 000 robotaxis sur six ans, intégrés dans une flotte totale de 100 000 véhicules d’ici 2027.

L’autoroute et la neige : les frontières de la conduite autonome

J’approfondis

La Chine au taquet, l’Europe à la traîne

À l’automne 2025, le géant chinois Baidu égale désormais Waymo avec 250 000 courses autonomes hebdomadaires. Cette percée illustre la stratégie gouvernementale de Pékin, qui s’imagine en leader mondial d’ici 2035. Après avoir gelé les permis à la suite des protestations de taxis, les régulateurs ont repris leur délivrance, privilégiant l’intérêt stratégique face à la concurrence américaine.

Mais l’Empire du Milieu a d’autres cartes en main : Pony AI, soutenue par Toyota, qui vise 1 000 robotaxis et s’internationalise ; ou WeRide, présente dans trente villes réparties sur dix pays, qui a signé avec Uber pour quinze villes mondiales, avec déjà un service opérationnel en Arabie Saoudite.

Face à cette offensive, l’Europe ne compte qu’un seul champion : la startup britannique Wayve. Fondée en 2017, elle développe une IA qui apprend à conduire comme un humain, sans cartes en haute définition. Soutenue par Nvidia et Microsoft, elle cherche à devenir fournisseur de logiciels pour les constructeurs (Nissan dès 2027) et plateformes (Uber à Londres en 2026). Son approche promet aux constructeurs d’intégrer des systèmes avancés de conduite autonome sans surcoûts matériels.

Hélas, cette société incarne les limites et le malaise du vieux continent. Le fait qu’une seule entreprise européenne porte ses couleurs dans le domaine de l’IA automobile révèle l’ampleur du retard accumulé.

Les progrès des camions autonomes

J’approfondis

Des millions de vies sauvées et des villes sans parkings

Quels sont les impacts attendus de la généralisation des voitures autonomes ? D’abord, rappelons que l’erreur humaine est à l’origine de 94 % des accidents mortels. Les systèmes autonomes ne boivent pas, ne se fatiguent pas, ne regardent pas leur téléphone et réagissent quasi instantanément.

Si les promesses se réalisent, les accidents pourraient baisser de 80 à 90 % avec une flotte entièrement automatisée. À l’échelle mondiale, cela représenterait potentiellement 1,25 million de vies sauvées chaque année. Concernant l’urbanisme, la demande de parkings en centre-ville pourrait s’effondrer de 90 %, puisqu’une voiture autonome vous dépose et repart.

Résultat : 20 à 30 % de l’espace urbain libéré. C’est la plus grande « banque foncière » du XXIᵉ siècle. À Chandler, en Arizona, on remplace déjà 40 % des places de parking obligatoires par des zones de dépose pour véhicules autonomes.

Des transports bouleversés

La vraie révolution se jouera peut-être loin des métropoles. Dans les zones rurales, le véhicule autonome résout une équation impossible : comment offrir des transports publics de qualité là où la densité de population est trop faible pour rentabiliser bus et trains ?

Dans certains pays comme le Japon, le coût d’exploitation du transport rural est trois fois supérieur aux recettes, essentiellement à cause des salaires des chauffeurs. En supprimant ce coût, les navettes autonomes rendent viable un transport à la demande, flexible, venant vous chercher à domicile.

Fini les lignes de bus désertes à horaires fixes, fini l’isolement des personnes âgées en zone rurale. Imaginez une flotte de véhicules autonomes assurant le « dernier kilomètre », se coordonnant avec des navettes plus grandes sur les axes principaux. C’est le droit à la mobilité pour tous, à faible coût.

Le bouleversement sera particulièrement fort pour celles et ceux qui ne peuvent pas conduire : les personnes âgées, les malvoyants, les personnes handicapées, les jeunes en dessous de l’âge légal. Pour toutes ces personnes, le véhicule autonome, c’est l’indépendance retrouvée. C’est une révolution d’inclusion, qui redonne de la mobilité à ceux qui en étaient privés.

Pour tous les autres, outre les immenses gains de sécurité, la promesse de la voiture autonome, c’est celle du confort : ce temps passé au volant, concentré et stressé, devient un moment de détente ou de productivité. Un trajet de 90 minutes n’est plus une contrainte insupportable s’il permet de travailler ou de se reposer. C’est votre bureau mobile, votre salon roulant, votre salle de sieste.

Le temps de trajet pourrait être grandement raccourci. Grâce au « platooning » — cette capacité des véhicules autonomes à rouler en convoi serré en communiquant entre eux —, l’occupation d’une voie pourrait être multipliée par six. Cela permettrait d’éliminer les embouteillages et ralentissements. Des expérimentations ont montré qu’on peut maintenir seulement quatre mètres entre chaque voiture à 120 km/h, en toute sécurité.

Cette coordination ouvre aussi la voie à une augmentation des vitesses limites sur autoroute. Si tous les véhicules d’une voie sont autonomes et synchronisés, on peut imaginer relever progressivement la vitesse autorisée bien au-delà des 130 km/h actuels, tout en maintenant un très haut niveau de sécurité.

La fin de la conduite humaine ?

Qui sera responsable en cas d’accident ? Il est probable que la responsabilité bascule du conducteur vers le constructeur et l’opérateur. En France, un décret de 2021 dispose que, lorsque le système de conduite automatisée est activé, le conducteur ne peut plus être tenu pour responsable s’il a respecté les conditions d’utilisation.

La conduite manuelle ne sera probablement pas immédiatement interdite par la loi. Quand les véhicules autonomes auront prouvé qu’ils sont cent fois plus sûrs que les humains, il est toutefois probable que votre prime d’assurance pour conduire manuellement devienne prohibitive, ou tout simplement que cette pratique soit interdite pour minimiser les risques.

Résistances syndicales et législatives

L’expansion des robotaxis se heurte cependant à une opposition politique croissante. À Seattle, des manifestants ont protesté contre l’arrivée de Waymo, craignant pour les emplois des chauffeurs Uber et Lyft. Les puissants syndicats Teamsters poussent pour des législations restrictives dans plusieurs États : Washington, le Massachusetts et la Californie, où le gouverneur Newsom a opposé son veto à deux reprises à des projets exigeant un conducteur humain dans les véhicules autonomes lourds.

Pourtant, l’histoire technologique montre que l’emploi se transforme plus qu’il ne disparaît. Les tracteurs ou les distributeurs automatiques n’ont pas créé de chômage massif, mais ont permis aux travailleurs d’évoluer vers des postes moins pénibles. Les emplois liés aux véhicules autonomes — maintenance technique, supervision de flotte — offrent généralement de meilleures conditions qu’un métier de conducteur aux revenus précaires et aux longues heures assises. L’enjeu n’est pas de freiner le progrès, mais d’accompagner cette transition professionnelle.

Cette révolution ne se résume pas au confort de pouvoir se détendre en roulant. Elle ouvre une transformation industrielle, urbaine et sociale majeure, qui va modifier en profondeur notre rapport à la voiture, à la ville et au déplacement. Un bouleversement, mais aussi un champ d’opportunités que citoyens, entreprises et décideurs devront s’approprier sans attendre.

L’article Voitures autonomes : le monde d’après est apparu en premier sur Les Électrons Libres.

  •  

Comment le monde s’est enrichi

Pourquoi le monde moderne est-il si riche ? La technologie, à elle seule, ne l’explique pas. Pour Joel Mokyr, auteur de La culture de la croissance et nouveau prix Nobel d’économie aux côtés de Philippe Aghion et Peter Howitt, la Révolution industrielle est née d’un big bang intellectuel : l’apparition d’une culture du progrès… que nous avons peut-être oubliée depuis.

Pendant des millénaires, les innovations — moulin à eau, harnais, imprimerie — améliorent la vie sans créer de progrès durable. Au point que chaque génération contemple avec nostalgie la grandeur disparue de l’Antiquité. Les savants, issus des élites cultivées, et les inventeurs, en prise avec le quotidien, ne se côtoient pas. Ils travaillent séparément, sans théorie commune. Impossible, pour un innovateur médiéval, de passer du moulin à eau aux lois de l’hydraulique.

Mais vers 1760, tout bascule. Les innovations s’enchaînent, se renforcent, et le progrès devient une habitude. D’une génération à l’autre, les gens vivent plus longtemps, mangent mieux, travaillent moins et accèdent à des ressources qui, jadis, étaient le privilège exclusif des rois.

Joel Mokyr montre que cette révolution ne vient pas seulement des institutions ou des marchés, mais d’une mutation culturelle : la foi dans la connaissance, le goût du progrès, la récompense de l’innovation. Au cœur de cette culture, des « entrepreneurs culturels » qui osent transformer le monde. À leur sujet, l’économiste cite George Bernard Shaw : « L’homme raisonnable s’adapte au monde ; le déraisonnable persiste à essayer d’adapter le monde à lui-même. Tout progrès dépend donc de l’homme déraisonnable. »

Bouleverser l’ordre établi

Deux figures se trouvent au cœur de ce bouleversement : Francis Bacon et Isaac Newton.

Au début du XVIIᵉ siècle, la science n’est qu’une branche de la philosophie, soumise à l’autorité des Anciens. Bacon rompt avec cette tradition : elle ne doit pas servir uniquement à décrire le monde, mais à le transformer pour améliorer concrètement la condition humaine. Il appelle à unir la théorie des savants et le savoir-faire des artisans. La connaissance devient utile, la recherche se met au service du progrès.

Newton en offre la démonstration. Ses Principia Mathematica révèlent que l’univers obéit à des lois simples, universelles et accessibles à la raison. Cet ordre nouveau nourrit un immense optimisme : comprendre la nature, c’est pouvoir l’utiliser. Dans la Grande-Bretagne du XVIIIᵉ siècle, entrepreneurs et manufacturiers en tirent la conviction que la science peut résoudre leurs problèmes concrets ou offrir de meilleurs produits à leurs clients. La science se diffuse, elle se démocratise.

Le savant et l’artisan

J’approfondis

Premier savant mondialement célèbre, anobli et enterré à Westminster, Newton fait de la science une voie d’accès au prestige social. Avec Bacon, il pose les fondations culturelles sur lesquelles les Lumières bâtiront le monde moderne. La confiance dans la raison et le progrès devient alors la source de l’explosion de richesse qui suivra.

Unité intellectuelle, fragmentation politique

La Révolution industrielle n’avait rien d’inévitable. Elle aurait pu ne jamais avoir lieu, ou surgir ailleurs. Des « entrepreneurs culturels » sont apparus en Chine ou dans le monde islamique, mais ils furent étouffés, marginalisés, réduits au silence.

En Europe, au contraire, ils ont trouvé un allié inattendu : le chaos politique. Entre 1500 et 1700, le continent, morcelé en royaumes, principautés et cités rivales, ressemble à un champ de bataille permanent. Ce désordre crée un véritable marché des idées. Aucun pouvoir ne peut imposer son orthodoxie à tous. Un savant chassé de Paris se réfugie à Amsterdam, un inventeur censuré à Rome s’installe à Londres. Descartes, Locke et Bayle prospèrent grâce à cette libre circulation.

Les princes européens eux-mêmes se disputent les talents. Mathématiciens, ingénieurs et philosophes négocient leur patronage, changent de protecteur et accroissent leur prestige.

Quand l’Europe osa ce que la Chine refusa

J’approfondis

Ce dynamisme s’appuie sur la République des Lettres, un réseau informel de savants qui communiquent par-delà les frontières et inventent ce que nous appelons aujourd’hui la science ouverte. La réputation joue un rôle clé : pour l’obtenir, il faut publier, soumettre ses travaux à la critique des pairs, établir l’antériorité de sa découverte. Le secret devient contre-productif.

Enfin, l’Europe se distingue par sa perméabilité intellectuelle. Là où d’autres civilisations dressent des barrières, elle emprunte sans complexe : poudre et imprimerie chinoises, chiffres arabes, techniques textiles indiennes. Le continent devient le lieu de convergence des savoirs du monde.

Que reste-t-il aujourd’hui de la culture qui a permis le Grand Enrichissement ? De cette foi dans la connaissance, de cette volonté de comprendre la nature pour l’harnacher aux besoins humains ? La marche du progrès n’est pas éternellement acquise. Elle peut s’éroder, se diluer, disparaître. La peur des OGM, des vaccins, de l’intelligence artificielle ou du nucléaire en témoigne : autant d’inquiétudes souvent démesurées face à des technologies qui améliorent la vie et préservent l’environnement. Comme au XVIIIᵉ siècle, nous devons célébrer la connaissance plutôt que la craindre, encourager l’innovation plutôt que la freiner, voir dans la science un instrument d’émancipation plutôt qu’une menace.

L’article Comment le monde s’est enrichi est apparu en premier sur Les Électrons Libres.

  •