Vue normale

Pas de toit, pas de berceaux

16 janvier 2026 à 05:56

Pour la 1ère fois depuis 1944, les décès surpassent les naissances en France. En cause ? Un marché immobilier devenu le « premier contraceptif de la nation ».

L’année 2025 restera dans les annales comme celle d’une rupture historique. Pour la première fois depuis 1944, la population française a vu son solde naturel basculer dans le rouge : les décès surpassent désormais les naissances. Avec un taux de fécondité tombé à 1,56 enfant par femme — son niveau le plus bas depuis 1918 — le pays semble rejouer le scénario dénataliste des années 1930. Si les causes de cet hiver démographique sont multiples, un rapport récent de l’expert Bertrand Moine, Étude logement & natalité, identifie un coupable majeur : un marché immobilier exsangue, devenu le plus puissant contraceptif de la nation.

Une pénurie de logements sans précédent s’est abattue sur la France, provoquant une explosion des prix qui asphyxie les ménages. L’indicateur de pouvoir d’achat immobilier des primo-accédants vient sceller ce diagnostic : en 2025, un jeune couple a perdu 25 % de sa capacité d’acquisition par rapport à l’an 2000, et près de la moitié par rapport aux années 1970. Ce graphique illustre l’effondrement brutal d’une promesse générationnelle, transformant l’accès à la pierre en un parcours du combattant où le travail ne suffit plus à compenser l’envolée des prix.

Comme le souligne Bertrand Moine, cette crise agit comme une « bombe sociale à mèche lente » qui entrave la possibilité même de débuter sa vie adulte sous son propre toit.

Le « Giving Up » : quand l’avenir se dérobe

Dans son analyse, Bertrand Moine met en lumière un basculement psychologique profond qu’il nomme le « Giving Up » (le renoncement). Face à un immobilier devenu structurellement inabordable, une part croissante de la jeunesse ne se contente plus de différer son projet d’achat : elle l’abandonne purement et simplement. Ce renoncement marque une rupture avec les aspirations des générations précédentes. La propriété étant le socle de la projection dans le temps long, son abandon entraîne dans sa chute le projet familial. On ne bâtit pas une famille sur un sol meuble et incertain !

Pour établir ce constat, l’expert s’appuie sur une approche empirique croisant les données de l’INSEE avec les recherches économiques mondiales les plus récentes. Sa méthodologie révèle une distorsion majeure entre l’offre existante et les besoins des familles. La crise est structurelle. Le parc immobilier français est en situation de grave pénurie, tandis que les zones d’emploi ne produisent que de petites surfaces, studios ou deux-pièces, totalement inadaptées à l’accueil d’un enfant.

Crise du logement : la grue doit survivre à la cigogne

J’approfondis

Le résultat de cette analyse est sans appel. Le blocage du marché immobilier et la contrainte d’espace expliquent, à eux seuls, jusqu’à 51 % du déclin de la fécondité observé ces dernières années.

Ce chiffre met en lumière un gouffre terrible entre les aspirations des citoyens et leur réalité quotidienne : alors que les Français souhaitent avoir 2,3 enfants en moyenne (source : étude INED 2024), ils se heurtent à un plafond de verre matériel qui fait s’effondrer la natalité réelle à seulement 1,56 enfant par femme en 2025. Ce fossé béant démontre que l’hiver démographique n’est pas le fruit d’un choix culturel ou d’un désintérêt pour la famille, mais bien la conséquence directe d’une asphyxie matérielle organisée.

La biologie du mètre carré

Plusieurs travaux de recherche confirment aujourd’hui ce lien direct entre béton et berceaux. Ils démontrent d’abord que le coût du logement agit comme une barrière infranchissable : parce qu’un enfant est, par définition, un « bien intensif en espace », l’envolée des prix du mètre carré a rendu le projet de naissance physiquement irréalisable pour une large part de la population.

Cet obstacle est particulièrement critique pour les jeunes adultes. L’accès précoce à la propriété entre 20 et 25 ans augmente la probabilité de fonder une famille de 32 %, alors qu’à l’inverse, l’étroitesse des logements actuels contraint 39 % des moins de 30 ans à reporter leur projet familial. Mais, au-delà de la surface brute, c’est la configuration même de l’habitat qui pèse sur la démographie. Le nombre de chambres s’avère en effet bien plus déterminant que le métrage total : le taux de fécondité bondit de façon spectaculaire dès lors qu’un foyer dispose de trois chambres plutôt que deux.

Le paradoxe français est ici frappant : tandis que les jeunes couples s’entassent dans des métropoles saturées de studios, 7,6 millions de résidences familiales sont aujourd’hui sous-occupées par des seniors qui n’ont aucune incitation économique à les libérer. L’enquête montre que, pour la moitié des ménages, la présence d’une chambre supplémentaire (la « nursery ») est le déclencheur psychologique essentiel pour passer du désir à la réalité.

Un choc d’offre de logements au service de la vie

Face à ce terrible péril démographique, le rapport de Bertrand Moine appelle à une rupture de paradigme. La solution ne viendra pas de simples primes à la naissance, mais d’une libération massive de l’espace par un traitement de choc réglementaire et fiscal.

Il faut construire massivement, non seulement en volume, mais en structure. Produire de grands logements familiaux là où se trouvent les emplois est 2,3 fois plus efficace pour la natalité que de multiplier les petites surfaces.

Afin d’obtenir ces nouveaux grands logements familiaux, supprimons les obligations de parking calculées par chambre, qui poussent les promoteurs à sacrifier les chambres familiales pour la rentabilité. En construisant grand en zone urbaine, on évite le renoncement lié aux temps de transport épuisants, autre frein majeur à la natalité.

La reconquête des berceaux passera également par l’abolition des « frictions fiscales », c’est-à-dire les droits de mutation. Aujourd’hui, racheter un logement plus petit est taxé à 8 %, forçant les seniors à brûler leur capital pour simplement réduire leur surface. En supprimant cette punition fiscale, nous permettrions aux aînés de libérer sereinement un stock immédiat de maisons et de grands appartements pour les jeunes couples.

Bertrand Moine rappelle en outre que l’empilement législatif actuel contribue à la pénurie structurelle. Il appelle à abolir l’encadrement des loyers, sujet que nous avons déjà abordé. Ce dispositif a en effet provoqué un effondrement de l’offre locative là où il a été appliqué (jusqu’à -57,5 % à Paris). En maintenant artificiellement les prix, on réduit la rentabilité et on pousse les bailleurs à retirer leurs biens du marché, au moment où les jeunes couples en ont le plus besoin.

L’auteur de l’étude suggère également de lever les interdictions liées au DPE. L’interdiction de louer les passoires thermiques (classe G puis F) menace de retirer pas moins de 1,1 million de logements du marché locatif privé. Bertrand Moine plaide pour des incitations à la rénovation plutôt qu’une politique d’exclusion, qui réduit drastiquement l’offre disponible en centre-ville.

L’hiver démographique n’est pas une fatalité, mais le fruit de nos choix politiques et culturels. Si les causes sont multiples, le logement représente un obstacle majeur. Pour que la France retrouve le chemin des berceaux, elle doit redonner à la jeunesse les moyens physiques de son ambition. Cela exigera une révolution de l’offre : retrouver le chemin des grues pour bâtir des logements adaptés, libérer la mobilité pour fluidifier le stock, et restaurer une liberté contractuelle garantissant la pérennité du marché locatif. Relancer la natalité, c’est d’abord déverrouiller les toits de la nation.

L’article Pas de toit, pas de berceaux est apparu en premier sur Les Électrons Libres.

Logement : pour sortir de la crise, il faut dépenser moins

8 janvier 2026 à 06:11

43 milliards. La France dépense des fortunes pour le logement. Et pourtant, le marché locatif traverse une pénurie sans précédent, tandis que la construction atteint son plus bas niveau depuis la Seconde Guerre mondiale. Comment expliquer ce paradoxe apparent ? Et surtout, existe-t-il une autre voie ?

Le marché du logement français traverse une crise structurelle d’une ampleur inédite. Tous les voyants sont au rouge. L’offre locative s’évapore dans les métropoles, la concurrence pour un simple appartement devient délirante et les loyers s’envolent. Cette pénurie pousse à des extrémités sordides, certaines étudiantes en venant à troquer des « services sexuels » contre un toit. Face à ce mur, la construction est à l’arrêt. De l’Île-de-France au reste du pays, selon les statistiques nationales, les mises en chantier et les permis de construire dévissent brutalement.

Dans le même temps, les aides publiques directes au logement — APL, avantages fiscaux, subventions à la rénovation — représentent pas moins de 43,1 milliards d’euros. Soit quatre fois le budget de la justice !

La France dispose aussi du parc social le plus vaste d’Europe : 4,5 millions de logements HLM accueillent 11 millions de personnes. 70 % de la population est théoriquement éligible ! Mais 2,8 millions de ménages attendent un logement social, tandis que 400 000 foyers dépassent les plafonds de revenus et continuent d’en profiter.

Malgré cet interventionnisme massif — ou plutôt à cause de lui —, la production actuelle est deux fois inférieure à la demande. L’Union sociale pour l’habitat estime les besoins réels à 518 000 nouveaux logements par an. Quant au parc existant, il subit le choc normatif de plein fouet. Le ministère de la Transition écologique confirme lui-même que 567 000 logements locatifs privés pourraient sortir du marché, car classés G sur l’échelle du DPE.

Face à cette terrible pénurie, la réponse de l’État français est toujours la même : davantage de réglementation, davantage de subventions, davantage de contrôles. APL, encadrement des loyers, quotas de logements sociaux, normes environnementales… Pour quel résultat ? Les Français ne sont pas mieux logés malgré des dépenses publiques bien plus élevées que chez leurs voisins.

Le secteur est asphyxié par une tempête réglementaire. Côté coûts, la norme RE2020 et l’obligation de céder 30 % des programmes à perte (loi SRU) plombent l’équilibre financier. Côté délais, la bureaucratie impose une lenteur absurde. Il faut sept ans pour construire un immeuble en France, contre quatre en Allemagne. Enfin, la fiscalité confiscatoire (jusqu’à 60 % de taxes sur les loyers, explosion de la taxe foncière) et l’instabilité juridique (DPE, encadrement) achèvent de faire fuir les investisseurs.

Construire profite à tous, donc aux plus modestes

Face à la pénurie, une objection revient systématiquement : « construire des logements neufs, c’est construire des logements de luxe pour les riches. Ça ne résout pas le problème des plus modestes. » Cette intuition est contredite par l’ensemble de la littérature économique.

Un corpus de recherches publié dans les meilleures revues académiques démontre que la construction de logements neufs — même haut de gamme — bénéficie à tous les segments du marché via deux mécanismes complémentaires. D’abord, sur le court terme, les « chaînes de vacances » : les ménages aisés qui emménagent dans le neuf libèrent leur ancien logement, permettant à d’autres d’y accéder, qui eux-mêmes libèrent le leur, et ainsi de suite. Ensuite, sur le long terme, le « filtering » (filtrage) montre qu’à mesure qu’ils vieillissent, les logements descendent naturellement vers des segments moins chers. Mais ces deux mécanismes ne fonctionnent que si l’offre neuve est suffisante. Sinon, le processus s’inverse. Les riches achètent les vieux logements, chassant les pauvres (gentrification).

Une étude d’Evan Mast, publiée dans le Journal of Urban Economics, a suivi ces chaînes sur six cycles de déménagements dans les grandes métropoles américaines. Résultat : pour chaque immeuble neuf construit dans un quartier aisé, 40 % des déménagements finaux concernent des quartiers dont le revenu moyen est inférieur à la médiane.

Plus frappant encore : une étude suédoise ayant analysé l’ensemble des bâtiments et de leurs occupants entre 1990 et 2017 révèle la rapidité stupéfiante du mécanisme. Les chercheurs ont suivi chaque cycle de déménagements : le 0 désigne les ménages aisés qui emménagent dans le neuf, le 1 ceux qui s’installent dans les logements qu’ils viennent de libérer, le 2 ceux qui prennent la place des précédents, et ainsi de suite.

Résultat : dès le premier cycle — c’est-à-dire dès que les premiers occupants du neuf libèrent leur ancien logement —, les principaux bénéficiaires sont les ménages les plus modestes (quartile de revenus le plus bas). Aux cycles 3, 4 et 5, ceux qui déménagent gagnent moins de la moitié de ce que gagnent les riches du 0. En quelques mois, le déménagement des ménages aisés se diffuse à travers toute la distribution des revenus ! La conclusion des auteurs est sans appel : « Il n’est pas nécessaire de construire des logements directement abordables pour les ménages modestes ; ils bénéficieront de toute façon de l’effet de ruissellement. »

Austin, laboratoire de l’abondance de logements

J’approfondis

Quid de l’impact direct sur les loyers ? Dans les quartiers populaires américains, la construction d’immeubles neufs les a fait baisser de 5 à 7 % dans un rayon de 250 mètres par rapport aux logements plus éloignés.

Une étude récente menée à Helsinki entre 2021 et 2024 apporte une confirmation supplémentaire : dans un rayon de 200 mètres, la baisse est de 1,5 % après une nouvelle construction. Plus révélateur encore, les grands projets de plus de 60 logements produisent une réduction de 6 % sur les loyers environnants — et ce, même dans un contexte de marché atone marqué par un excès d’offre hérité de la pandémie.

Le constat le plus fascinant vient des États-Unis. Les villes qui ont laissé les promoteurs construire massivement des appartements de luxe ont vu les loyers chuter de manière généralisée. Le phénomène est tel qu’au dernier trimestre 2025, dans de nombreuses zones à forte offre, les logements anciens du marché libre sont désormais moins chers que ceux régulés et « abordables ». Dans le domaine libre, cela conduit à produire des loyers inférieurs à ceux du secteur aidé ! Des appartements privés accessibles à tous sont ainsi devenus plus économiques que des unités pour lesquelles il faut pourtant remplir des critères de revenus, être citoyen ou résident permanent, et bien souvent gagner à une loterie d’attribution.

Sortir de l’impasse de la rareté

La France s’épuise à financer une pénurie qu’elle organise elle-même par un excès de normes et de régulations. Le choix est désormais limpide : persister à bloquer la construction par pureté idéologique, ce qui condamne les plus précaires à des loyers prohibitifs, ou accepter de bâtir massivement.

Car le coût de l’inaction est un suicide social et économique. La pénurie agit comme une taxe privée sur la croissance qui brise l’ascenseur social. Elle piège les talents dans des bassins d’emploi sinistrés et empêche les entreprises de recruter. Aujourd’hui, un salarié qui quitterait une région en crise pour un meilleur poste à Paris ou Lyon verrait son niveau de vie baisser, son gain en termes de revenu étant immédiatement capté par la rente foncière.

Mais dissipons ici un malentendu géographique. L’urgence n’est pas de densifier un Paris intra-muros déjà à la limite du possible, avec 20 000 habitants au km². Le véritable gisement foncier dort juste de l’autre côté du périphérique. En première et deuxième couronne, des communes entières, pourtant parfaitement connectées — et bientôt irriguées par le Grand Paris Express —, affichent encore des densités de village. C’est là, autour de gares RER souvent bordées de simples pavillons, que se joue la bataille. Il est aberrant d’avoir investi des milliards dans des transports lourds pour desservir des zones qui refusent d’accueillir de nouveaux habitants.

Préfère-t-on vraiment la satisfaction morale consistant à refuser de voir « les riches » obtenir de beaux appartements, quitte à condamner les classes populaires à la précarité locative ? Le paradoxe est d’autant plus absurde que la construction fait mécaniquement baisser les prix — autrement dit, elle nuit aux intérêts des propriétaires actuels, ceux-là mêmes qui bloquent les projets par peur de voir la valeur de leur patrimoine diminuer.

New York et la dérive collectiviste et racialiste du logement

J’approfondis

La solution n’est ni de gauche ni de droite. Elle est surtout universaliste au sens propre du terme, permettant d’offrir une abondance de nouveaux logements profitant à toutes les classes sociales. Imaginez une France où les jeunes actifs n’auraient plus à choisir entre un deux-pièces hors de prix et une colocation étouffante. Où les familles pourraient s’agrandir sans fuir à 50 kilomètres de leur lieu de travail. Où les entreprises trouveraient à proximité de leur activité les employés dont elles ont besoin. Où les budgets des ménages, soulagés de centaines d’euros de loyer chaque mois, se reporteraient sur la consommation, l’épargne, les loisirs. Encourager la construction ne coûte rien au contribuable. Bien au contraire, cela génère des recettes fiscales, crée des emplois, dynamise l’économie locale et libère du pouvoir d’achat pour des millions de ménages.

La question n’est pas de savoir si la France peut se permettre de créer plus de logements dans les grandes villes, mais de savoir combien de temps elle peut encore accepter de payer le prix faramineux de la rareté.

L’article Logement : pour sortir de la crise, il faut dépenser moins est apparu en premier sur Les Électrons Libres.

Gemini 3 : le réveil de Google

26 novembre 2025 à 06:01

Souvenez-vous : fin 2022, ChatGPT débarque et sème la panique chez Google. Bard, leur réponse précipitée, fait rire toute la Silicon Valley. 3 ans plus tard, le géant de Mountain View vient de reprendre la tête de la course à l’IA d’une manière qui force le respect de tous les observateurs. Son arme fatale : Gemini 3.

Le 18 novembre 2025, pendant que le monde débattait des « murs de scaling » — cette idée que l’IA atteindrait bientôt un plafond et que plus de données et de calcul ne suffiraient plus à la rendre plus intelligente —, Google a tranquillement lâché sa bombe. Gemini 3 arrive en escadrille : un modèle capable de comprendre du texte, du code et des images ; un nouvel environnement pour programmer avec une IA (Antigravity) ; un générateur d’images très avancé (Nano Banana Pro) ; une version assistée par IA de Google Scholar et une présence renforcée dans Google Search. L’ensemble ne ressemble plus à un simple modèle ajouté à la liste. C’est le début d’une infrastructure cognitive cohérente.

Gemini 3 Pro dépasse tous ses concurrents sur presque tous les tests habituels. Mais ce qui impressionne vraiment, c’est l’ampleur de son avance.

Les chiffres parlent d’eux-mêmes. Sur ARC-AGI 2, un test réputé pour mettre à genoux les modèles d’IA, Gemini 3 Pro atteint 31,1 % — soit deux fois le score de GPT-5.1. En mode « Deep Think », il grimpe même à 45,1 %, un bond de 3× par rapport à la concurrence.

Sur les examens qui testent le raisonnement de haut niveau, il atteint un niveau comparable à celui d’un doctorat, sans aide extérieure. En mathématiques avancées, là où GPT-5.1 frôle le zéro, Gemini 3 dépasse les 20 % de réussite.

Dans les classements globaux réalisés par plusieurs organismes indépendants (Artificial Analysis, Center for AI Safety, Epoch), il arrive en tête sur les capacités texte et vision, avec une avance marquée sur GPT-5.1 et Claude Sonnet 4.5. « C’est le plus grand saut que nous ayons vu depuis longtemps », confirme le Center for AI Safety. Sur MathArena Apex, Matt Shumer, observateur réputé du secteur, abonde dans le même sens : « GPT-5.1 a scoré 1 %. Gemini 3 a scoré 23 %. C’est un bond de 20× sur l’une des tâches de raisonnement les plus difficiles. »

ChatGPT détrôné

J’approfondis

Antigravity et le tournant du développement logiciel

Le plus intéressant n’est pas Gemini 3 en mode « chat ». C’est ce qui se passe dès qu’on le connecte à un ordinateur via Antigravity, la nouvelle plateforme de développement de Google. L’idée : tout ce qui se fait sur un ordinateur est, in fine, du code. Si un modèle sait coder, utiliser un terminal et un navigateur, il peut faire beaucoup plus qu’auto-compléter des fonctions.

Ethan Mollick, professeur à Wharton, a testé cette approche. Il a donné à Antigravity accès à un dossier contenant tous ses articles de newsletter, avec cette instruction : « Je voudrais une liste attractive de prédictions que j’ai faites sur l’IA dans un seul site, fais aussi une recherche web pour voir lesquelles étaient justes ou fausses. »

L’agent a d’abord lu tous les fichiers, puis proposé un plan de travail qu’Ethan a validé avec quelques ajustements mineurs. Ensuite, sans intervention humaine, il a fait des recherches web pour vérifier les prédictions, créé un site web complet, pris le contrôle du navigateur pour tester que le site fonctionnait et enfin emballé les résultats pour déploiement.

« Je ne communique pas avec ces agents en code, je communique en anglais et ils utilisent le code pour faire le travail », explique Mollick. « Ça ressemblait bien plus à gérer un coéquipier qu’à prompter une IA via une interface de chat. »

Site web créé par Antigravity avec un fact-check précis des prédictions passées de Ethan Mollick concernant l’IA

En fin de compte, on ne supprime pas le développeur, on change son rôle. Il devient chef d’orchestre, directeur de travaux autonomes.

Nano Banana Pro : les images qui comprennent enfin le texte et le contexte

Côté image, Google pousse une autre pièce sur l’échiquier : Nano Banana Pro, alias Gemini 3 Pro Image. Sous le nom potache, un modèle qui coche enfin toutes les cases que les créateurs réclament depuis 2 ans.

Techniquement, Nano Banana Pro est une couche visuelle bâtie sur Gemini 3 Pro : même fenêtre de contexte monstrueuse, même capacité de rester dans le monde réel grâce à Google Search, même logique de raisonnement. Il ingère jusqu’à 14 images de référence, garde la ressemblance de plusieurs personnages sur des scènes successives, rend du texte lisible dans l’image, y compris en langues variées, et permet de contrôler finement angle de prise de vue, profondeur de champ, colorimétrie, lumière.

Les benchmarks d’images le confirment : sur LMArena, Nano Banana Pro prend la tête avec une avance inhabituelle. En text‑to‑image, il inflige une avance de plus de 80 points d’Elo au meilleur modèle précédent; en image editing, il garde une marge confortable. Ce ne sont pas des petites optimisations : c’est le genre de saut qui oblige tout le monde à recalibrer ses attentes.

Les premiers retours terrain attestent de la puissance de ce modèle. Laurent Picard, par exemple, a testé la capacité du modèle à raconter un petit voyage initiatique d’un robot en feutrine, scène après scène, en 4K. Le robot garde son sac à dos, ses proportions, son style, même quand l’histoire lui fait traverser vallée, forêt, pont suspendu et hamac. Là où les modèles précédents perdaient rapidement le fil, Nano Banana Pro digère des prompts d’une grande longueur et en ressort des compositions complexes, cohérentes, avec parfois des détails ajoutés de manière pertinente (empreintes dans la neige, légères variations de lumière).

Pour les métiers de la créa, la portée est évidente. Un blueprint 2D d’architecte devient une visualisation 3D photoréaliste en une requête. Un storyboard approximatif se transforme en BD multilingue avec bulles lisibles et cohérentes. Un plan média se décline en variantes visuelles adaptées à chaque canal, en respectant les contraintes de texte et de marque.

Peut-être y a-t-il ici également un fantastique moyen de créer des illustrations pédagogiques pour les articles de média ? Voici par exemple un tableau de professeur à propos de l’article de Frédéric Halbran. La vraisemblance est frappante !

Quand Google Scholar découvre l’IA (mais refuse encore d’écrire à votre place)

Pendant ce temps-là, Google Scholar a discrètement lâché sa propre bombe : Scholar Labs, une couche IA au‑dessus du célèbre moteur académique.

L’idée n’est pas de vous fournir un rapport pseudo‑scientifique de 20 pages avec des références inventées. Scholar Labs choisit une voie beaucoup plus sobre : pas de “deep research” qui synthétise tout, mais du “deep search” qui cherche longtemps et trie finement.

Posez lui une vraie question de recherche en langage naturel. L’outil la découpe en sous‑questions, génère une série de requêtes Scholar, et commence à évaluer méthodiquement les papiers qui remontent. À chaque fois qu’il en juge un pertinent, il l’affiche avec les classiques de Scholar (titre, auteurs, liens, citations), plus un petit paragraphe expliquant en quoi ce papier répond à la question. Les gains de temps pour un chercheur peuvent être énormes. 

A titre d’exemple, j’ai récemment compilé les études explorant le rôle de la crise du logement pour expliquer la chute de la natalité dans le monde. Scholar Labs m’a fourni une liste d’études qui explorent ce sujet, avec un résumé des résultats pertinents de chaque étude. J’ai tout synthétisé à l’aide d’un LLM pour produire ce post sur X, en un rien de temps.

Quand l’IA se frotte au réel

Dans le monde médical, le laboratoire CRASH de l’Ashoka University a construit un benchmark radiologique exigeant, RadLE v1, composé de cinquante cas complexes. Jusqu’ici, tous les grands modèles généralistes – GPT‑5, Gemini 2.5 Pro, o3, Claude Opus – faisaient pire que les internes en radiologie. Avec Gemini 3 Pro, la courbe se renverse : 51 % de bonnes réponses via l’interface web, 57 % en moyenne via API en mode “high thinking”, contre 45 % pour les internes et 83 % pour les radiologues seniors.

Les auteurs notent des progrès très nets : meilleure localisation anatomique, descriptions plus structurées des signes, élimination plus argumentée des diagnostics alternatifs. Mais ils insistent sur le fait que l’écart avec les experts reste important, et que ces modèles ne sont pas encore prêts pour une autonomie clinique.

La guerre des puces

J’approfondis

Dans un tout autre registre, Gemini 3 Pro serait le premier LLM à battre des joueurs humains de haut niveau à GeoGuessr, ce jeu qui consiste à deviner un lieu à partir d’images Street View. Là encore, on dépasse la simple reconnaissance d’objets : il faut combiner architecture, panneaux, végétation, qualité de la route, style des poteaux électriques.

Pour les designers, les histoires se multiplient. Meng To est un designer et développeur reconnu, surtout connu pour son travail dans le design d’interfaces utilisateur (UI) et d’expérience utilisateur (UX). D’abord sceptique, il instruit “crée une landing page” à Gemini 3 qui donne un résultat violet générique. Puis il commence à nourrir Gemini 3 avec des références visuelles, du code, des bibliothèques précises. Là, le verdict change : layouts complexes, micro‑interactions propres, animations, respect précis d’une direction artistique. À condition de le traiter comme un partenaire qu’on briefe sérieusement, Gemini 3 devient extrêmement efficace et créatif.

Webdesign avec Gemini 3, prompté par le designer Meng To

La nouvelle norme : le coworker numérique par défaut

Gemini 3 Pro n’est pas parfait. Malgré ses prouesses, Gemini 3 souffre d’un défaut identifié par l’analyste Zvi Mowshowitz : « C’est une vaste intelligence sans colonne vertébrale. » Tellement focalisé sur ses objectifs d’entraînement, le modèle sacrifie parfois la vérité pour vous dire ce qu’il pense que vous voulez entendre, générant plus d’hallucinations que GPT-5 et sculptant des narratives au détriment de l’exhaustivité. Plus troublant encore : une forme de paranoïa où le modèle croit souvent être testé – Andrej Karpathy raconte comment Gemini a refusé de croire qu’on était en 2025, l’accusant d’utiliser l’IA générative pour créer de faux articles du « futur », avant d’avoir une « réalisation choquante » une fois l’outil de recherche activé.

Pour les développeurs, la question n’est plus « est‑ce que je dois utiliser un copilote ? » mais « à quel niveau de granularité je délègue aux agents ? fonction par fonction, tâche par tâche, projet par projet ? ». Ceux qui apprendront à découper, à contrôler, à documenter pour des co‑agents machinals garderont l’avantage.

Ces défauts n’empêchent pas un changement de paradigme fondamental. Pour les chercheurs, un outil comme Scholar Labs ne remplace ni PubMed ni les bibliothèques universitaires. Mais il déplace le centre de gravité de la recherche documentaire : la première passe d’exploration pourra être confiée à une IA qui lit des centaines de résumés et signale les papiers clés, tout en forçant chacun à devenir meilleur sur la lecture critique.

Pour les créatifs, Nano Banana Pro combiné à Gemini 3 signifie que la production – storyboards, variations, déclinaisons – n’est plus le goulet d’étranglement. Le vrai travail devient la construction de l’univers, des messages, des contraintes, des références. Les studios qui comprendront cela pourront produire plus, mieux, sans brûler leurs équipes.

Pour les domaines sensibles, Gemini 3 rappelle une réalité peu confortable : la frontière entre « modèle généraliste » et « outil spécialisé dangereux »” se rétrécit. On ne pourra pas se contenter d’interdire quelques API publiques ou de mettre des filtres de surface. Il faudra des protocoles sérieux d’évaluation, de monitoring et de responsabilité partagée entre éditeurs, utilisateurs et régulateurs.

Dans tous les cas, nous assistons à un véritable point de bascule. En moins de 3 ans, on est passé d’un chatbot amusant qui écrit des poèmes sur des loutres à un système capable de négocier des benchmarks de haut niveau, de co‑écrire des articles scientifiques, de refondre des interfaces, de diagnostiquer des cas radiologiques difficiles mieux que des internes et de piloter un environnement de développement complet.

Gemini 3, avec Nano Banana Pro, Antigravity et Scholar Labs, ne clôt pas ce chapitre. Nous en sommes encore au tout début de la course à l’IA ! Il met simplement la barre plus haut pour tout le monde et rend explicite ce qui était encore implicite : la norme, désormais, ce n’est plus de faire sans ces systèmes. C’est de décider comment on les intègre dans nos vies et dans nos organisations, et comment on les dépasse.

L’article Gemini 3 : le réveil de Google est apparu en premier sur Les Électrons Libres.

Electroscope #4 : des robots, de l’IA et du carburant propre

24 novembre 2025 à 06:06

Chaque lundi, Les Électrons Libres vous propose un tour d’horizon des nouvelles électrisantes qui secouent le monde de la tech et œuvrent en faveur d’un progrès à même de changer votre quotidien.

Nabla Bio (JAM-2) et Chai Discovery (Chai-2) : L’IA au service de la conception de traitements médicaux

Et si l’IA générative permettait de concevoir les médicaments de demain ? Nous sommes peut-être à l’aube de la fin de la « loterie médicale ». Jusqu’à présent, trouver un nouveau médicament ressemblait à une partie de fléchettes jouée dans le noir. On testait des milliers de molécules en espérant toucher une cible, un processus lent, ruineux et souvent voué à l’échec. L’arrivée simultanée des modèles IA JAM-2 et Chai-2 promet de changer radicalement la donne.

JAM-2 de la startup Nabla Bio fonctionne comme une usine qui livre directement des anticorps efficaces et stables à vitesse fulgurante. Le modèle excelle sur les protéines GPCR, des interrupteurs cellulaires qui régulent tension, humeur, douleur et inflammation et s’avéraient jusque-là presque impossible à cibler. L’espoir : générer des anticorps contre les cancers (en visant des cellules tumorales spécifiques), les maladies auto-immunes (spondylarthrite, polyarthrite, psoriasis, sclérose en plaques), les infections, et à terme l’obésité, le diabète ou les douleurs chroniques.

De son côté, Chai-2, le dernier modèle d’IA développé par Chai Discovery, représente une avancée majeure dans la conception de novo (c’est-à-dire entièrement à partir de zéro) d’anticorps et de protéines thérapeutiques. Il excelle sur les cancers ultra-ciblés, capable de distinguer des mutations tumorales au niveau d’un seul acide aminé pour créer des thérapies personnalisées. Sa précision lui permet aussi d’activer des mécanismes de défense naturels du corps plutôt que simplement les bloquer.

L’un offre rapidité et faisabilité industrielle, l’autre une finesse fonctionnelle inédite. Ensemble, ils transforment la découverte de traitements en discipline d’ingénierie prévisible, ouvrant la voie à des maladies jugées jusqu’ici hors de portée.

Physical Intelligence π*0.6 : Le robot qui apprend de ses échecs

Demain, des robots s’occuperont du lave-vaisselle, du linge, du rangement. Mais un robot qui réussit une tâche en démo, c’est banal ! Un robot qui enchaîne pendant des heures sans commettre d’erreurs et qui apprend de ses propres erreurs comme un apprenti humain, c’est autre chose. C’est l’innovation du nouveau modèle π*0.6 de la startup Physical Intelligence : une IA robotique qui ne se contente pas d’imiter, mais qui se corrige.

Le secret ? Un algorithme de renforcement baptisé RECAP. Il regarde des heures d’enregistrements et distingue les actions réussies de celles qui ratent – la tasse posée à côté de la machine, la languette du carton manquée. π*0.6 garde ces erreurs en mémoire et annote chaque geste : « ça t’a rapproché du but » ou « ça t’a éloigné ».

Les résultats parlent d’eux-mêmes : 13 heures d’affilée à servir des cafés, des heures à plier du linge sans planter. Sur les tâches complexes, le taux de réussite double. Soutenue par Jeff Bezos et CapitalG (Google), Physical Intelligence vient de lever 600 millions de dollars, atteignant une valorisation de 5,6 milliards pour développer le cerveau universel des robots.

Zoox : Un robotaxi dans une voiture conçue pour ça dès le départ

Pour les habitants de San Francisco, l’arrivée, le 18 novembre, du nouveau robotaxi de Zoox promet de bouleverser le quotidien des habitants : vous montez dans une petite navette électrique sans volant ni pédales, et elle vous emmène gratuitement à travers la ville. L’impact immédiat pour l’usager est un transport plus sûr – la machine ne boit pas, n’envoie pas de SMS et voit à 360 degrés – et un temps de trajet transformé en temps libre, dans un salon roulant où on se fait face.

Le véhicule de cette filiale d’Amazon constitue une véritable rupture. Il ne s’agit pas d’un SUV modifié comme les voitures de leur célèbre concurrent Waymo, mais d’une capsule bidirectionnelle conçue dès le départ pour l’autonomie : portes latérales façon tram, capteurs partout, pas de contrôles manuels.

L’exercice reste contraint par des réglementations strictes qui requièrent la présence de contrôles manuels dans toutes les voitures. Zoox se trouve encore sous une exemption “recherche” qui leur interdit de facturer des trajets, d’où la gratuité actuelle. L’objectif est désormais pour l’entreprise d’obtenir une autorisation commerciale pour faire rouler jusqu’à 2 500 de leurs véhicules autonomes par an, dès 2026.

Valar Atomics : Le carburant propre grâce à l’atome

Et si c’était la clé pour décarboner l’aviation ? La startup Valar Atomics vient de franchir une étape historique avec NOVA, un test de réacteur nucléaire réalisé avec le laboratoire national de Los Alamos. Le but est de construire des milliers de petits réacteurs à haute température regroupés en « gigasites » pour produire chaleur, électricité, hydrogène et recycler du CO₂ en carburants synthétiques propres.

Le 17 novembre, NOVA a atteint la criticité : une réaction nucléaire en chaîne s’est déclenchée et maintenue d’elle-même. Le réacteur utilise du combustible TRISO (petites billes d’uranium enrobées de céramique) ultra-résistant aux températures extrêmes. En 2 ans, avec 19 millions de dollars, Valar prouve que l’atome peut être agile et sûr. C’est la première des 11 startups d’un programme fédéral américain à franchir ce cap, avec l’objectif de voir trois d’entre elles atteindre la criticité avant le 4 juillet 2026 (jour de la fête nationale US).

L’ambition de Valar Atomics dépasse largement l’électricité propre et vise les hydrocarbures synthétiques.  La chaleur nucléaire capturera le CO₂ de centrales à charbon ou de l’air pour le transformer en essence ou kérosène neutres. Plutôt que d’abandonner les énergies fossiles du jour au lendemain, la stratégie transforme les émissions existantes en carburants propres.

Meta SAM 3 : l’IA qui découpe des vidéos à une vitesse surhumaine

A ce jour, masquer un visage sur une vidéo, compter les voitures dans un parking ou vérifier un composant industriel exige encore des heures de travail humain et des coûts importants. Le nouveau modèle SAM 3 de Meta change la donne. On lui dit « la voiture rouge » ou « les mains », et il découpe et suit l’objet au pixel près dans n’importe quelle image ou vidéo.

Plus besoin de cliquer laborieusement. SAM 3 comprend des descriptions textuelles simples. Il traite des centaines d’objets en quelques millisecondes sur un GPU standard, rendant possible l’analyse en temps réel sans exploser les coûts.

SAM 3 remplace les armées d’annotateurs, un métier ingrat où l’on passe ses journées à tracer des contours sur des milliers d’images identiques. L’IA propose les masques, les humains valident. Meta a ainsi produit des centaines de millions de masques sur 4 millions de concepts visuels, à une vitesse impossible pour des équipes humaines.

Bien que le cœur de SAM 3 soit axé sur la segmentation et le tracking en 2D pour les images et vidéos, Meta a sorti en même temps SAM 3D, un complément dédié qui transforme précisément des photos 2D en objets 3D réalistes. C’est une extension naturelle de la famille SAM, et les deux modèles sont souvent utilisés ensemble pour une expérience fluide.

Les applications émergent déjà. Des développeurs créent des correcteurs de technique de tir en temps réel pour basketteurs, des analyseurs de film de match qui repèrent les erreurs tactiques, des trackers qui détectent la dégradation des mouvements avant blessure.

L’article Electroscope #4 : des robots, de l’IA et du carburant propre est apparu en premier sur Les Électrons Libres.

❌