Vue lecture

Gemini 3 : le réveil de Google

Souvenez-vous : fin 2022, ChatGPT débarque et sème la panique chez Google. Bard, leur réponse précipitée, fait rire toute la Silicon Valley. 3 ans plus tard, le géant de Mountain View vient de reprendre la tête de la course à l’IA d’une manière qui force le respect de tous les observateurs. Son arme fatale : Gemini 3.

Le 18 novembre 2025, pendant que le monde débattait des « murs de scaling » — cette idée que l’IA atteindrait bientôt un plafond et que plus de données et de calcul ne suffiraient plus à la rendre plus intelligente —, Google a tranquillement lâché sa bombe. Gemini 3 arrive en escadrille : un modèle capable de comprendre du texte, du code et des images ; un nouvel environnement pour programmer avec une IA (Antigravity) ; un générateur d’images très avancé (Nano Banana Pro) ; une version assistée par IA de Google Scholar et une présence renforcée dans Google Search. L’ensemble ne ressemble plus à un simple modèle ajouté à la liste. C’est le début d’une infrastructure cognitive cohérente.

Gemini 3 Pro dépasse tous ses concurrents sur presque tous les tests habituels. Mais ce qui impressionne vraiment, c’est l’ampleur de son avance.

Les chiffres parlent d’eux-mêmes. Sur ARC-AGI 2, un test réputé pour mettre à genoux les modèles d’IA, Gemini 3 Pro atteint 31,1 % — soit deux fois le score de GPT-5.1. En mode « Deep Think », il grimpe même à 45,1 %, un bond de 3× par rapport à la concurrence.

Sur les examens qui testent le raisonnement de haut niveau, il atteint un niveau comparable à celui d’un doctorat, sans aide extérieure. En mathématiques avancées, là où GPT-5.1 frôle le zéro, Gemini 3 dépasse les 20 % de réussite.

Dans les classements globaux réalisés par plusieurs organismes indépendants (Artificial Analysis, Center for AI Safety, Epoch), il arrive en tête sur les capacités texte et vision, avec une avance marquée sur GPT-5.1 et Claude Sonnet 4.5. « C’est le plus grand saut que nous ayons vu depuis longtemps », confirme le Center for AI Safety. Sur MathArena Apex, Matt Shumer, observateur réputé du secteur, abonde dans le même sens : « GPT-5.1 a scoré 1 %. Gemini 3 a scoré 23 %. C’est un bond de 20× sur l’une des tâches de raisonnement les plus difficiles. »

ChatGPT détrôné

J’approfondis

Antigravity et le tournant du développement logiciel

Le plus intéressant n’est pas Gemini 3 en mode « chat ». C’est ce qui se passe dès qu’on le connecte à un ordinateur via Antigravity, la nouvelle plateforme de développement de Google. L’idée : tout ce qui se fait sur un ordinateur est, in fine, du code. Si un modèle sait coder, utiliser un terminal et un navigateur, il peut faire beaucoup plus qu’auto-compléter des fonctions.

Ethan Mollick, professeur à Wharton, a testé cette approche. Il a donné à Antigravity accès à un dossier contenant tous ses articles de newsletter, avec cette instruction : « Je voudrais une liste attractive de prédictions que j’ai faites sur l’IA dans un seul site, fais aussi une recherche web pour voir lesquelles étaient justes ou fausses. »

L’agent a d’abord lu tous les fichiers, puis proposé un plan de travail qu’Ethan a validé avec quelques ajustements mineurs. Ensuite, sans intervention humaine, il a fait des recherches web pour vérifier les prédictions, créé un site web complet, pris le contrôle du navigateur pour tester que le site fonctionnait et enfin emballé les résultats pour déploiement.

« Je ne communique pas avec ces agents en code, je communique en anglais et ils utilisent le code pour faire le travail », explique Mollick. « Ça ressemblait bien plus à gérer un coéquipier qu’à prompter une IA via une interface de chat. »

Site web créé par Antigravity avec un fact-check précis des prédictions passées de Ethan Mollick concernant l’IA

En fin de compte, on ne supprime pas le développeur, on change son rôle. Il devient chef d’orchestre, directeur de travaux autonomes.

Nano Banana Pro : les images qui comprennent enfin le texte et le contexte

Côté image, Google pousse une autre pièce sur l’échiquier : Nano Banana Pro, alias Gemini 3 Pro Image. Sous le nom potache, un modèle qui coche enfin toutes les cases que les créateurs réclament depuis 2 ans.

Techniquement, Nano Banana Pro est une couche visuelle bâtie sur Gemini 3 Pro : même fenêtre de contexte monstrueuse, même capacité de rester dans le monde réel grâce à Google Search, même logique de raisonnement. Il ingère jusqu’à 14 images de référence, garde la ressemblance de plusieurs personnages sur des scènes successives, rend du texte lisible dans l’image, y compris en langues variées, et permet de contrôler finement angle de prise de vue, profondeur de champ, colorimétrie, lumière.

Les benchmarks d’images le confirment : sur LMArena, Nano Banana Pro prend la tête avec une avance inhabituelle. En text‑to‑image, il inflige une avance de plus de 80 points d’Elo au meilleur modèle précédent; en image editing, il garde une marge confortable. Ce ne sont pas des petites optimisations : c’est le genre de saut qui oblige tout le monde à recalibrer ses attentes.

Les premiers retours terrain attestent de la puissance de ce modèle. Laurent Picard, par exemple, a testé la capacité du modèle à raconter un petit voyage initiatique d’un robot en feutrine, scène après scène, en 4K. Le robot garde son sac à dos, ses proportions, son style, même quand l’histoire lui fait traverser vallée, forêt, pont suspendu et hamac. Là où les modèles précédents perdaient rapidement le fil, Nano Banana Pro digère des prompts d’une grande longueur et en ressort des compositions complexes, cohérentes, avec parfois des détails ajoutés de manière pertinente (empreintes dans la neige, légères variations de lumière).

Pour les métiers de la créa, la portée est évidente. Un blueprint 2D d’architecte devient une visualisation 3D photoréaliste en une requête. Un storyboard approximatif se transforme en BD multilingue avec bulles lisibles et cohérentes. Un plan média se décline en variantes visuelles adaptées à chaque canal, en respectant les contraintes de texte et de marque.

Peut-être y a-t-il ici également un fantastique moyen de créer des illustrations pédagogiques pour les articles de média ? Voici par exemple un tableau de professeur à propos de l’article de Frédéric Halbran. La vraisemblance est frappante !

Quand Google Scholar découvre l’IA (mais refuse encore d’écrire à votre place)

Pendant ce temps-là, Google Scholar a discrètement lâché sa propre bombe : Scholar Labs, une couche IA au‑dessus du célèbre moteur académique.

L’idée n’est pas de vous fournir un rapport pseudo‑scientifique de 20 pages avec des références inventées. Scholar Labs choisit une voie beaucoup plus sobre : pas de “deep research” qui synthétise tout, mais du “deep search” qui cherche longtemps et trie finement.

Posez lui une vraie question de recherche en langage naturel. L’outil la découpe en sous‑questions, génère une série de requêtes Scholar, et commence à évaluer méthodiquement les papiers qui remontent. À chaque fois qu’il en juge un pertinent, il l’affiche avec les classiques de Scholar (titre, auteurs, liens, citations), plus un petit paragraphe expliquant en quoi ce papier répond à la question. Les gains de temps pour un chercheur peuvent être énormes. 

A titre d’exemple, j’ai récemment compilé les études explorant le rôle de la crise du logement pour expliquer la chute de la natalité dans le monde. Scholar Labs m’a fourni une liste d’études qui explorent ce sujet, avec un résumé des résultats pertinents de chaque étude. J’ai tout synthétisé à l’aide d’un LLM pour produire ce post sur X, en un rien de temps.

Quand l’IA se frotte au réel

Dans le monde médical, le laboratoire CRASH de l’Ashoka University a construit un benchmark radiologique exigeant, RadLE v1, composé de cinquante cas complexes. Jusqu’ici, tous les grands modèles généralistes – GPT‑5, Gemini 2.5 Pro, o3, Claude Opus – faisaient pire que les internes en radiologie. Avec Gemini 3 Pro, la courbe se renverse : 51 % de bonnes réponses via l’interface web, 57 % en moyenne via API en mode “high thinking”, contre 45 % pour les internes et 83 % pour les radiologues seniors.

Les auteurs notent des progrès très nets : meilleure localisation anatomique, descriptions plus structurées des signes, élimination plus argumentée des diagnostics alternatifs. Mais ils insistent sur le fait que l’écart avec les experts reste important, et que ces modèles ne sont pas encore prêts pour une autonomie clinique.

La guerre des puces

J’approfondis

Dans un tout autre registre, Gemini 3 Pro serait le premier LLM à battre des joueurs humains de haut niveau à GeoGuessr, ce jeu qui consiste à deviner un lieu à partir d’images Street View. Là encore, on dépasse la simple reconnaissance d’objets : il faut combiner architecture, panneaux, végétation, qualité de la route, style des poteaux électriques.

Pour les designers, les histoires se multiplient. Meng To est un designer et développeur reconnu, surtout connu pour son travail dans le design d’interfaces utilisateur (UI) et d’expérience utilisateur (UX). D’abord sceptique, il instruit “crée une landing page” à Gemini 3 qui donne un résultat violet générique. Puis il commence à nourrir Gemini 3 avec des références visuelles, du code, des bibliothèques précises. Là, le verdict change : layouts complexes, micro‑interactions propres, animations, respect précis d’une direction artistique. À condition de le traiter comme un partenaire qu’on briefe sérieusement, Gemini 3 devient extrêmement efficace et créatif.

Webdesign avec Gemini 3, prompté par le designer Meng To

La nouvelle norme : le coworker numérique par défaut

Gemini 3 Pro n’est pas parfait. Malgré ses prouesses, Gemini 3 souffre d’un défaut identifié par l’analyste Zvi Mowshowitz : « C’est une vaste intelligence sans colonne vertébrale. » Tellement focalisé sur ses objectifs d’entraînement, le modèle sacrifie parfois la vérité pour vous dire ce qu’il pense que vous voulez entendre, générant plus d’hallucinations que GPT-5 et sculptant des narratives au détriment de l’exhaustivité. Plus troublant encore : une forme de paranoïa où le modèle croit souvent être testé – Andrej Karpathy raconte comment Gemini a refusé de croire qu’on était en 2025, l’accusant d’utiliser l’IA générative pour créer de faux articles du « futur », avant d’avoir une « réalisation choquante » une fois l’outil de recherche activé.

Pour les développeurs, la question n’est plus « est‑ce que je dois utiliser un copilote ? » mais « à quel niveau de granularité je délègue aux agents ? fonction par fonction, tâche par tâche, projet par projet ? ». Ceux qui apprendront à découper, à contrôler, à documenter pour des co‑agents machinals garderont l’avantage.

Ces défauts n’empêchent pas un changement de paradigme fondamental. Pour les chercheurs, un outil comme Scholar Labs ne remplace ni PubMed ni les bibliothèques universitaires. Mais il déplace le centre de gravité de la recherche documentaire : la première passe d’exploration pourra être confiée à une IA qui lit des centaines de résumés et signale les papiers clés, tout en forçant chacun à devenir meilleur sur la lecture critique.

Pour les créatifs, Nano Banana Pro combiné à Gemini 3 signifie que la production – storyboards, variations, déclinaisons – n’est plus le goulet d’étranglement. Le vrai travail devient la construction de l’univers, des messages, des contraintes, des références. Les studios qui comprendront cela pourront produire plus, mieux, sans brûler leurs équipes.

Pour les domaines sensibles, Gemini 3 rappelle une réalité peu confortable : la frontière entre « modèle généraliste » et « outil spécialisé dangereux »” se rétrécit. On ne pourra pas se contenter d’interdire quelques API publiques ou de mettre des filtres de surface. Il faudra des protocoles sérieux d’évaluation, de monitoring et de responsabilité partagée entre éditeurs, utilisateurs et régulateurs.

Dans tous les cas, nous assistons à un véritable point de bascule. En moins de 3 ans, on est passé d’un chatbot amusant qui écrit des poèmes sur des loutres à un système capable de négocier des benchmarks de haut niveau, de co‑écrire des articles scientifiques, de refondre des interfaces, de diagnostiquer des cas radiologiques difficiles mieux que des internes et de piloter un environnement de développement complet.

Gemini 3, avec Nano Banana Pro, Antigravity et Scholar Labs, ne clôt pas ce chapitre. Nous en sommes encore au tout début de la course à l’IA ! Il met simplement la barre plus haut pour tout le monde et rend explicite ce qui était encore implicite : la norme, désormais, ce n’est plus de faire sans ces systèmes. C’est de décider comment on les intègre dans nos vies et dans nos organisations, et comment on les dépasse.

L’article Gemini 3 : le réveil de Google est apparu en premier sur Les Électrons Libres.

  •  

Minisforum G1 Pro : le MiniPC sous RTX 5060 dispo en janvier

Prévu pour une disponibilité en janvier 2026, le Minisforum AtomMan G1 Pro est un peu plus encombrant qu’un MiniPC classique. Il mesure 31.5 cm de large pour 21.5 cm de profondeur et 5.7 cm d’épaisseur. Pensé pour être positionné debout, il occupe un volume de 3.8 litres. On l’avait croisé en avril sans plus de précisions techniques sur son prix et sa disponibilité. Ces éléments sont plus clairs aujourd’hui.

Minisforum AtomMan G1 Pro

Minisforum AtomMan G1 Pro

 

Ce format particulier permet à l’AtomMan G1 Pro d’embarquer une formule de composants assez complète puisque la minimachine propose un processeur AMD Ryzen 9 8945HX et un circuit graphique secondaire. Une carte graphique Nvidia GeForce RTX 5060 de bureau classique est en effet intégrée au châssis. Reliée en PCIe au reste des composants, elle apportera des capacités graphiques supérieures au système.

Le dispositif mis en place est assez impressionnant, on retrouve la carte graphique tout en haut qui évacuera la chaleur par l’arrière et le dessus du G1 Pro. Le circuit de refroidissement du processeur qui semble énorme et profite d’un large dispositif de caloducs pour souffler vers l’arrière au milieu. Et, tout en bas, le circuit d’alimentation 350 W de l’engin également ventilé.

Le tout étant piloté dans trois modes distincts d’alimentation. Un mode « Office » qui limitera le TDP des composants pour éviter tout bruit et apporter un usage classique. Un mode « Gaming » intermédiaire et un mode « Beast » qui devrait lâcher les chevaux en débridant toutes les performances. Évidemment, ce dernier mode mettra en route la ventilation de l’ensemble. La carte graphique pouvant monter à elle seule à 145 watts, le G1 Pro grimpera alors à 245 watts au total. 

Le Ryzen 9 8945HX est un processeur très impressionnant, il additionne pas moins de 16 cœurs Zen4 pour 32 Threads au total. Avec 80 Mo de cache, cette puce propose des fréquences de 2.5 à 5.4 GHz, et un TDP oscillant entre 55 et 75 watts. Cette débauche se fait au prix du sacrifice de son circuit graphique embarqué. Un simple double cœur Radeon 610M à 2.2 GHz clairement pensé pour être relayé par un circuit graphique secondaire. 

Ce rôle sera joué par le circuit graphique Nvidia qui proposera 3840 cœurs CUDA et ses 8 Go de mémoire vive dédiée en GDDR7. Une solution qui pourra également développer jusqu’à 614 TOPs pour des travaux liés à l’IA. Le processeur sera donc poussé au-delà des capacités annoncées par AMD avec un overclocking à 100 watts en mode gaming, uniquement possible grâce à un refroidissement, probablement assez bruyant.

Minisforum promet que son AtomMan G1 Pro développera en échange assez de muscles pour des tâches lourdes. Du jeu 3D fluide en FullHD ou 1440P suivant les titres. De l’animation 3D, du montage et du rendu vidéo, des travaux graphiques ou sonores et autres travaux demandant beaucoup de ressources. Pour supporter tout cela, la machine sera livrée avec un minimum de 32 Go de DDR5-5200 en double canal et pourra évoluer vers 96 Go au maximum. Le stockage sera confié de base à une solution NVMe PCIe 4.0 x4 de 1 To en M.2 2280 et un emplacement identique libre sera disponible. Les deux pourront évoluer vers des SSD de 4 To pour 8 To embarqués au total. 

La connectique est complète avec en façade un bouton de démarrage, Un USB 3.2 Type-A, un USB 3.2 Type-C et un jack audio combo 3.5 mm. À l’arrière, on retrouvera d’abord les sorties vidéo de la carte graphique avec deux DisplayPort 2.1 et un HDMI 2.1. Plus bas un USB 3.2 Type-C, deux USB 3.2 Type-A, la sortie HDMI 2.1 du circuit graphique Radeon de la puce AMD. Un Ethernet 5 Gigabit est présent pour des débits réseau rapides, un DisplayPort 1.4a toujours dépendant de la puce Ryzen et la prise d’alimentation tripolaire surmontant un interrupteur. On retrouvera également à bord un module Wi-Fi7 et Bluetooth 5.4 pour des débits sans fil élevés.

Annoncée comme compatible avec Windows 11 qui est livrée avec et Linux, le Minisforum AtomMan G1 Pro est listé sur le site Français de la marque à… 1559€ TTC dans sa version 32 Go / 1 To. La disponibilité est prévue pour janvier 2026 avec une livraison depuis l’Allemagne. Je suis assez circonspect quant au prix de cet engin. Il n’a certes pas vraiment d’équivalent sur le marché avec un châssis compact et la possibilité de monter une carte graphique plein format. Mais cela reste tout de même assez cher et peu évolutif, finalement. Je ne suis vraiment pas certain que le boitier comme l’alimentation puissent accepter une autre carte graphique que celle livrée, par exemple.

Si je regarde sur le marché des PC Tour classiques, on retrouve par exemple ce PCcom Ready sous Core i7-14700KF avec 32 Go de RAM, 2 To de SSD et une GeForce RTX 5060 8Go à 1232€ dès aujourd’hui. Ou un PC tour MSI MAG Infinite S3 14NVP7-2801ES Core i7-14700F, 32 Go de RAM, 1 To de stockage NVMe et une GeForce RTX 5070 avec 12 Go de GDDR7. Je suis évidemment un fan des formats compacts mais pour certains usages cela peut être finalement contre productif, notamment en terme d’évolutivité. Difficile alors de rester aveuglé par l’encombrement sur ce type d’engin avant tout pensé pour la performance.

 

Catégorie Minisforum AtomMan G1 Pro
CPU AMD Ryzen 9 8945HX (16 Cores / 32 Threads, max 5.4 GHz)
GPU NVIDIA GeForce RTX 5060
Mémoire DDR5 jusqu’à 5200 MHz (Dual Channel), prise en charge jusqu’à 96 Go
Stockage 2× M.2 2230/2280 NVMe SSD (jusqu’à 4 TB chacun, PCIe 4.0 x4)
Contrôleur Ethernet LAN 5 Gigabit (RJ45)
Sans fil Wi-Fi 7, Bluetooth 5.4
Sortie vidéo HDMI 2.1 ×2 (1 carte mère, 1 GPU)
DP 1.4 ×1 (jusqu’à 8K@60Hz / 4K@144Hz, GPU)
DP 2.1 ×2 (jusqu’à 8K@120Hz / 4K@144Hz, GPU)
Sortie audio HDMI 2.1 ×2 (1 carte mère, 1 GPU)
DP 1.4 ×1 (GPU) DP 2.1 ×2 (GPU)
Jack combo 3,5 mm 4-en-1 ×1
Ports — Avant Power Button ×1
Jack audio combo 3,5 mm ×1
USB-A (USB 3.2 Gen2) ×1
USB-C (USB 3.2 Gen2, data only) ×1
Ports — Arrière RJ45 5G (RTL8126) ×1
USB-A (USB 3.2 Gen2) ×2
USB-C (data only) ×1
HDMI 2.1 (8K@60Hz) ×2
DP 2.1b ×2
DP 1.4a ×1
Interne PCIe 4.0 ×16
Ventilateur CPU ×1
Ventilateur système ×1
Ventilateur SSD ×1
Connecteur frontal (USB 3.2 ×1, USB-C ×1, jack combo ×1)
Bouton de démarrage 
Boutons / Éléments Bouton de démarrage 
Reset BIOS
Dimensions 215 × 57 × 315 mm
Puissance 350 W
Système Windows 11 / Linux
Poids 3.81 kg

Minisforum G1 Pro : le MiniPC sous RTX 5060 dispo en janvier © MiniMachines.net. 2025

  •  

Le meilleur modèle pour coder a déjà changé, Claude Opus 4.5 détrône déjà Gemini 3 Pro

Six jours après Gemini 3 Pro de Google, qui a battu tous ses rivaux dans la quasi-totalité des tests, Anthropic dévoile Claude Opus 4.5, son nouveau grand modèle de langage qui promet de réparer le code des développeurs mieux que personne. Dans les benchmarks sur ce critère, Claude Opus 4.5 détrône complètement le modèle de Google.

  •  

“L’empire de l’IA”, la contre-attaque qui fait plouf !

Un chiffre choc, glaçant même. Empire of AI, best-seller de l’été sur l’IA, affirme qu’un data center consomme mille fois l’eau d’une ville entière. Le problème, c’est que l’autrice s’est trompée : l’estimation était 5 000 fois trop élevée.

Cerrillos, petite ville chilienne de 88 000 habitants, devait accueillir un nouveau data center de Google. Dans son livre à succès consacré à Sam Altman et au système OpenAI, Karen Hao décrit une installation dont les besoins en eau dépasseraient mille fois ceux de la commune. De quoi s’imaginer un véritable monstre technologique à la soif inextinguible. Le chiffre était frappant… trop, sans doute.

La menace fantôme

Car tout ceci s’est révélé être une énorme erreur factuelle, qui fait partir la démonstration à vau-l’eau et basculer Karen Hao — pourtant diplômée d’ingénierie du MIT — du côté obscur de l’information scientifique.

Dans un contexte saturé de chiffres alarmistes sur l’IA, ce ratio improbable a pu paraître crédible à beaucoup. Mais pas à Andy Masley, membre du courant de l’Effective Altruism, dont la démarche repose strictement sur les faits et les preuves.

Le Jedi des ordres de grandeur

Un calcul rapide montre en effet que ce ratio impliquerait que chaque habitant n’utilise que 0,2 litre d’eau par jour — une absurdité, près de 900 fois moins que la moyenne chilienne. En consultant les rapports de la SMAPA (service municipal de l’eau de Maipú/Cerrillos), Masley découvre que les chiffres présentés comme des « litres » dans la réponse officielle obtenue par Hao sont en réalité des mètres cubes. Une erreur d’unité qui change la comparaison d’un facteur 1 000.

Karen Hao a reconnu l’erreur et admis qu’un contrôle de plausibilité aurait suffi à la repérer. Elle a aussi annoncé qu’elle mettrait à jour son livre une fois la confirmation officielle reçue, tout en maintenant ses critiques sur l’implantation de data centers en zones de stress hydrique.

Mais ce n’est pas tout. Masley lui reproche aussi d’avoir fondé sa comparaison sur les valeurs maximales de prélèvement autorisées, alors que la consommation réelle se situe plutôt autour de 20 % de ce plafond. Une autre source majeure de surestimation.

Enfin, il pointe la confusion fréquente entre prélèvements et consommation nette : les volumes cités correspondent à de l’eau prélevée — restituée à plus de 90 % — et non à la part réellement consommée. Une nuance pourtant essentielle pour comprendre l’impact réel d’un data center.

Ces trois éléments — l’erreur d’unité, la comparaison à la capacité maximale autorisée et la confusion entre prélèvements et consommation nette — modifient radicalement l’interprétation du cas de Cerrillos.

Rien d’anecdotique. La circulation mondiale de chiffres spectaculaires mais faux finit par façonner une image déformée de l’IA, présentée comme une industrie prédatrice. Ce décalage entre perception et réalité alimente la défiance du public et complique tout débat rationnel autour de ces infrastructures.

La France refroidit le cloud sans assécher la planète

J’approfondis

Un nouvel espoir

S’il est légitime de se poser des questions sur l’impact environnemental des data centers, encore faut-il poser correctement les enjeux. Le volume total d’eau consommée, pris isolément, n’a aucune signification. Ce qui compte, c’est où et quand l’eau est prélevée. Un captage dans un grand cours d’eau en période de crue n’a aucun impact, alors que puiser de l’eau potable dans une zone sous stress hydrique peut devenir problématique.

À Cerrillos, Google a mis en pause son projet de 200 millions de dollars après qu’un tribunal environnemental chilien a partiellement révoqué son autorisation et demandé une réévaluation intégrant la vulnérabilité de l’aquifère local et les effets du changement climatique.

L’entreprise a annoncé repartir « à zéro », en adoptant un refroidissement par air, sans aucun prélèvement dans les puits environnants. Une solution plus coûteuse, mais appelée à devenir la norme partout où l’usage de l’eau fait l’objet d’une forte compétition.

L’article “L’empire de l’IA”, la contre-attaque qui fait plouf ! est apparu en premier sur Les Électrons Libres.

  •  

La guerre des clics

Google est-il en danger ? Avec l’irruption des IA, ses milliards de recettes publicitaires sont menacés. Et les entreprises doivent réviser leurs méthodes : le SEO est mort, vive le GEO.

Depuis plus de vingt ans, Google règne sans partage sur la recherche en ligne. Avec près de 90 % des requêtes mondiales, le moteur de Mountain View est devenu la porte d’entrée d’Internet et la plus grosse régie publicitaire du monde. Son secret ? Un savant mélange de référencement naturel (SEO) et de liens sponsorisés (SEA). Les sites se battent pour grimper dans la page de résultats, les annonceurs paient pour exister, et Google, lui, encaisse.

Un modèle aussi simple qu’efficace. Mais fragile, car il repose sur un geste : le clic. Or une nouvelle génération d’utilisateurs se demande déjà pourquoi cliquer sur dix liens… quand une IA peut leur donner directement la réponse.

ChatGPT, le réflexe qui court-circuite Google

Depuis son lancement fin 2022, ChatGPT a bousculé les habitudes. Huit cents millions d’utilisateurs, un usage quotidien dans les entreprises, et un réflexe qui s’installe : taper une question dans une fenêtre de chat plutôt que dans une barre de recherche. 74 % disent l’utiliser pour chercher des informations au moins de temps en temps.

Et la tendance s’accélère. D’ici à 2026, jusqu’à un quart des requêtes pourraient passer par des assistants IA. OpenAI, avec ChatGPT Atlas, pousse même le concept plus loin : un navigateur où la recherche n’est plus une liste de liens mais une conversation. Demain, on ne cherchera plus le web, on lui parlera.

Atlas d’OpenAI, la nouvelle donne de la recherche web

J’approfondis

Le duo SEO/SEA perd de sa superbe

Pour les directions marketing, c’est un séisme. Pendant vingt ans, tout reposait sur le couple SEO/SEA : du contenu optimisé pour remonter dans Google et des annonces payantes pour s’y maintenir.
Mais voilà : les IA conversationnelles ne présentent plus dix liens, elles livrent une seule réponse, synthétique et contextualisée. Résultat : le trafic naturel chute, la publicité devient moins rentable et le marketing digital se retrouve à réinventer la roue.

Il faut désormais produire des contenus clairs, solides, bien structurés — et surtout pensés pour être compris par les IA. Autrement dit, parler leur langage. Mieux vaut un article précis et utile qu’un texte truffé de mots-clés.

Le GEO, nouveau graal du référencement

Bienvenue dans l’ère du GEO — Generative Engine Optimization. L’idée : ne plus seulement séduire l’algorithme de Google, mais être cité par les moteurs d’IA.

Pour cela, il ne suffit plus d’apparaître dans les dix premiers liens Google. Il faut désormais exister dans les corpus que les modèles d’IA consultent : articles de presse, blogs, Wikipédia, forums, réseaux professionnels. L’enjeu est de façonner leur mémoire conversationnelle, autrement dit la manière dont elles apprennent à citer des marques, des produits ou des sources crédibles. Cela implique de structurer les contenus comme des réponses directes aux questions que se posent les utilisateurs, d’adopter un ton naturel et fluide, proche du langage courant, et d’actualiser régulièrement les données pour rester visibles dans les flux d’information que les IA exploitent.

Vercel, la startup qui a hacké Google grâce à ChatGPT

J’approfondis

Les marques et organisations doivent donc associer systématiquement leur nom à des formulations naturelles, renforcer la crédibilité de leur site par des sources fiables (liens, mentions, transparence éditoriale) et multiplier leur présence sur les plateformes que les LLM lisent : Reddit, LinkedIn, Quora ainsi que la presse en ligne. Enfin, les contenus doivent être techniquement lisibles — via des balises FAQ, des métadonnées et des schémas structurés — pour que les modèles puissent les comprendre et les citer. Être mentionné par une IA n’est plus une affaire de mots-clés : c’est désormais une question de cohérence narrative, de confiance et de lisibilité machine.

On devine déjà la suite : demain, il y aura des « réponses sponsorisées » dans les IA, où un produit ou une marque apparaîtront directement dans la synthèse générée. Le SEO et la publicité classique vont converger vers ce référencement conversationnel, plus fluide, mais aussi plus opaque.

Google contre-attaque, mais le monde change

Faut-il enterrer Google ? Pas encore. Le géant reste incontournable pour acheter un billet d’avion, comparer des prix ou trouver un restaurant. Mais pour s’informer ou se documenter, l’IA prend l’avantage.

Les médias et marques l’ont compris : mieux vaut miser sur des contenus solides, sourcés et reconnaissables. Certains vont même jusqu’à négocier des partenariats avec les IA, histoire d’assurer leur visibilité dans les réponses.

Car la confiance va devenir la nouvelle monnaie du web : les IA privilégieront les contenus sérieux, vérifiés, actualisés. Les communicants, eux, devront apprendre à dialoguer avec ces nouveaux moteurs, à suivre leurs citations, à comprendre leur logique.

Et pendant ce temps, Google se réinvente. Ses projets Gemini et Bard injectent de l’IA au cœur même du moteur, quitte à rogner sur ses revenus publicitaires. Le pari est clair : mieux vaut transformer son modèle avant que d’autres ne le fassent à sa place.

Vers une recherche conversationnelle

La recherche en ligne entre dans une nouvelle ère : celle du dialogue. ChatGPT ne tue pas Google — il le force à changer. Les métriques aussi se transforment : on ne mesurera plus seulement le trafic ou le taux de clics, mais la confiance, la mention, la pertinence.

Demain, les gagnants seront ceux qui auront su comprendre cette bascule : maîtriser leurs données, inventer le SEO de l’IA et surtout gagner la confiance des machines. Le web ne sera plus seulement un espace à explorer, mais un langage à parler — celui de l’intelligence artificielle.

L’article La guerre des clics est apparu en premier sur Les Électrons Libres.

  •  

Kimi K2 Thinking, l’IA qui pense et qui agit

Une IA open source, capable de rivaliser avec les meilleurs modèles, entraînée pour seulement quelques millions d’euros ? C’est la révolution Moonshot AI : une prouesse qui balaie les scénarios catastrophes sur le coût énergétique de l’intelligence artificielle.

La start-up chinoise Moonshot AI, soutenue par Alibaba, vient de dévoiler Kimi K2 Thinking, son modèle de langage qui ne se contente pas de répondre, mais qui réfléchit et agit en exécutant de 200 à 300 appels d’outils séquentiellement, grâce à un raisonnement adaptatif et à long terme. Tel un ingénieur, il peut enchaîner les cycles de réflexion, de recherche, de navigation Internet, de développement — en boucle — jusqu’à trouver la solution à un problème complexe.

Comme la plupart des solutions d’IA chinoises, Kimi K2 Thinking est proposé en open source, ce qui va permettre aux autres acteurs de s’en inspirer et de progresser à leur tour. Un cycle vertueux de développement et de partage qui fait l’excellence et la fertilité de l’IA chinoise et que pratiquement aucune société américaine n’applique, sinon sur de petits modèles parfois destinés à faire de la communication plutôt qu’a un usage réel.

Ici, le modèle compte 1 000 milliards de paramètres : il rivalise donc en taille avec les plus grands opus des géants américains OpenAI, Google et Anthropic. Mais si la taille est une métrique, la performance en est une autre — et c’est là que Kimi K2 Thinking fait fort, en battant assez largement ses concurrents payants dans de nombreux benchmarks de raisonnement, notamment ceux qui n’impliquent pas d’étapes de programmation.

Mais ce n’est pas tout. Moonshot AI, loin des élucubrations actuelles sur les gigadatacenters pour l’entraînement de l’IA, qui consommeraient l’équivalent de la production d’une tranche complète de centrale nucléaire (la France en possède 56), annonce un coût d’entraînement record de 4,6 millions de dollars, contre des sommes des dizaines de fois plus importantes chez ses concurrents américains. Ce chiffre ne concerne que la puissance de calcul nécessaire pour entraîner le modèle, pas les salaires des ingénieurs, ni la collecte de données ou les autres frais de développement.

Cette prouesse est obtenue grâce à une astuce intelligente : Kimi K2 Thinking est entrainé à partir de son petit frère Kimi K2 (Instruct – modèle sans raisonnement) avec une précision ultra-réduite (QAT 4 bits), ce qui divise, sans perte notable de qualité, jusqu’à quatre fois la mémoire et les calculs requis. De plus, il n’active à chaque utilisation que quelques experts de 32 de ses 1 000 milliards de paramètres (architecture dite Mixture of Experts (MoE)). C’est le premier modèle de raisonnement à utiliser le QAT et le MoE, ce qui le place aussi premier à offrir un coût d’inférence aussi compétitif avec un usage plus rapide.

Puisqu’il est gratuit, combien cela vous coûterait-il de faire tourner cet ingénieur maison 24/7 ? Le ticket d’entrée, qui ne cesse de baisser, est d’environ 200 000 euros pour le serveur capable de s’y mettre. La compétition avec l’humain se rapproche.

L’article Kimi K2 Thinking, l’IA qui pense et qui agit est apparu en premier sur Les Électrons Libres.

  •  
❌