Vue normale

Reçu — 19 novembre 2025 Next - Articles gratuits

Nouvel accord majeur entre Anthropic et Microsoft, NVIDIA au centre de la toile

19 novembre 2025 à 11:44
Petits investissements entre amis
Nouvel accord majeur entre Anthropic et Microsoft, NVIDIA au centre de la toile

Anthropic, Microsoft et NVIDIA ont annoncé ce 18 novembre un nouvel accord tripartite d’investissements croisés, avec différents engagements.

Les investissements circulaires dans le monde de l’intelligence artificielle générative continuent de plus belle, avec comme acteur permanent NVIDIA et ses GPU dont la tech ne se passe décidément plus. Les deux nouveaux partenaires sont cette fois Anthropic et Microsoft, avec des engagements sur l’utilisation de services, la fourniture de capacités de calcul et ainsi de suite.

Milliards de dollars et gigawatts

L’accord, officialisé le 18 novembre, débloque de nombreuses possibilités pour Anthropic et Microsoft. Il débute par un investissement de 15 milliards de dollars dans Anthropic, NVIDIA injectant 10 milliards et Microsoft les 5 milliards restants.

En contrepartie, Anthropic s’engage à acheter des services cloud à Microsoft (via Azure) à hauteur de 30 milliards d’euros. Sans surprise, l’accord vise à fournir les capacités de calcul nécessaires au développement des prochains modèles Claude d’Anthropic. La startup indique d’ailleurs qu’elle accèdera ainsi à « une capacité de calcul supplémentaire jusqu’à un gigawatt ». On ne sait pas grand-chose de plus, sinon que cette capacité passera par des systèmes Grace Blackwell et Vera Rubin, comme chez pratiquement tous les concurrents.

Dans un billet, Anthropic indique également avoir établi « pour la première fois » un partenariat technologique avec NVIDIA. Les deux entreprises vont collaborer « sur la conception et l’ingénierie, dans le but d’optimiser les modèles Anthropic pour les meilleures performances, efficacité et TCO [coût total de possession, ndlr] possibles, et d’optimiser les futures architectures NVIDIA pour les charges de travail Anthropic ».

Même le PDG de NVIDIA, Jensen Huang, semble extatique dans la vidéo de l’annonce : « C’est un rêve devenu réalité pour nous. Vous savez, nous admirons le travail d’Anthropic et Dario [Amodei, CEO d’Anthropic, ndlr] depuis longtemps, et c’est la première fois que nous allons nous associer profondément à Anthropic pour accélérer Claude ».

Les modèles Claude débarquent en force chez Microsoft

Les liens entre Anthropic et Microsoft se renforcent aussi nettement. Les modèles Claude Sonnet 4.5, Sonnet 4.1 et Haiku 4.5 déboulent dans presque tous les produits Microsoft, et pas uniquement à destination des développeurs. On les retrouve ainsi dans Microsoft Foundry et dans toutes les déclinaisons de la gamme Copilot, par exemple GitHub et Microsoft 365. Pour la clientèle, cela signifie donc la possibilité d’utiliser les modèles Claude plutôt que GPT.

En dépit de cette annonce importante, Anthropic précise en fin de billet qu’Amazon reste son « principal fournisseur cloud et partenaire de formation ».

Si les investissements circulaires sont nombreux depuis plusieurs semaines, avec toujours NVIDIA au centre de la toile (même si AMD commence à se manifester un peu plus), on observe désormais une volonté de réduire la dépendance à OpenAI et une renégociation des exclusivités, comme dans le cas d’OpenAI avec Microsoft. L’accord avec Anthropic était attendu, car il s’agissait d’une conséquence évidente à l’indépendance d’OpenAI. Une approche multi-modèles qui assure de ne pas mettre tous ses œufs dans le même panier, même si les milliards de dollars investis concernent toujours la même petite poignée de sociétés.

Pour OpenAI, cela signifie également qu’Anthropic est confirmé dans sa position de concurrent direct, même si le lancement de Gemini 3 Pro pourrait rebattre les cartes. Avec 800 millions d’utilisateurs, ChatGPT reste cependant en tête. En attendant, les modèles Claude sont maintenant disponibles chez les trois grands fournisseurs de solutions cloud : AWS, Microsoft Azure et Google Cloud Platform.

Google lance en grande pompe Gemini 3 Pro et son IDE Antigravity

19 novembre 2025 à 09:27
Roi du jour
Google lance en grande pompe Gemini 3 Pro et son IDE Antigravity

Google a finalement dégainé sa nouvelle famille de LLM, dont le représentant star est Gemini 3 Pro. L’entreprise ne manque pas d’arguments pour propulser son modèle sous les projecteurs. Présenté comme un anti-ChatGPT, Gemini 3 Pro est déjà disponible (presque) partout.

La guerre entre les LLM repart de plus belle avec la nouvelle incarnation de Gemini chez Google. Cette troisième mouture, comme on peut s’y attendre, prend la tête dans tous les benchmarks, avec parfois des marges significatives, en particulier face à GPT-5.1.

Google présente ainsi Gemini 3 Pro comme « une nouvelle étape pour l’intelligence artificielle » et « un autre grand pas vers l’AGI », avec des résultats plus visuels, plus directs et beaucoup moins flatteurs. « Ses réponses sont intelligentes, concises et directes, troquant clichés et flatteries contre une véritable intuition — vous disant ce que vous avez besoin d’entendre, pas seulement ce que vous voulez entendre », déclare Google dans son billet d’annonce.

Google prend la tête du peloton

Gemini 3 Pro affiche des performances d’autant plus intéressantes qu’il se retrouve premier sur nombre de tests face à GPT-5.1 et Claude Sonnet 4.5, et bien sûr face à Gemini 2.5 Pro, largement dépassé par son petit frère.

Google met particulièrement en avant certains résultats car l’écart avec les autres est majeur. Sur Humanity’s Last Exam, qui teste le « raisonnement académique », Gemini 3 Pro affiche un score de 37,5 % sans outils, et de 45,8 % avec la recherche ou l’exécution de code. Des scores très supérieurs à ceux de GPT-5.1 (26,5 %) et surtout de Claude Sonnet 4.5 (13,7 %). Sur ARC-AGI-2, Gemini 3 Pro grimpe à 31,1 %, loin devant GPT-5.1 (17,6 %) et Claude Sonnet 4.5 (13,6 %). Le nouveau LLM affiche également un score de 1 501 points sur LMArena.

Crédits : Google

La tarification de Gemini 3 Pro est dans la moyenne, avec 2 dollars par million de jetons en entrée et 12 dollars par million de jetons en sortie, mais uniquement pour les requêtes ne dépassant pas 200 000 jetons via l’API Gemini dans Google AI Studio et Vertex AI. Pour les contextes dépassant 200 000 tokens, la tarification passe à 4 dollars en entrée et 18 dollars en sortie par million de jetons.

Google marque également sa différence avec une disponibilité immédiate. Tous les produits intégrant Gemini sont passés hier soir de la version 2.5 Pro à la 3 Pro. Seule exception, les résumés IA dans les résultats de recherche, qui ne seront générés que pour les requêtes « les plus complexes ». Pour le reste, que ce soit dans l’application ou ailleurs, c’est bien le dernier LLM qui est présent, en deux versions.

Deux variantes et des capacités réservées aux comptes payants

Comme chez presque tous les concurrents, Gemini 3 Pro est en effet proposé en version « Rapide » et « Raisonnement ». On s’en doute, le premier donne des résultats plus vite, tandis que le second prend davantage le temps de la « réflexion », augmentant la précision au détriment de la rapidité. Dans le tableau des performances donné par Google, c’est le modèle Thinking qui affiche bien sûr les meilleurs résultats, puisque le modèle contrôle ses réponses au fur et à mesure, dans une démarche devenue typique de raisonnement.

Le modèle Thinking dispose en outre d’une fonction dite de « raisonnement auto-correctif » : il planifie, critique et corrige ses propres réponses avant de les afficher. Selon Google, cette méthode réduit considérablement les hallucinations sur les tâches complexes comme les mathématiques, le code et la logique. L’entreprise vante également sa « multimodalité native fusionnée », ses modèles traitant le texte, l’audio et la vidéo de la même manière, ce qui garantit selon Google une très faible latence dans les conversations vocales notamment.

Crédits : Google

Les deux versions du modèle sont disponibles partout, y compris pour les comptes gratuits. La différence se jouera – comme toujours – sur le nombre de requêtes, le compte gratuit étant rapidement épuisé en Raisonnement, tandis que les formules payantes ont des paliers plus élevés.

En mode raisonnement, les abonnés payants disposent aussi de plusieurs nouveaux modes expérimentaux d’affichage des résultats. Par exemple, le Visual Layout affiche les résultats sous forme de magazine incluant de nombreuses images, que l’on peut faire défiler. Autre possibilité, la Dynamic View, qui utilise les capacités du modèle en développement pour créer des interfaces personnalisées, par exemple une application web pour explorer la vie et l’œuvre d’un(e) artiste.

Google ajoute que Gemini 3 Pro est le premier représentant de la nouvelle famille. Des versions plus réduites arriveront après, mais l’entreprise ne donne aucun calendrier. Ajoutons que Gemini 3 Pro, comme la version 2.5 avant lui, est disponible sous forme de préversion. Là encore, pas d’information sur l’arrivée de la version finale. Dans le cas de Gemini 2.5, il s’était écoulé plusieurs mois.

Google veut frapper fort chez les développeurs

Si Gemini 3 Pro se présente avant tout comme un ChatGPT, notamment avec un ton présenté comme très neutre, Google veut clairement faire tomber Claude de son trône de LLM star chez les développeurs.

Sundar Pichai a ainsi indiqué que le nouveau modèle représentait une nouvelle étape majeure dans le développement agentique. Et pour marquer le coup, la firme lance Antigravity, sa propre solution de développement assisté par IA (vibe coding). Le nouvel outil rassemble sous un même toit une fenêtre de type chatbot, une interface en ligne de commande (bash) et une zone navigateur qui affiche les opérations en cours et l’impact des modifications.

Comme d’autres solutions de type Warp ou Cursor 2.0, Antigravity est clairement un IDE (Integrated Development Environment, que Microsoft s’est amusé récemment à renommer Intelligent Development Environment pour son Visual Studio 2026). Google le présente comme un « centre de contrôle » permettant de surveiller les agents en train de travailler. Toutes les activités sont retransmises aux développeurs par des « Artefacts », des sous-tâches servant à renseigner sur ce qui est fait et devant faciliter la vérification.

Antigravity fonctionne par défaut avec Gemini 3 Pro, mais Google veut rendre son produit « agnostique ». Il prend ainsi en charge Claude Sonnet 4.5 et les agents GPT-OSS. L’entreprise affirme cependant que Gemini 3 Pro est aujourd’hui le meilleur modèle disponible pour le vibe coding.

Le nouveau IDE est disponible pour Windows, macOS et Linux.

❌