Pour ses IA, Anthropic va utiliser jusqu’à un million de TPU Google
T’es là ? TPU là !
Anthropic et Google viennent d’annoncer une intensification de leur partenariat. Le premier va ainsi utiliser jusqu’à un million de TPU du second, illustrant une nouvelle fois le besoin constant de nouvelles capacités de calcul pour les IA. Parallèlement, Anthropic élargit la fonction « mémoire » de Claude à d’autres abonnements.
Il est devenu crucial pour les entreprises de l’IA de diversifier les ressources matérielles sur lesquelles tournent leurs opérations, qu’il s’agisse de l’entrainement ou de l’inférence, pour citer les deux plus importantes. Des entreprises comme Amazon, Google et Microsoft développent ainsi leurs propres puces. Elles permettent de réduire la dépendance à NVIDIA – qui garde l’avantage de la puissance brute – en confiant à des puces moins onéreuses et plus économes certaines opérations, dont l’inférence.
Partenariat majeur avec Google
C’est dans ce contexte qu’Anthropic et Google viennent d’annoncer une extension de leur partenariat. Il vise à intensifier l’utilisation de Google Cloud par Anthropic, afin de « répondre à la demande croissante des clients », indique l’éditeur de Claude. Google y voit une validation du « bon rapport qualité-prix et de l’efficacité » de ses puces.
Cette extension doit permettre d’utiliser jusqu’à un million de TPU (Tensor Core Unit) de Google, y compris la 7ᵉ génération de ces puces (Ironwood, lancée en avril), comme le précise Google dans son communiqué. Les TPU de 7ᵉ génération ne sont pas encore disponibles, il faut pour le moment faire une demande d’accès anticipé.
Anthropic, comme OpenAI, diversifie ses sources d’approvisionnement
Dans son communiqué, Anthropic explique que cet investissement représente « des dizaines de milliards de dollars », sans que l’on sache qui investit quoi. Cette approche permettrait à Anthropic de « faire progresser les capacités de Claude tout en maintenant des partenariats solides dans l’ensemble de l’industrie ». Pour la société, cet accord illustre dans tous les cas une « approche diversifiée qui utilise efficacement trois plateformes de puces : les TPU de Google, Trainium d’Amazon et les GPU de NVIDIA ».
AMD est pour le moment le grand absent de cette liste. OpenAI, qui multiplie aussi les partenariats, en a annoncé un avec le Texan, mais presque de seconde zone car il n’était pas question de superintelligence ou d’IA générale, contrairement aux annonces avec NVIDIA et Broadcom.
La lecture des communiqués d’Anthropic, Google ou même des précédents chez OpenAI et autres affiche un optimisme toujours rayonnant au sein de la tech américaine. Comme nous le relevions début octobre, on constate cependant un haut niveau de « consanguinité » dans les investissements : c’est toujours le même petit groupe d’entreprises, au sein duquel elles investissent les unes dans les autres, OpenAI et NVIDIA drainant des centaines de milliards de dollars. Certains analystes y voient le signe supplémentaire d’une bulle spéculative.
Le retour de la mesure en « GW de puissance »
Google indique qu’« Anthropic aura accès à plus d’un gigawatt de capacité qui sera mise en service en 2026 », une information qui réclame de grosses pincettes car elle ne veut pas dire grand-chose seule. Et même si on la combine avec 1 million de TPU, cela donnerait 1 000 watts par TPU. Un chiffre très élevé pour un seul TPU, dans l’ordre de grandeur des derniers GPU de NVIDIA.
Anthropic ajoute que cette capacité accrue lui permettra de répondre à « une demande de croissance exponentielle » tout en maintenant ses « modèles à la pointe de l’industrie ». « Ces ressources de calcul plus importantes permettront également d’effectuer des tests plus approfondis, des recherches d’alignement et un déploiement responsable à grande échelle », précise Anthropic.
Selon Google, ses TPU seront utilisés aussi bien pour l’entrainement des IA d’Anthropic que pour l’inférence. Dans son communiqué, Google ajoute qu’Anthropic aura aussi accès à « des services Google Cloud supplémentaires », mais sans dire lesquels.

La mémoire de Claude sort des entreprises
Dans sa guerre féroce contre OpenAI et son ChatGPT, Claude manquait d’une fonctionnalité ajoutée dans son concurrent en avril puis étendue en juin à l’ensemble des utilisateurs : la mémoire. Elle permet de retenir un nombre croissant d’informations jugées cruciales. L’exemple fourni par OpenAI était alors parlant : mentionner une allergie alimentaire afin que l’aliment concerné soit écarté des recettes. Sur Claude, la mémoire a fini par arriver en septembre, mais elle était réservée aux entreprises, via les abonnements Teams et Enterprise.
Dans un tweet, Anthropic annonce que la fonction est désormais disponible pour des abonnements plus « classiques » : d’abord pour les personnes ayant un abonnement Max (100 à 200 dollars par mois), puis ce sera au tour des abonnements Pro d’ici deux semaines.
La fonction elle-même n’a pas changé et se veut toujours tournée vers le travail d’équipe. Facultative, la fonction est censée retenir des paramètres importants et apprendre du contexte professionnel, particulièrement dans la gestion de projets. Claude crée des « souvenirs » spécifiques à chaque projet et doit permettre des gains de temps, les personnes concernées n’ayant a priori plus besoin de repréciser le contexte de leurs demandes.
















