Build 2025 : Microsoft se renforce sur les IA locales et veut un agent sur chaque site
Smith ? Perturbateur ? Orange ?

Sans surprise, les annonces de Microsoft au sujet de l’IA ont été très nombreuses durant la conférence d’ouverture de la Build. Voici ce qu’il ne fallait pas manquer.
Microsoft étant devenu l’un des acteurs majeurs de l’intelligence artificielle, les conférences Build sont largement centrées sur ce sujet. À l’instar de ce que l’on a pu voir plus tôt dans l’année chez Google, une certaine maturité commence à s’imposer, notamment à travers le grand sujet du moment : les agents, et désormais la manière dont ils peuvent communiquer entre eux.
- Build 2025 : Windows et son Store reçoivent enfin un peu d’attention
- Build 2025 : WinGet devient plus puissant et Edit modifie les fichiers depuis le Terminal
Windows AI Foundry
On commence avec Windows AI Foundry, qui est en fait le nouveau nom (Microsoft aime en changer) du service Windows Copilot Runtime. Le terme Foundry étant utilisé dans d’autres domaines, il s’agit d’une nouvelle appellation parapluie pour mieux représenter de quoi il s’agit. En l’occurrence, d’une « plateforme unifiée pour le développement local de l’IA », avec pour mission de concentrer toutes les ressources liées à l’utilisation de l’IA directement sur les appareils. Windows AI Foundry est donc placé en opposition à Azure AI Foundry qui, de son côté, s’attèle à tout ce qui s’exécute dans le cloud.
Windows AI Foundry peut ainsi détecter le matériel d’un ordinateur, installer automatiquement tous les composants nécessaires à l’exécution d’un modèle spécifique et s’occuper de leurs mises à jour. Il contient un vaste catalogue de modèles open source, indique Microsoft.

On y trouve également Foundry Local, disponible pour Windows et macOS. Ce kit de développement (SDK) comprend un ensemble d’outils et de modules destinés à faciliter l’exécution des modèles en local, le tout en s’appuyant sur le runtime open source ONNX. Foundry Local intègre en outre une interface en ligne de commande, pour des commandes du type « foundry model list
» ou « foundry model run
». Là encore, la détection du matériel pourra indiquer quels modèles peuvent être essayés.
On trouve également Windows ML, qui prend la relève de DirectML en tant que runtime d’inférence, en exploitant les capacités des CPU, GPU et bien sûr NPU. Microsoft promet que son runtime suivra les évolutions du matériel et pourra maintenir les dépendances des modèles avec les évolutions des machines. Windows ML n’est pour l’instant disponible qu’en préversion.
Une nouvelle trousse à outils, AI Toolkit for VS Code, est chargé de s’occuper de tout ce qui touche à la préparation des modèles et des applications. La quantification, l’optimisation, la compilation et le profilage font partie de ses attributions. Disponible lui aussi en préversion, il veut simplifier le processus de préparation et de livraison des modèles via Windows ML.
Notez que dans le cadre de Windows ML, NVIDIA a de son côté annoncé une révision de son kit TensorRT, qui vient d’être révisé pour les GeForce RTX. Dans sa présentation, la société parle d’un support natif par Windows ML.
NLWeb, le gros morceau de la Build
L’une des annonces qui a le plus retenu l’attention est NLWeb. Microsoft a clairement la volonté d’aplanir le terrain devant les agents, en particulier les chatbots. La volonté de l’éditeur avec ce nouveau projet est simple : aider à la création de chatbots pour tous les sites.
NLWeb doit permettre cette diffusion en quelques lignes de code, permettant de choisir le modèle et de connecter les sources de données. Microsoft donne des exemples : un chatbot pour aider les clients à choisir des vêtements pour des voyages spécifiques, un autre sur un site de cuisine pour suggérer des plats à associer à une recette, etc.
NLWeb pouvant créer des pages web, les utilisateurs auront le choix de mettre à disposition leurs contenus aux plateformes d’IA compatibles MCP (Model Context Protocol), créé par Anthropic pour simplifier justement la connexion des modèles aux sources de données. Plus précisément, « chaque point de terminaison NLWeb est également un serveur Model Context Protocol », explique Microsoft, permettant « aux sites web de rendre leur contenu découvrable et accessible aux agents et autres participants de l’écosystème MCP s’ils le souhaitent ».
Microsoft n’hésite pas à comparer NLWeb à « un HTML pour le web agentique » et rêve déjà d’agents sur tous les sites. La promesse aux internautes est qu’ils pourront interagir avec le contenu de ces sites de manière riche et sémantique. NLWeb exploite pour cela des formats semi-structurés comme Schema.org, RSS ou autres, combinées avec des LLM. NLWeb incorpore dans ces données des connaissances externes venant des LLM sous-jacents, comme des informations géographiques sur une requête concernant un restaurant.
NLWeb est open source (licence MIT) et a déjà son dépôt GitHub, qui contient tout ce qu’il faut pour se lancer. Le projet se veut totalement « agnostique », tant sur la plateforme utilisée (Windows, macOS, Linux…) que sur les réserves de vecteurs (Qdrant, Snowflake, Milvus, Azure AI Search…) et les LLM (OpenAI, Deepseek, Gemini, Anthropic, Inception…). Le dépôt contient le cœur du service, les connecteurs pour les principaux modèles et réserves de vecteurs, des outils pour les données, un serveur web et une interface simple. Microsoft dit s’attendre à ce que les déploiements se fassent avec des interfaces personnalisées.
Deux améliorations pour MCP
Puisque l’on parle du protocole d’Anthropic, Microsoft et GitHub ont annoncé leur entrée dans le comité de pilotage MCP. Deux apports ont été présentés dans ce contexte.
D’abord, une nouvelle spécification d’identité et d’autorisation. Elle doit permettre aux applications connectées à MCP d’améliorer la sécurité des connexions aux serveurs. Plusieurs méthodes de connexion fiables sont prises en charge, et Microsoft y va bien sûr de son Entra ID. Résultat, les agents et applications utilisant des LLM peuvent obtenir l’accès à ces informations, y compris les disques de stockage personnels et les services d’abonnement. En clair, il s’agit de mettre en phase les agents avec des informations verrouillées par des droits, que l’on pourra fournir après demande d’autorisation. Cet ajout devrait être utile en entreprise, pour gérer les contextes de sécurité.
L’autre apport est un registre public et communautaire des serveurs MCP. Il permet « quiconque de mettre en œuvre des référentiels publics ou privés, actualisés et centralisés pour les entrées de serveurs MCP et de permettre la découverte et la gestion de diverses implémentations MCP avec leurs métadonnées, configurations et capacités associées », explique Microsoft.
Recherche scientifique et Grok
Parmi les autres annonces, on note aussi l’arrivée de Discovery. Cette plateforme veut exploiter l’IA agentique pour « transformer le processus de découverte scientifique ». Comment ? En laissant l’IA faire ce qu’elle fait de mieux : lui confier toutes les opérations rébarbatives, Discovery pouvant gérer certaines charges de travail scientifique « de bout en bout ».
« Microsoft Discovery est une plateforme agentique d’entreprise qui permet d’accélérer la recherche et la découverte en transformant l’ensemble du processus de découverte grâce à l’IA agentique – du raisonnement des connaissances scientifiques à la formulation d’hypothèses, à la génération de candidats, à la simulation et à l’analyse », claironne ainsi Microsoft.
TechCrunch rappelle cependant que l’IA n’est pas nécessairement bien vue par tout le monde dans le domaine de la recherche scientifique. Cause principale : son manque de fiabilité. Nos confrères évoquent « un nombre incalculable de confusions » potentielles à surveiller. Mais l’IA pourrait quand même servir à explorer certaines voies, dans le sens d’un défrichage. Pour ce qui est de mener à des percées avérées, tout reste encore à faire.
Enfin, Microsoft annonce que Grok 3 et sa déclinaison mini sont disponibles dans sa plateforme Azure AI Foundry. Ils seront traités comme tous les autres modèles, avec toutes les fonctions liées et une facturation émise directement par Microsoft. L’annonce est d’autant plus visible que le modèle, développé par xAI et au cœur désormais du fonctionnement du réseau social X, a beaucoup fait parler de lui récemment, faisant référence au pseudo « génocide blanc » en Afrique du Sud et se montrant « sceptique » sur le nombre de juifs tués par la Shoah.