Vue lecture
Choose France : des promesses de milliards d’investissements dont des confirmations
VRP

Comme chaque année maintenant, Emmanuel Macron invite les grands patrons des multinationales pour une opération de communication dans le but d’engranger les promesses d’investissements. L’Elysée parle de 20 milliards d’euros pour cette année. Mais les annonces sur le numérique sont, pour la plupart, des redites du Sommet pour l’IA.
L’exercice est bien huilé maintenant. Comme depuis huit ans, Emmanuel Macron met ces jours-ci en avant les investissements de multinationales sur le sol européen. Le sommet « Choose France » réunit autour de lui 200 responsables de grandes entreprises françaises au Château de Versailles. À nos collègues du Figaro, une source de l’Élysée résume l’opération : « le président de la République est le VRP de la France ».
Des confirmations du Sommet de l’IA
L’Elysée a annoncé dimanche soir 37 milliards d’euros d’investissements, tout en ajoutant que 20 d’entre eux étaient « entièrement nouveaux ». Les 17 autres milliards concernent de fait pour la plupart des projets du numérique qui avaient été annoncés dans le cadre du Sommet de l’intelligence artificielle. Cette partie « numérique » de l’opération correspond donc à la portion des 109 milliards d’investissements annoncés pendant ce sommet qui doit être débloquée cette année.
Dans cette enveloppe « confirmée » par l’Élysée, donc, 10 milliards viennent du fonds canadien Brookfield. Celui-ci solidifie, comme l’explique le journal Les Échos, la moitié de son annonce d’investissements dans l’Hexagone faite en février. Ce financement doit permettre de monter un méga projet de data center à Cambrai mené en collaboration avec la société Data4, rachetée par le fonds en 2023. Il faudra voir si Brookfield confirme ensuite les 10 autres milliards d’euros d’investissements promis il y a quatre mois.
Du côté de Digital Realty, l’entreprise américaine de data center a annoncé ce lundi 2,3 milliards d’euros d’investissements. De la même manière, l’entreprise confirme environ la moitié des promesses faites lors du sommet de l’IA puisqu’à l’époque, elle annonçait une somme de 5 milliards d’euros pour étendre ses data centers à Marseille et en région parisienne avec 13 nouveaux sites, comme l’écrivait le Parisien.
Enfin, le fonds d’investissement émirati MGX devrait confirmer son investissement dans un « campus IA » en Île-de-France en collaboration avec Bpifrance, NVIDIA et Mistral AI. Selon l’Usine Digitale, la première tranche du projet devrait atteindre 8,5 milliards d’euros et les travaux doivent débuter au second semestre 2026. Des discussions seraient en cours au sujet d’un terrain de 70 à 80 hectares près de Melun (Seine-et-Marne), selon la Tribune.
6,4 milliards de Prologis pour des infrastructures
Du côté des nouveaux projets, L’Élysée a annoncé à l’AFP un investissement de 6,4 milliards d’euros de la part de Prologis, « en entrepôts et data centers ». Peu d’informations supplémentaires sont données à part que l’entreprise cherche à implanter quatre projets de data centers dans la région parisienne et investirait 1 milliards d’euros pour 750 000 m² d’entrepôts d’ici 2028 dans les villes de Marseille, Lyon, Paris ou du Havre.
Enfin, Kyndryl (spin-off d’IBM) a annoncé un investissement de 100 millions d’euros en France « en matière de données, d’intelligence artificielle (IA) et de cyber-résilience ».
Choose France : des promesses de milliards d’investissements dont des confirmations
VRP

Comme chaque année maintenant, Emmanuel Macron invite les grands patrons des multinationales pour une opération de communication dans le but d’engranger les promesses d’investissements. L’Elysée parle de 20 milliards d’euros pour cette année. Mais les annonces sur le numérique sont, pour la plupart, des redites du Sommet pour l’IA.
L’exercice est bien huilé maintenant. Comme depuis huit ans, Emmanuel Macron met ces jours-ci en avant les investissements de multinationales sur le sol européen. Le sommet « Choose France » réunit autour de lui 200 responsables de grandes entreprises françaises au Château de Versailles. À nos collègues du Figaro, une source de l’Élysée résume l’opération : « le président de la République est le VRP de la France ».
Des confirmations du Sommet de l’IA
L’Elysée a annoncé dimanche soir 37 milliards d’euros d’investissements, tout en ajoutant que 20 d’entre eux étaient « entièrement nouveaux ». Les 17 autres milliards concernent de fait pour la plupart des projets du numérique qui avaient été annoncés dans le cadre du Sommet de l’intelligence artificielle. Cette partie « numérique » de l’opération correspond donc à la portion des 109 milliards d’investissements annoncés pendant ce sommet qui doit être débloquée cette année.
Dans cette enveloppe « confirmée » par l’Élysée, donc, 10 milliards viennent du fonds canadien Brookfield. Celui-ci solidifie, comme l’explique le journal Les Échos, la moitié de son annonce d’investissements dans l’Hexagone faite en février. Ce financement doit permettre de monter un méga projet de data center à Cambrai mené en collaboration avec la société Data4, rachetée par le fonds en 2023. Il faudra voir si Brookfield confirme ensuite les 10 autres milliards d’euros d’investissements promis il y a quatre mois.
Du côté de Digital Realty, l’entreprise américaine de data center a annoncé ce lundi 2,3 milliards d’euros d’investissements. De la même manière, l’entreprise confirme environ la moitié des promesses faites lors du sommet de l’IA puisqu’à l’époque, elle annonçait une somme de 5 milliards d’euros pour étendre ses data centers à Marseille et en région parisienne avec 13 nouveaux sites, comme l’écrivait le Parisien.
Enfin, le fonds d’investissement émirati MGX devrait confirmer son investissement dans un « campus IA » en Île-de-France en collaboration avec Bpifrance, NVIDIA et Mistral AI. Selon l’Usine Digitale, la première tranche du projet devrait atteindre 8,5 milliards d’euros et les travaux doivent débuter au second semestre 2026. Des discussions seraient en cours au sujet d’un terrain de 70 à 80 hectares près de Melun (Seine-et-Marne), selon la Tribune.
6,4 milliards de Prologis pour des infrastructures
Du côté des nouveaux projets, L’Élysée a annoncé à l’AFP un investissement de 6,4 milliards d’euros de la part de Prologis, « en entrepôts et data centers ». Peu d’informations supplémentaires sont données à part que l’entreprise cherche à implanter quatre projets de data centers dans la région parisienne et investirait 1 milliards d’euros pour 750 000 m² d’entrepôts d’ici 2028 dans les villes de Marseille, Lyon, Paris ou du Havre.
Enfin, Kyndryl (spin-off d’IBM) a annoncé un investissement de 100 millions d’euros en France « en matière de données, d’intelligence artificielle (IA) et de cyber-résilience ».
America's College Towns Go From Boom To Bust
Read more of this story at Slashdot.
France Barred Telegram Founder Pavel Durov From Traveling To US
Read more of this story at Slashdot.
Le Razer Blade 14 2025 débutera à 2300€ « seulement »
Le précédent modèle débutait à 3000€ pièce en France, dans une configuration musclée sous Ryzen 9 et GeForce RTX 4070. Le nouveau Razer Blade 14 2025 est moins gourmand et plus développé avec un prix de départ de 2300€ et une grosse mise à jour matérielle.
On retrouve à bord de ce nouveau modèle un processeur plus puissant, un AMD Strix Point avec le Ryzen AI 9 365. Une puce qui propose 4 cœurs Zen 5 et 6 cœurs Zen 5c pour 20 Threads dans un TDP de 28 watts. Une puce qui embarque surtout un très bon circuit graphique AMD Radeon 880M mais qui sera épaulé par des puces Nvidia autrement plus puissante puisqu’on pourra compter sur une GeForce RTX 5070 dans la version la plus haut de gamme. Un modèle sous RTX 5060 sera également proposé, tous deux fonctionnant dans un TDP de 100 watts avec la possibilité de pousser légèrement plus loin en grappillant 15 watts supplémentaires avec la fonction Dynamic Boost. Le tout sera très gourmand et la batterie choisie par le constructeur aura beau être une 72 Wh, je doute qu’elle ne tienne très longtemps lorsque le processeur et le circuit graphique se réveilleront de concert.
Bordures d’écran milimétriques, clavier RGB, bel espace de travail et pavé tactile immense
Le Razer Blade 14 2025 annonce 11 heures d’autonomie, mais il faut prendre ce chiffre pour ce qu’il est, un usage en laboratoire avec un affichage peu lumineux et probablement un exercice qui ne réveillera que quelques watts du processeur : la lecture d’un fichier vidéo en boucle depuis un stockage local.
Moins reluisant, le choix d’une mémoire LPDDRX-8000 soudée à la carte mère qui débutera à 16 Go pour grimper ensuite à 32 et 64 Go. Et on comprend assez vite le tour de passe-passe. Qui va dépenser 2300€ dans un portable gaming avec 16 Go de mémoire vive non évolutive ? À part quelqu’un qui ne connaitra pas vraiment le matériel et qui fort peu susceptible de commander un Razer, personne. C’est donc un prix d’appel qui est là pour attirer le public qui verra assez rapidement qu’avec des options raisonnables pour la pérennité de sa machine, c’est-à-dire au moins 32 Go de RAM soudée, il faudra dépenser un petit peu plus. Je regrette clairement ce choix de la part de Razer de basculer son Blade 14 ers de la mémoire soudée. Outre les soucis de vitesse posés par ces modules à basse consommation, on perd clairement la possibilité de toute mise à jour. Le précédent modèle offrait deux emplacements SODIMM permettant d’augmenter facilement la mémoire jusqu’à 96 Go.
Cet ensemble tournera sur un écran de 14 pouces de diagonale en OLED « 3K »1 et 120 Hz qui sera probablement réglé à des normes de colorimétrie avancées. Le châssis sera léger, 1.63 Kg, ce qui est un poids plume compte tenu de l’équipement embarqué. Le Razer Blade 14 2025 utilise une coque en aluminium usinée dans la masse pour proposer un ensemble robuste et efficace. À son point le plus fin, il mesurera 15.7 mm mais Razer ne dit pas un mot sur son point le plus épais et le reste de ses mensurations.
Enfin, la connectique est classique mais complète avec deux USB4, deux USB 3.2 Type-A, une sortie HDMI 2.1, un jack audio combo 3.5 mm, la solution d’alimentation propriétaire de la marque, un Antivol type Kensington Lock et une solution sans fil Wi-Fi7 et Bluetooth 5.4 non détaillée.
Le Razer Blade 14 2025 débutera à 2300€ « seulement » © MiniMachines.net. 2025
Red Hat Announces The llm-d Open-Source Project For Gen AI
Some Minor Performance Hits Observed With New Intel Arrow Lake 0x118 CPU Microcode
ASRock dévoile cinq nouvelles cartes mères X870 au Computex 2025

Cinq nouvelles cartes mères nous ont été présentées par ASRock au cours de ce Computex 2025. Toutes sont équipées du Wi-Fi 7, mais l'une d'entre elles devrait particulièrement faire parler d'elle : la X870 Taichi Creator, qui signe le retour de la gamme professionnelle dans le giron de la marque taïwanaise. Au programme, deux ports Ethernet (10G et 5G), un impressionnant total de douze ports USB à l'arrière, ainsi qu'un double port PCIe Gen 5 capable d'accueillir deux cartes graphiques en x8. […]
Lire la suiteComputex 2025 : du petit format, mais ultra puissant avec FSP !

FSP faisant, initialement, des alimentations, il était normal d'en trouver des nouvelles. Et les amateurs de petits formats seront ravis puisqu'on aura prochainement un modèle MEGA TI de 150 mm de profondeur pour 1000 W de puissance en 80 PLUS TITANIUM, mais aussi Cybenetics Titanium et A++ pour les nuisances sonores. Le style MEGA est bien entendu présent avec une jolie grille pour le ventilateur de 135 mm à roulement FDB, qui profite toujours d'un mode semi-passif en fonction de la charge. Pour l'instant, ce format de 150 mm est réservé à la puissance de 1000 W, mais rien ne dit que les choses n'évolueront pas par la suite ! […]
Lire la suiteComputex 2025 : Le plein de nouvelles machines chez ASUS : TUF Gaming A14

Parmi les nouveautés de chez ASUS, nous avons quelques nouvelles machines, dont une déjà traitée dans nos lignes éditoriales. Mais au-delà d'une machine avec un ventirad déporté, nous avons aussi un nouveau laptop avec le TUF Gaming A14. […]
Lire la suiteTest GIGABYTE GeForce RTX 5060 Gaming OC : as-tu toujours une âme Gaming ?

Notre second test du jour porte sur la carte graphique GIGABYTE GeForce RTX 5060 Gaming OC. Follement Gaming cette 5060 ? Pour connaitre la réponse, le plus simple est de cliquer ici : Test GIGABYTE GeForce RTX 5060 Gaming OC : as-tu toujours une âme Gaming ? ou alors sur la source. […]
Lire la suiteComputex 2025 : deux formats dual tower chez FSP, avec du petit et du gros

Quand on pense dual tower, on pense souvent gros radiateurs particulièrement imposants. Mais certains produits savent rester discrets, à l'image du prochain MP9 de chez FSP : avec sa base excentrée et ses tours qui sont finalement assez fines, il ne bloque pas la mémoire et s'installe donc très simplement, d'autant plus que le ventilateur central n'est pas à retirer. En effet, le bundle comprend un tournevis très long, et surtout très fin, qui se glisse entre le ventilateur et les ailettes. C'est bien vu, et l'ensemble ne mesure que... 165 mm de hauteur. Que ? Pas vraiment donc, mais c'est compatible avec de nombreux boitiers de la marque, et d'autres aussi évidemment. FSP utilise en effet un carénage assez imposant, et opte surtout pour un ventilateur de 130 x 28 au milieu. C'est original, et ça permet de monter à 300 W d'après la marque. […]
Lire la suiteMessagerie : comment l’École Polytechnique justifie de son choix de Microsoft 365
You've got mail

Auditionnée par une commission d’enquête du Sénat, la directrice générale de l’École Polytechnique a expliqué pourquoi l’établissement prévoyait de migrer sa messagerie vers l’offre hébergée Microsoft 365. Entre autres arguments, elle invoque l’absence d’alternative souveraine offrant un niveau de performance et d’intégration équivalent, et déplace le curseur en matière de confidentialité des données face à la portée des lois extraterritoriales américaines.
Comment l’X, prestigieuse école d’ingénieurs française placée sous tutelle du ministère des Armées, peut-elle ignorer de façon aussi patente les débats liés à la souveraineté des données, alors que la Direction interministérielle du numérique et les services de Bercy multiplient les rappels ?
La question se pose de façon très ouverte depuis le 19 mars dernier, date à laquelle La Lettre a révélé que l’École Polytechnique prévoyait de migrer sa messagerie vers l’offre hébergée Microsoft 365.
La divulgation de ce projet de migration est par ailleurs intervenue au lendemain d’une autre révélation, signée Next cette fois : la passation, par le ministère de l’Enseignement supérieur et de la recherche, d’un important marché public, portant sur au moins 74 millions d’euros de licences et de services en ligne Microsoft.
Hasard du calendrier, ces deux informations sont sorties peu de temps après la mise en place, par le Sénat, d’une commission d’enquête dédiée à la question de la commande publique. Installée le 6 mars dernier, cette dernière doit enquêter sur la façon dont les institutions publiques appréhendent leurs achats, notamment dans l’univers numérique.
L’occasion était donc toute trouvée, pour la commission nouvellement installée, de convoquer la directrice générale de l’École Polytechnique, Laura Chambard. L’audition, organisée le 13 mai dernier, a donné lieu à une dénégation de l’information selon laquelle les laboratoires de recherche étaient concernés. Ainsi qu’à un exercice de justification du choix de Microsoft 365 qui illustre la problématique des messageries souveraines.
Intel Explores Sale of Networking and Edge Unit
Read more of this story at Slashdot.
EKWB tente de renaître en devenant LM TEK
Build 2025 : Microsoft se renforce sur les IA locales et veut un agent sur chaque site
Smith ? Perturbateur ? Orange ?

Sans surprise, les annonces de Microsoft au sujet de l’IA ont été très nombreuses durant la conférence d’ouverture de la Build. Voici ce qu’il ne fallait pas manquer.
Microsoft étant devenu l’un des acteurs majeurs de l’intelligence artificielle, les conférences Build sont largement centrées sur ce sujet. À l’instar de ce que l’on a pu voir plus tôt dans l’année chez Google, une certaine maturité commence à s’imposer, notamment à travers le grand sujet du moment : les agents, et désormais la manière dont ils peuvent communiquer entre eux.
- Build 2025 : Windows et son Store reçoivent enfin un peu d’attention
- Build 2025 : WinGet devient plus puissant et Edit modifie les fichiers depuis le Terminal
Windows AI Foundry
On commence avec Windows AI Foundry, qui est en fait le nouveau nom (Microsoft aime en changer) du service Windows Copilot Runtime. Le terme Foundry étant utilisé dans d’autres domaines, il s’agit d’une nouvelle appellation parapluie pour mieux représenter de quoi il s’agit. En l’occurrence, d’une « plateforme unifiée pour le développement local de l’IA », avec pour mission de concentrer toutes les ressources liées à l’utilisation de l’IA directement sur les appareils. Windows AI Foundry est donc placé en opposition à Azure AI Foundry qui, de son côté, s’attèle à tout ce qui s’exécute dans le cloud.
Windows AI Foundry peut ainsi détecter le matériel d’un ordinateur, installer automatiquement tous les composants nécessaires à l’exécution d’un modèle spécifique et s’occuper de leurs mises à jour. Il contient un vaste catalogue de modèles open source, indique Microsoft.

On y trouve également Foundry Local, disponible pour Windows et macOS. Ce kit de développement (SDK) comprend un ensemble d’outils et de modules destinés à faciliter l’exécution des modèles en local, le tout en s’appuyant sur le runtime open source ONNX. Foundry Local intègre en outre une interface en ligne de commande, pour des commandes du type « foundry model list
» ou « foundry model run
». Là encore, la détection du matériel pourra indiquer quels modèles peuvent être essayés.
On trouve également Windows ML, qui prend la relève de DirectML en tant que runtime d’inférence, en exploitant les capacités des CPU, GPU et bien sûr NPU. Microsoft promet que son runtime suivra les évolutions du matériel et pourra maintenir les dépendances des modèles avec les évolutions des machines. Windows ML n’est pour l’instant disponible qu’en préversion.
Une nouvelle trousse à outils, AI Toolkit for VS Code, est chargé de s’occuper de tout ce qui touche à la préparation des modèles et des applications. La quantification, l’optimisation, la compilation et le profilage font partie de ses attributions. Disponible lui aussi en préversion, il veut simplifier le processus de préparation et de livraison des modèles via Windows ML.
Notez que dans le cadre de Windows ML, NVIDIA a de son côté annoncé une révision de son kit TensorRT, qui vient d’être révisé pour les GeForce RTX. Dans sa présentation, la société parle d’un support natif par Windows ML.
NLWeb, le gros morceau de la Build
L’une des annonces qui a le plus retenu l’attention est NLWeb. Microsoft a clairement la volonté d’aplanir le terrain devant les agents, en particulier les chatbots. La volonté de l’éditeur avec ce nouveau projet est simple : aider à la création de chatbots pour tous les sites.
NLWeb doit permettre cette diffusion en quelques lignes de code, permettant de choisir le modèle et de connecter les sources de données. Microsoft donne des exemples : un chatbot pour aider les clients à choisir des vêtements pour des voyages spécifiques, un autre sur un site de cuisine pour suggérer des plats à associer à une recette, etc.
NLWeb pouvant créer des pages web, les utilisateurs auront le choix de mettre à disposition leurs contenus aux plateformes d’IA compatibles MCP (Model Context Protocol), créé par Anthropic pour simplifier justement la connexion des modèles aux sources de données. Plus précisément, « chaque point de terminaison NLWeb est également un serveur Model Context Protocol », explique Microsoft, permettant « aux sites web de rendre leur contenu découvrable et accessible aux agents et autres participants de l’écosystème MCP s’ils le souhaitent ».
Microsoft n’hésite pas à comparer NLWeb à « un HTML pour le web agentique » et rêve déjà d’agents sur tous les sites. La promesse aux internautes est qu’ils pourront interagir avec le contenu de ces sites de manière riche et sémantique. NLWeb exploite pour cela des formats semi-structurés comme Schema.org, RSS ou autres, combinées avec des LLM. NLWeb incorpore dans ces données des connaissances externes venant des LLM sous-jacents, comme des informations géographiques sur une requête concernant un restaurant.
NLWeb est open source (licence MIT) et a déjà son dépôt GitHub, qui contient tout ce qu’il faut pour se lancer. Le projet se veut totalement « agnostique », tant sur la plateforme utilisée (Windows, macOS, Linux…) que sur les réserves de vecteurs (Qdrant, Snowflake, Milvus, Azure AI Search…) et les LLM (OpenAI, Deepseek, Gemini, Anthropic, Inception…). Le dépôt contient le cœur du service, les connecteurs pour les principaux modèles et réserves de vecteurs, des outils pour les données, un serveur web et une interface simple. Microsoft dit s’attendre à ce que les déploiements se fassent avec des interfaces personnalisées.
Deux améliorations pour MCP
Puisque l’on parle du protocole d’Anthropic, Microsoft et GitHub ont annoncé leur entrée dans le comité de pilotage MCP. Deux apports ont été présentés dans ce contexte.
D’abord, une nouvelle spécification d’identité et d’autorisation. Elle doit permettre aux applications connectées à MCP d’améliorer la sécurité des connexions aux serveurs. Plusieurs méthodes de connexion fiables sont prises en charge, et Microsoft y va bien sûr de son Entra ID. Résultat, les agents et applications utilisant des LLM peuvent obtenir l’accès à ces informations, y compris les disques de stockage personnels et les services d’abonnement. En clair, il s’agit de mettre en phase les agents avec des informations verrouillées par des droits, que l’on pourra fournir après demande d’autorisation. Cet ajout devrait être utile en entreprise, pour gérer les contextes de sécurité.
L’autre apport est un registre public et communautaire des serveurs MCP. Il permet « quiconque de mettre en œuvre des référentiels publics ou privés, actualisés et centralisés pour les entrées de serveurs MCP et de permettre la découverte et la gestion de diverses implémentations MCP avec leurs métadonnées, configurations et capacités associées », explique Microsoft.
Recherche scientifique et Grok
Parmi les autres annonces, on note aussi l’arrivée de Discovery. Cette plateforme veut exploiter l’IA agentique pour « transformer le processus de découverte scientifique ». Comment ? En laissant l’IA faire ce qu’elle fait de mieux : lui confier toutes les opérations rébarbatives, Discovery pouvant gérer certaines charges de travail scientifique « de bout en bout ».
« Microsoft Discovery est une plateforme agentique d’entreprise qui permet d’accélérer la recherche et la découverte en transformant l’ensemble du processus de découverte grâce à l’IA agentique – du raisonnement des connaissances scientifiques à la formulation d’hypothèses, à la génération de candidats, à la simulation et à l’analyse », claironne ainsi Microsoft.
TechCrunch rappelle cependant que l’IA n’est pas nécessairement bien vue par tout le monde dans le domaine de la recherche scientifique. Cause principale : son manque de fiabilité. Nos confrères évoquent « un nombre incalculable de confusions » potentielles à surveiller. Mais l’IA pourrait quand même servir à explorer certaines voies, dans le sens d’un défrichage. Pour ce qui est de mener à des percées avérées, tout reste encore à faire.
Enfin, Microsoft annonce que Grok 3 et sa déclinaison mini sont disponibles dans sa plateforme Azure AI Foundry. Ils seront traités comme tous les autres modèles, avec toutes les fonctions liées et une facturation émise directement par Microsoft. L’annonce est d’autant plus visible que le modèle, développé par xAI et au cœur désormais du fonctionnement du réseau social X, a beaucoup fait parler de lui récemment, faisant référence au pseudo « génocide blanc » en Afrique du Sud et se montrant « sceptique » sur le nombre de juifs tués par la Shoah.
Fibre sans fioriture : des baisses chez Red by SFR et Free, une nouvelle guerre des prix ?
On est encore loin des offres à 1,99 euro par mois

Une nouvelle guerre des prix se profile chez les fournisseurs d’accès à Internet… à coup de 1 ou 2 euros de remise par mois. Nous sommes loin de l’époque des forfaits à moins de 2 euros, mais la baisse est généralisée.
Depuis quelques mois, les prix repartent à la baisse chez les opérateurs. Un élément déclencheur était le lancement par B&You de son offre Pure Fibre. C’était en novembre, avec 23,99 euros pour un débit pouvant atteindre 8 Gb/s en téléchargement. Elle a de quoi séduire un public qui ne souhaite qu’un accès à Internet, sans superflu, et donc sans payer des fonctionnalités dont il n’a que faire. D’autant plus avec le passage au Wi-Fi 7 pour le même prix fin avril.
La lente chute de RED by SFR
Suite à cela, la résistance s’est rapidement organisée. RED by SFR était à 24,99 euros par mois, avec 500 Mb/s symétrique. L’opérateur est ensuite passé à 1 Gb/s symétrique (comme c’est le cas aujourd’hui) avec une baisse à 23,99 euros par mois, puis 22,99 euros et depuis peu 20,99 euros.
Les frais de mise en service de 39 euros sont offerts depuis des mois (si ce n’est des années). Problème, la box reste en Wi-Fi 5 seulement, loin derrière ses deux principaux concurrents que sont Bouygues Telecom et Free.

Free baisse d’un euro et s’engage sur cinq ans
Chez Free, la réponse est arrivée début avril avec la Freebox Pop S à 24,99 euros par mois, avec 5 Gb/s partagés en téléchargement et du Wi-Fi 7. Il s’agit en fait d’une Freebox Pop, mais sans aucun service de télévision. Dans un mouvement assez rare, le fournisseur d’accès annonce aujourd’hui une petite baisse sur sa Freebox Pop S : « Dès aujourd’hui, le prix de la Série Spéciale Pop S accessible en ligne, baisse de 1 euro à 23,99 euros par mois sans engagement ». Elle s’aligne ainsi sur Pure Fibre de B&You.
Il n’est pas question d’une offre avec une durée limitée, comme on en a déjà vu plusieurs fois par le passé. C’est bien le tarif de la Freebox Pop S qui baisse et Free ajoute même qu’il « garantit ce prix pendant 5 ans ». Ce n’est pas la première fois qu’iliad fait une telle promesse. En 2022, Xavier Niel s’engageait à maintenir les prix sur le mobile pendant cinq ans. Engagement repris dans le bilan financier de 2024 : « Le Groupe s’est engagé en 2022 à ne pas augmenter les prix de ses forfaits mobiles (2 euros et 19,99 euros) pour les 5 prochaines années, soit jusqu’à 2027 ».

La Freebox Pop S n’a pour rappel que deux mois, un changement de tarif aussi rapide montre certainement que le marché est dynamique. Selon le dernier décompte de l’Arcep, la France comptait 32,564 millions d’abonnements haut débit en France, dont 24,391 millions en fibre optique (+ 744 000 en trois mois).
Sosh de son côté reste à 25,99 euros par mois, mais propose depuis plusieurs semaines une remise de 6 euros par mois pendant un an.
Il est loin le temps des forfaits à moins de deux euros
On reste dans tous les cas loin de la guerre commerciale que s’étaient livrés les opérateurs il y a une dizaine d’années avec des abonnements Internet à moins de 10 euros par mois… voire moins de 2 euros, et même à 0,99 euro sur le mobile. Free, qui multipliait les offres sur Vente privée (désormais Veepee) en avait fait les frais et avait décidé de prolonger certaine promotions en 2018 face à l’hémorragie.
Notre tableau comparatif
Cette fois encore, voici un tableau récapitulatif des quatre forfaits « low cost » pour un accès à Internet sans fioriture. Et si vous souhaitez voir ce qu’il en est avec des forfaits plus haut de gamme incluant des accès à des plateformes de streaming, nous avions mis à jour notre comparateur interactif début avril.

Build 2025 : WinGet devient plus puissant et Edit modifie les fichiers depuis le Terminal
Tremble Vim !

On continue dans les nouveautés présentées par Microsoft durant sa conférence Build. Cette fois, on s’attarde sur les outils proposés aux développeurs, mais pas uniquement. Des produits comme WinGet, le terminal et WSL étaient ainsi à l’honneur.
WinGet pourra enregistrer l’état d’une machine
Commençons par WinGet, qui va recevoir une nouvelle commande. Nommée simplement Configuration, elle permettra d’enregistrer l’état d’un système dans un fichier de configuration, afin de le restaurer sur d’autres machines. L’état en question comprend les applications installées, ainsi que les différents paquets et outils.
Le point le plus intéressant est sans doute que cette commande prendra en charge le manifeste Microsoft Desired State Configuration V3. En clair, les applications compatibles pourront préserver leurs paramètres et configurations dans le même fichier. Lors de la restauration, elles retrouveront ainsi un état très proche que sur la machine d’origine.
La fonction sera disponible cet été.
L’édition de fichiers depuis le Terminal
L’une des annonces qui a le plus retenu l’attention des développeurs est Edit. Cet outil, dont la préversion doit arriver cet été, permettra de modifier directement des fichiers depuis le Terminal, pour éviter l’ouverture d’un outil dédié et une sortie des opérations en cours, avec l’objectif de minimiser les changements de contexte.
L’application, écrite en Rust, est également open source (sous licence MIT) et accessible actuellement sur son dépôt GitHub. Microsoft fournit des informations pour sa compilation.


L’éditeur se veut très simple. De l’aveu même de Microsoft, c’est une forme d’hommage à MS-DOS Editor. Léger (moins de 250 ko), il propose quand même son lot de fonctions, dont l’ouverture de plusieurs fichiers en parallèle (la rotation se fait via Ctrl + P), la possibilité de chercher et remplacer du texte, le support des majuscules et minuscules ou encore des expressions régulières. Bien que l’on puisse utiliser Edit avec la souris, toutes les fonctions ont des raccourcis clavier.
« Ce qui nous a motivés à créer Edit, c’est le besoin d’un éditeur de texte CLI par défaut dans les versions 64 bits de Windows. Les versions 32 bits de Windows sont livrées avec l’éditeur MS-DOS, mais les versions 64 bits n’ont pas d’éditeur CLI installé d’origine », explique dans un billet Christopher Nguyen, chef de produit chez Microsoft.
WSL et Copilot for GitHub passent en open source
Puisque l’on parle d’open source, Windows Subsystem for Linux vient également de recevoir ce traitement. Ce composant permet pour rappel depuis bientôt dix ans (lancé en 2016) de faire fonctionner des distributions Linux sur Windows grâce à la virtualisation. En dépit de certains ricanements initiaux, ce sous-système a été développé et entretenu dans le temps et plusieurs distributions peuvent être installées depuis le Store.
Si le code du noyau de WSL 2 était déjà disponible en open source, le reste était sous licence propriétaire. C’est désormais l’intégralité du sous-système que l’on trouve sous licence MIT sur un dépôt GitHub. Ce n’est d’ailleurs pas une simple visibilité sur le code, puisque Microsoft annonce recevoir volontiers des contributions. L’éditeur recommande d’ailleurs de lire le guide dédié avant de se lancer. Microsoft indique également que l’outil comporte certains éléments « basiques » de télémétrie, qui peuvent être désactivés.
Toujours dans l’open source, on trouve désormais Copilot for GitHub, l’extension pour Visual Studio Code permettant de recevoir une aide au développement par l’IA. Cette transition se fera sur plusieurs mois avec un passage progressif de toutes les fonctions sous licence MIT. Il ne semble pas y avoir encore de dépôt dédié.
Build 2025 : Microsoft se renforce sur les IA locales et veut un agent sur chaque site
Smith ? Perturbateur ? Orange ?

Sans surprise, les annonces de Microsoft au sujet de l’IA ont été très nombreuses durant la conférence d’ouverture de la Build. Voici ce qu’il ne fallait pas manquer.
Microsoft étant devenu l’un des acteurs majeurs de l’intelligence artificielle, les conférences Build sont largement centrées sur ce sujet. À l’instar de ce que l’on a pu voir plus tôt dans l’année chez Google, une certaine maturité commence à s’imposer, notamment à travers le grand sujet du moment : les agents, et désormais la manière dont ils peuvent communiquer entre eux.
- Build 2025 : Windows et son Store reçoivent enfin un peu d’attention
- Build 2025 : WinGet devient plus puissant et Edit modifie les fichiers depuis le Terminal
Windows AI Foundry
On commence avec Windows AI Foundry, qui est en fait le nouveau nom (Microsoft aime en changer) du service Windows Copilot Runtime. Le terme Foundry étant utilisé dans d’autres domaines, il s’agit d’une nouvelle appellation parapluie pour mieux représenter de quoi il s’agit. En l’occurrence, d’une « plateforme unifiée pour le développement local de l’IA », avec pour mission de concentrer toutes les ressources liées à l’utilisation de l’IA directement sur les appareils. Windows AI Foundry est donc placé en opposition à Azure AI Foundry qui, de son côté, s’attèle à tout ce qui s’exécute dans le cloud.
Windows AI Foundry peut ainsi détecter le matériel d’un ordinateur, installer automatiquement tous les composants nécessaires à l’exécution d’un modèle spécifique et s’occuper de leurs mises à jour. Il contient un vaste catalogue de modèles open source, indique Microsoft.

On y trouve également Foundry Local, disponible pour Windows et macOS. Ce kit de développement (SDK) comprend un ensemble d’outils et de modules destinés à faciliter l’exécution des modèles en local, le tout en s’appuyant sur le runtime open source ONNX. Foundry Local intègre en outre une interface en ligne de commande, pour des commandes du type « foundry model list
» ou « foundry model run
». Là encore, la détection du matériel pourra indiquer quels modèles peuvent être essayés.
On trouve également Windows ML, qui prend la relève de DirectML en tant que runtime d’inférence, en exploitant les capacités des CPU, GPU et bien sûr NPU. Microsoft promet que son runtime suivra les évolutions du matériel et pourra maintenir les dépendances des modèles avec les évolutions des machines. Windows ML n’est pour l’instant disponible qu’en préversion.
Une nouvelle trousse à outils, AI Toolkit for VS Code, est chargé de s’occuper de tout ce qui touche à la préparation des modèles et des applications. La quantification, l’optimisation, la compilation et le profilage font partie de ses attributions. Disponible lui aussi en préversion, il veut simplifier le processus de préparation et de livraison des modèles via Windows ML.
Notez que dans le cadre de Windows ML, NVIDIA a de son côté annoncé une révision de son kit TensorRT, qui vient d’être révisé pour les GeForce RTX. Dans sa présentation, la société parle d’un support natif par Windows ML.
NLWeb, le gros morceau de la Build
L’une des annonces qui a le plus retenu l’attention est NLWeb. Microsoft a clairement la volonté d’aplanir le terrain devant les agents, en particulier les chatbots. La volonté de l’éditeur avec ce nouveau projet est simple : aider à la création de chatbots pour tous les sites.
NLWeb doit permettre cette diffusion en quelques lignes de code, permettant de choisir le modèle et de connecter les sources de données. Microsoft donne des exemples : un chatbot pour aider les clients à choisir des vêtements pour des voyages spécifiques, un autre sur un site de cuisine pour suggérer des plats à associer à une recette, etc.
NLWeb pouvant créer des pages web, les utilisateurs auront le choix de mettre à disposition leurs contenus aux plateformes d’IA compatibles MCP (Model Context Protocol), créé par Anthropic pour simplifier justement la connexion des modèles aux sources de données. Plus précisément, « chaque point de terminaison NLWeb est également un serveur Model Context Protocol », explique Microsoft, permettant « aux sites web de rendre leur contenu découvrable et accessible aux agents et autres participants de l’écosystème MCP s’ils le souhaitent ».
Microsoft n’hésite pas à comparer NLWeb à « un HTML pour le web agentique » et rêve déjà d’agents sur tous les sites. La promesse aux internautes est qu’ils pourront interagir avec le contenu de ces sites de manière riche et sémantique. NLWeb exploite pour cela des formats semi-structurés comme Schema.org, RSS ou autres, combinées avec des LLM. NLWeb incorpore dans ces données des connaissances externes venant des LLM sous-jacents, comme des informations géographiques sur une requête concernant un restaurant.
NLWeb est open source (licence MIT) et a déjà son dépôt GitHub, qui contient tout ce qu’il faut pour se lancer. Le projet se veut totalement « agnostique », tant sur la plateforme utilisée (Windows, macOS, Linux…) que sur les réserves de vecteurs (Qdrant, Snowflake, Milvus, Azure AI Search…) et les LLM (OpenAI, Deepseek, Gemini, Anthropic, Inception…). Le dépôt contient le cœur du service, les connecteurs pour les principaux modèles et réserves de vecteurs, des outils pour les données, un serveur web et une interface simple. Microsoft dit s’attendre à ce que les déploiements se fassent avec des interfaces personnalisées.
Deux améliorations pour MCP
Puisque l’on parle du protocole d’Anthropic, Microsoft et GitHub ont annoncé leur entrée dans le comité de pilotage MCP. Deux apports ont été présentés dans ce contexte.
D’abord, une nouvelle spécification d’identité et d’autorisation. Elle doit permettre aux applications connectées à MCP d’améliorer la sécurité des connexions aux serveurs. Plusieurs méthodes de connexion fiables sont prises en charge, et Microsoft y va bien sûr de son Entra ID. Résultat, les agents et applications utilisant des LLM peuvent obtenir l’accès à ces informations, y compris les disques de stockage personnels et les services d’abonnement. En clair, il s’agit de mettre en phase les agents avec des informations verrouillées par des droits, que l’on pourra fournir après demande d’autorisation. Cet ajout devrait être utile en entreprise, pour gérer les contextes de sécurité.
L’autre apport est un registre public et communautaire des serveurs MCP. Il permet « quiconque de mettre en œuvre des référentiels publics ou privés, actualisés et centralisés pour les entrées de serveurs MCP et de permettre la découverte et la gestion de diverses implémentations MCP avec leurs métadonnées, configurations et capacités associées », explique Microsoft.
Recherche scientifique et Grok
Parmi les autres annonces, on note aussi l’arrivée de Discovery. Cette plateforme veut exploiter l’IA agentique pour « transformer le processus de découverte scientifique ». Comment ? En laissant l’IA faire ce qu’elle fait de mieux : lui confier toutes les opérations rébarbatives, Discovery pouvant gérer certaines charges de travail scientifique « de bout en bout ».
« Microsoft Discovery est une plateforme agentique d’entreprise qui permet d’accélérer la recherche et la découverte en transformant l’ensemble du processus de découverte grâce à l’IA agentique – du raisonnement des connaissances scientifiques à la formulation d’hypothèses, à la génération de candidats, à la simulation et à l’analyse », claironne ainsi Microsoft.
TechCrunch rappelle cependant que l’IA n’est pas nécessairement bien vue par tout le monde dans le domaine de la recherche scientifique. Cause principale : son manque de fiabilité. Nos confrères évoquent « un nombre incalculable de confusions » potentielles à surveiller. Mais l’IA pourrait quand même servir à explorer certaines voies, dans le sens d’un défrichage. Pour ce qui est de mener à des percées avérées, tout reste encore à faire.
Enfin, Microsoft annonce que Grok 3 et sa déclinaison mini sont disponibles dans sa plateforme Azure AI Foundry. Ils seront traités comme tous les autres modèles, avec toutes les fonctions liées et une facturation émise directement par Microsoft. L’annonce est d’autant plus visible que le modèle, développé par xAI et au cœur désormais du fonctionnement du réseau social X, a beaucoup fait parler de lui récemment, faisant référence au pseudo « génocide blanc » en Afrique du Sud et se montrant « sceptique » sur le nombre de juifs tués par la Shoah.