Vue lecture

Choose France : des promesses de milliards d’investissements dont des confirmations

VRP
Choose France : des promesses de milliards d’investissements dont des confirmations

Comme chaque année maintenant, Emmanuel Macron invite les grands patrons des multinationales pour une opération de communication dans le but d’engranger les promesses d’investissements. L’Elysée parle de 20 milliards d’euros pour cette année. Mais les annonces sur le numérique sont, pour la plupart, des redites du Sommet pour l’IA.

L’exercice est bien huilé maintenant. Comme depuis huit ans, Emmanuel Macron met ces jours-ci en avant les investissements de multinationales sur le sol européen. Le sommet « Choose France » réunit autour de lui 200 responsables de grandes entreprises françaises au Château de Versailles. À nos collègues du Figaro, une source de l’Élysée résume l’opération : « le président de la République est le VRP de la France ».

Des confirmations du Sommet de l’IA

L’Elysée a annoncé dimanche soir 37 milliards d’euros d’investissements, tout en ajoutant que 20 d’entre eux étaient « entièrement nouveaux ». Les 17 autres milliards concernent de fait pour la plupart des projets du numérique qui avaient été annoncés dans le cadre du Sommet de l’intelligence artificielle. Cette partie « numérique » de l’opération correspond donc à la portion des 109 milliards d’investissements annoncés pendant ce sommet qui doit être débloquée cette année.

Dans cette enveloppe « confirmée » par l’Élysée, donc, 10 milliards viennent du fonds canadien Brookfield. Celui-ci solidifie, comme l’explique le journal Les Échos, la moitié de son annonce d’investissements dans l’Hexagone faite en février. Ce financement doit permettre de monter un méga projet de data center à Cambrai mené en collaboration avec la société Data4, rachetée par le fonds en 2023. Il faudra voir si Brookfield confirme ensuite les 10 autres milliards d’euros d’investissements promis il y a quatre mois.

Du côté de Digital Realty, l’entreprise américaine de data center a annoncé ce lundi 2,3 milliards d’euros d’investissements. De la même manière, l’entreprise confirme environ la moitié des promesses faites lors du sommet de l’IA puisqu’à l’époque, elle annonçait une somme de 5 milliards d’euros pour étendre ses data centers à Marseille et en région parisienne avec 13 nouveaux sites, comme l’écrivait le Parisien.

Enfin, le fonds d’investissement émirati MGX devrait confirmer son investissement dans un « campus IA » en Île-de-France en collaboration avec Bpifrance, NVIDIA et Mistral AI. Selon l’Usine Digitale, la première tranche du projet devrait atteindre 8,5 milliards d’euros et les travaux doivent débuter au second semestre 2026. Des discussions seraient en cours au sujet d’un terrain de 70 à 80 hectares près de Melun (Seine-et-Marne), selon la Tribune.

6,4 milliards de Prologis pour des infrastructures

Du côté des nouveaux projets, L’Élysée a annoncé à l’AFP un investissement de 6,4 milliards d’euros de la part de Prologis, « en entrepôts et data centers ». Peu d’informations supplémentaires sont données à part que l’entreprise cherche à implanter quatre projets de data centers dans la région parisienne et investirait 1 milliards d’euros pour 750 000 m² d’entrepôts d’ici 2028 dans les villes de Marseille, Lyon, Paris ou du Havre.

Enfin, Kyndryl (spin-off d’IBM) a annoncé un investissement de 100 millions d’euros en France « en matière de données, d’intelligence artificielle (IA) et de cyber-résilience ».

  •  

Choose France : des promesses de milliards d’investissements dont des confirmations

VRP
Choose France : des promesses de milliards d’investissements dont des confirmations

Comme chaque année maintenant, Emmanuel Macron invite les grands patrons des multinationales pour une opération de communication dans le but d’engranger les promesses d’investissements. L’Elysée parle de 20 milliards d’euros pour cette année. Mais les annonces sur le numérique sont, pour la plupart, des redites du Sommet pour l’IA.

L’exercice est bien huilé maintenant. Comme depuis huit ans, Emmanuel Macron met ces jours-ci en avant les investissements de multinationales sur le sol européen. Le sommet « Choose France » réunit autour de lui 200 responsables de grandes entreprises françaises au Château de Versailles. À nos collègues du Figaro, une source de l’Élysée résume l’opération : « le président de la République est le VRP de la France ».

Des confirmations du Sommet de l’IA

L’Elysée a annoncé dimanche soir 37 milliards d’euros d’investissements, tout en ajoutant que 20 d’entre eux étaient « entièrement nouveaux ». Les 17 autres milliards concernent de fait pour la plupart des projets du numérique qui avaient été annoncés dans le cadre du Sommet de l’intelligence artificielle. Cette partie « numérique » de l’opération correspond donc à la portion des 109 milliards d’investissements annoncés pendant ce sommet qui doit être débloquée cette année.

Dans cette enveloppe « confirmée » par l’Élysée, donc, 10 milliards viennent du fonds canadien Brookfield. Celui-ci solidifie, comme l’explique le journal Les Échos, la moitié de son annonce d’investissements dans l’Hexagone faite en février. Ce financement doit permettre de monter un méga projet de data center à Cambrai mené en collaboration avec la société Data4, rachetée par le fonds en 2023. Il faudra voir si Brookfield confirme ensuite les 10 autres milliards d’euros d’investissements promis il y a quatre mois.

Du côté de Digital Realty, l’entreprise américaine de data center a annoncé ce lundi 2,3 milliards d’euros d’investissements. De la même manière, l’entreprise confirme environ la moitié des promesses faites lors du sommet de l’IA puisqu’à l’époque, elle annonçait une somme de 5 milliards d’euros pour étendre ses data centers à Marseille et en région parisienne avec 13 nouveaux sites, comme l’écrivait le Parisien.

Enfin, le fonds d’investissement émirati MGX devrait confirmer son investissement dans un « campus IA » en Île-de-France en collaboration avec Bpifrance, NVIDIA et Mistral AI. Selon l’Usine Digitale, la première tranche du projet devrait atteindre 8,5 milliards d’euros et les travaux doivent débuter au second semestre 2026. Des discussions seraient en cours au sujet d’un terrain de 70 à 80 hectares près de Melun (Seine-et-Marne), selon la Tribune.

6,4 milliards de Prologis pour des infrastructures

Du côté des nouveaux projets, L’Élysée a annoncé à l’AFP un investissement de 6,4 milliards d’euros de la part de Prologis, « en entrepôts et data centers ». Peu d’informations supplémentaires sont données à part que l’entreprise cherche à implanter quatre projets de data centers dans la région parisienne et investirait 1 milliards d’euros pour 750 000 m² d’entrepôts d’ici 2028 dans les villes de Marseille, Lyon, Paris ou du Havre.

Enfin, Kyndryl (spin-off d’IBM) a annoncé un investissement de 100 millions d’euros en France « en matière de données, d’intelligence artificielle (IA) et de cyber-résilience ».

  •  

America's College Towns Go From Boom To Bust

America's regional state universities are experiencing steep enrollment declines, triggering economic crises in the towns that depend on them, while flagship universities continue to thrive. At Western Illinois University in Macomb, enrollment has plummeted 47% since 2010, driving the city's population down 23% to 14,765. Empty dorms have been repurposed or demolished, while local businesses struggle to survive. "It's almost like you're watching the town die," Kalib McGruder, a 28-year veteran of the campus police department, told WSJ. An analysis of 748 public four-year institutions reveals enrollment at prestigious state universities increased 9% between 2015 and 2023, while regional state schools saw a 2% decline. The University of Tennessee Knoxville's enrollment jumped 30% as the state's regional colleges collectively fell 3%. With high school graduate numbers expected to decline starting next year after reaching a record high in 2024, the outlook for struggling college towns appears bleak.

Read more of this story at Slashdot.

  •  

France Barred Telegram Founder Pavel Durov From Traveling To US

French authorities have denied Telegram founder Pavel Durov's request to travel to the U.S. for "negotiations with investment funds." From a report: The Paris prosecutor's office told POLITICO that it rendered its decision on May 12 "on the grounds that such a trip abroad did not appear imperative or justified." Durov was arrested in August 2024 at a French airport and has been under strict legal control since last September, when he was indicted on six charges related to illicit activity on the messaging app he operates. He is forbidden to leave France without authorization -- which he obtained to travel to Dubai from March 15 to April 7, the prosecutor's office said. Russian-born Durov is a citizen, among other countries, of France and the United Arab Emirates.

Read more of this story at Slashdot.

  •  

Le Razer Blade 14 2025 débutera à 2300€ « seulement »

Le précédent modèle débutait à 3000€ pièce en France, dans une configuration musclée sous Ryzen 9 et GeForce RTX 4070. Le nouveau Razer Blade 14 2025 est moins gourmand et plus développé avec un prix de départ de 2300€ et une grosse mise à jour matérielle.

On retrouve à bord de ce nouveau modèle un processeur plus puissant, un AMD Strix Point avec le Ryzen AI 9 365. Une puce qui propose 4 cœurs Zen 5 et 6 cœurs Zen 5c pour 20 Threads dans un TDP de 28 watts. Une puce qui embarque surtout un très bon circuit graphique AMD Radeon 880M mais qui sera épaulé par des puces Nvidia autrement plus puissante puisqu’on pourra compter sur une GeForce RTX 5070 dans la version la plus haut de gamme. Un modèle sous RTX 5060 sera également proposé, tous deux fonctionnant dans un TDP de 100 watts avec la possibilité de pousser légèrement plus loin en grappillant 15 watts supplémentaires avec la fonction Dynamic Boost. Le tout sera très gourmand et la batterie choisie par le constructeur aura beau être une 72 Wh, je doute qu’elle ne tienne très longtemps lorsque le processeur et le circuit graphique se réveilleront de concert.

Bordures d’écran milimétriques, clavier RGB, bel espace de travail et pavé tactile immense

Le Razer Blade 14 2025 annonce 11 heures d’autonomie, mais il faut prendre ce chiffre pour ce qu’il est, un usage en laboratoire avec un affichage peu lumineux et probablement un exercice qui ne réveillera que quelques watts du processeur : la lecture d’un fichier vidéo en boucle depuis un stockage local.

Moins reluisant, le choix d’une mémoire LPDDRX-8000 soudée à la carte mère qui débutera à 16 Go pour grimper ensuite à 32 et 64 Go. Et on comprend assez vite le tour de passe-passe. Qui va dépenser 2300€ dans un portable gaming avec 16 Go de mémoire vive non évolutive ? À part quelqu’un qui ne connaitra pas vraiment le matériel et qui fort peu susceptible de commander un Razer, personne. C’est donc un prix d’appel qui est là pour attirer le public qui verra assez rapidement qu’avec des options raisonnables pour la pérennité de sa machine, c’est-à-dire au moins 32 Go de RAM soudée, il faudra dépenser un petit peu plus. Je regrette clairement ce choix de la part de Razer de basculer son Blade 14 ers de la mémoire soudée. Outre les soucis de vitesse posés par ces modules à basse consommation, on perd clairement la possibilité de toute mise à jour. Le précédent modèle offrait deux emplacements SODIMM permettant d’augmenter facilement la mémoire jusqu’à 96 Go.

Cet ensemble tournera sur un écran de 14 pouces de diagonale en OLED « 3K »1 et 120 Hz qui sera probablement réglé à des normes de colorimétrie avancées. Le châssis sera léger, 1.63 Kg, ce qui est un poids plume compte tenu de l’équipement embarqué. Le Razer Blade 14 2025 utilise une coque en aluminium usinée dans la masse pour proposer un ensemble robuste et efficace. À son point le plus fin, il mesurera 15.7 mm mais Razer ne dit pas un mot sur son point le plus épais et le reste de ses mensurations.

Enfin, la connectique est classique mais complète avec deux USB4, deux USB 3.2 Type-A, une sortie HDMI 2.1, un jack audio combo 3.5 mm, la solution d’alimentation propriétaire de la marque, un Antivol type Kensington Lock et une solution sans fil Wi-Fi7 et Bluetooth 5.4 non détaillée. 

Le Razer Blade 14 2025 débutera à 2300€ « seulement » © MiniMachines.net. 2025

  •  

ASRock dévoile cinq nouvelles cartes mères X870 au Computex 2025

Cinq nouvelles cartes mères nous ont été présentées par ASRock au cours de ce Computex 2025. Toutes sont équipées du Wi-Fi 7, mais l'une d'entre elles devrait particulièrement faire parler d'elle : la X870 Taichi Creator, qui signe le retour de la gamme professionnelle dans le giron de la marque taïwanaise. Au programme, deux ports Ethernet (10G et 5G), un impressionnant total de douze ports USB à l'arrière, ainsi qu'un double port PCIe Gen 5 capable d'accueillir deux cartes graphiques en x8. […]

Lire la suite
  •  

Computex 2025 : du petit format, mais ultra puissant avec FSP !

FSP faisant, initialement, des alimentations, il était normal d'en trouver des nouvelles. Et les amateurs de petits formats seront ravis puisqu'on aura prochainement un modèle MEGA TI de 150 mm de profondeur pour 1000 W de puissance en 80 PLUS TITANIUM, mais aussi Cybenetics Titanium et A++ pour les nuisances sonores. Le style MEGA est bien entendu présent avec une jolie grille pour le ventilateur de 135 mm à roulement FDB, qui profite toujours d'un mode semi-passif en fonction de la charge. Pour l'instant, ce format de 150 mm est réservé à la puissance de 1000 W, mais rien ne dit que les choses n'évolueront pas par la suite ! […]

Lire la suite
  •  

Computex 2025 : deux formats dual tower chez FSP, avec du petit et du gros

Quand on pense dual tower, on pense souvent gros radiateurs particulièrement imposants. Mais certains produits savent rester discrets, à l'image du prochain MP9 de chez FSP : avec sa base excentrée et ses tours qui sont finalement assez fines, il ne bloque pas la mémoire et s'installe donc très simplement, d'autant plus que le ventilateur central n'est pas à retirer. En effet, le bundle comprend un tournevis très long, et surtout très fin, qui se glisse entre le ventilateur et les ailettes. C'est bien vu, et l'ensemble ne mesure que... 165 mm de hauteur. Que ? Pas vraiment donc, mais c'est compatible avec de nombreux boitiers de la marque, et d'autres aussi évidemment. FSP utilise en effet un carénage assez imposant, et opte surtout pour un ventilateur de 130 x 28 au milieu. C'est original, et ça permet de monter à 300 W d'après la marque. […]

Lire la suite
  •  

Messagerie : comment l’École Polytechnique justifie de son choix de Microsoft 365

You've got mail
Messagerie : comment l’École Polytechnique justifie de son choix de Microsoft 365

Auditionnée par une commission d’enquête du Sénat, la directrice générale de l’École Polytechnique a expliqué pourquoi l’établissement prévoyait de migrer sa messagerie vers l’offre hébergée Microsoft 365. Entre autres arguments, elle invoque l’absence d’alternative souveraine offrant un niveau de performance et d’intégration équivalent, et déplace le curseur en matière de confidentialité des données face à la portée des lois extraterritoriales américaines.

Comment l’X, prestigieuse école d’ingénieurs française placée sous tutelle du ministère des Armées, peut-elle ignorer de façon aussi patente les débats liés à la souveraineté des données, alors que la Direction interministérielle du numérique et les services de Bercy multiplient les rappels ?

La question se pose de façon très ouverte depuis le 19 mars dernier, date à laquelle La Lettre a révélé que l’École Polytechnique prévoyait de migrer sa messagerie vers l’offre hébergée Microsoft 365.

La divulgation de ce projet de migration est par ailleurs intervenue au lendemain d’une autre révélation, signée Next cette fois : la passation, par le ministère de l’Enseignement supérieur et de la recherche, d’un important marché public, portant sur au moins 74 millions d’euros de licences et de services en ligne Microsoft.

Hasard du calendrier, ces deux informations sont sorties peu de temps après la mise en place, par le Sénat, d’une commission d’enquête dédiée à la question de la commande publique. Installée le 6 mars dernier, cette dernière doit enquêter sur la façon dont les institutions publiques appréhendent leurs achats, notamment dans l’univers numérique.

L’occasion était donc toute trouvée, pour la commission nouvellement installée, de convoquer la directrice générale de l’École Polytechnique, Laura Chambard. L’audition, organisée le 13 mai dernier, a donné lieu à une dénégation de l’information selon laquelle les laboratoires de recherche étaient concernés. Ainsi qu’à un exercice de justification du choix de Microsoft 365 qui illustre la problématique des messageries souveraines.


Il reste 74% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

Intel Explores Sale of Networking and Edge Unit

An anonymous reader shares a report: Intel has considered divesting its network and edge businesses as the chipmaker looks to shave off parts of the company its new chief executive does not see as crucial, three sources familiar with the matter said. Talks about the potential sale of the group, once called NEX in Intel's financial results, are a part of CEO Lip-Bu Tan's strategy to focus its tens of thousands of employees on areas in which it has historically thrived: PC and data center chips.

Read more of this story at Slashdot.

  •  

EKWB tente de renaître en devenant LM TEK

EKWB (Edvard König Water Blocks), marque slovène fondée en 2003 et réputée pour ses systèmes de refroidissement liquide haut de gamme, a traversé de sérieuses turbulences ces derniers mois. En août 2024, OC3D révélait les difficultés financières et managériales de l’entreprise, tandis que la chaîne YouTube Gamers Nexus publiait dans la foulée une vidéo détaillant ce crash... [Tout lire]

  •  

Build 2025 : Microsoft se renforce sur les IA locales et veut un agent sur chaque site

Smith ? Perturbateur ? Orange ?
Build 2025 : Microsoft se renforce sur les IA locales et veut un agent sur chaque site

Sans surprise, les annonces de Microsoft au sujet de l’IA ont été très nombreuses durant la conférence d’ouverture de la Build. Voici ce qu’il ne fallait pas manquer.

Microsoft étant devenu l’un des acteurs majeurs de l’intelligence artificielle, les conférences Build sont largement centrées sur ce sujet. À l’instar de ce que l’on a pu voir plus tôt dans l’année chez Google, une certaine maturité commence à s’imposer, notamment à travers le grand sujet du moment : les agents, et désormais la manière dont ils peuvent communiquer entre eux.

Windows AI Foundry

On commence avec Windows AI Foundry, qui est en fait le nouveau nom (Microsoft aime en changer) du service Windows Copilot Runtime. Le terme Foundry étant utilisé dans d’autres domaines, il s’agit d’une nouvelle appellation parapluie pour mieux représenter de quoi il s’agit. En l’occurrence, d’une « plateforme unifiée pour le développement local de l’IA », avec pour mission de concentrer toutes les ressources liées à l’utilisation de l’IA directement sur les appareils. Windows AI Foundry est donc placé en opposition à Azure AI Foundry qui, de son côté, s’attèle à tout ce qui s’exécute dans le cloud.

Windows AI Foundry peut ainsi détecter le matériel d’un ordinateur, installer automatiquement tous les composants nécessaires à l’exécution d’un modèle spécifique et s’occuper de leurs mises à jour. Il contient un vaste catalogue de modèles open source, indique Microsoft.

On y trouve également Foundry Local, disponible pour Windows et macOS. Ce kit de développement (SDK) comprend un ensemble d’outils et de modules destinés à faciliter l’exécution des modèles en local, le tout en s’appuyant sur le runtime open source ONNX. Foundry Local intègre en outre une interface en ligne de commande, pour des commandes du type « foundry model list » ou « foundry model run ». Là encore, la détection du matériel pourra indiquer quels modèles peuvent être essayés.

On trouve également Windows ML, qui prend la relève de DirectML en tant que runtime d’inférence, en exploitant les capacités des CPU, GPU et bien sûr NPU. Microsoft promet que son runtime suivra les évolutions du matériel et pourra maintenir les dépendances des modèles avec les évolutions des machines. Windows ML n’est pour l’instant disponible qu’en préversion.

Une nouvelle trousse à outils, AI Toolkit for VS Code, est chargé de s’occuper de tout ce qui touche à la préparation des modèles et des applications. La quantification, l’optimisation, la compilation et le profilage font partie de ses attributions. Disponible lui aussi en préversion, il veut simplifier le processus de préparation et de livraison des modèles via Windows ML.

Notez que dans le cadre de Windows ML, NVIDIA a de son côté annoncé une révision de son kit TensorRT, qui vient d’être révisé pour les GeForce RTX. Dans sa présentation, la société parle d’un support natif par Windows ML.

NLWeb, le gros morceau de la Build

L’une des annonces qui a le plus retenu l’attention est NLWeb. Microsoft a clairement la volonté d’aplanir le terrain devant les agents, en particulier les chatbots. La volonté de l’éditeur avec ce nouveau projet est simple : aider à la création de chatbots pour tous les sites.

NLWeb doit permettre cette diffusion en quelques lignes de code, permettant de choisir le modèle et de connecter les sources de données. Microsoft donne des exemples : un chatbot pour aider les clients à choisir des vêtements pour des voyages spécifiques, un autre sur un site de cuisine pour suggérer des plats à associer à une recette, etc.

NLWeb pouvant créer des pages web, les utilisateurs auront le choix de mettre à disposition leurs contenus aux plateformes d’IA compatibles MCP (Model Context Protocol), créé par Anthropic pour simplifier justement la connexion des modèles aux sources de données. Plus précisément, « chaque point de terminaison NLWeb est également un serveur Model Context Protocol », explique Microsoft, permettant « aux sites web de rendre leur contenu découvrable et accessible aux agents et autres participants de l’écosystème MCP s’ils le souhaitent ».

Microsoft n’hésite pas à comparer NLWeb à « un HTML pour le web agentique » et rêve déjà d’agents sur tous les sites. La promesse aux internautes est qu’ils pourront interagir avec le contenu de ces sites de manière riche et sémantique. NLWeb exploite pour cela des formats semi-structurés comme Schema.org, RSS ou autres, combinées avec des LLM. NLWeb incorpore dans ces données des connaissances externes venant des LLM sous-jacents, comme des informations géographiques sur une requête concernant un restaurant.

NLWeb est open source (licence MIT) et a déjà son dépôt GitHub, qui contient tout ce qu’il faut pour se lancer. Le projet se veut totalement « agnostique », tant sur la plateforme utilisée (Windows, macOS, Linux…) que sur les réserves de vecteurs (Qdrant, Snowflake, Milvus, Azure AI Search…) et les LLM (OpenAI, Deepseek, Gemini, Anthropic, Inception…). Le dépôt contient le cœur du service, les connecteurs pour les principaux modèles et réserves de vecteurs, des outils pour les données, un serveur web et une interface simple. Microsoft dit s’attendre à ce que les déploiements se fassent avec des interfaces personnalisées.

Deux améliorations pour MCP

Puisque l’on parle du protocole d’Anthropic, Microsoft et GitHub ont annoncé leur entrée dans le comité de pilotage MCP. Deux apports ont été présentés dans ce contexte.

D’abord, une nouvelle spécification d’identité et d’autorisation. Elle doit permettre aux applications connectées à MCP d’améliorer la sécurité des connexions aux serveurs. Plusieurs méthodes de connexion fiables sont prises en charge, et Microsoft y va bien sûr de son Entra ID. Résultat, les agents et applications utilisant des LLM peuvent obtenir l’accès à ces informations, y compris les disques de stockage personnels et les services d’abonnement. En clair, il s’agit de mettre en phase les agents avec des informations verrouillées par des droits, que l’on pourra fournir après demande d’autorisation. Cet ajout devrait être utile en entreprise, pour gérer les contextes de sécurité.

L’autre apport est un registre public et communautaire des serveurs MCP. Il permet « quiconque de mettre en œuvre des référentiels publics ou privés, actualisés et centralisés pour les entrées de serveurs MCP et de permettre la découverte et la gestion de diverses implémentations MCP avec leurs métadonnées, configurations et capacités associées », explique Microsoft.

Recherche scientifique et Grok

Parmi les autres annonces, on note aussi l’arrivée de Discovery. Cette plateforme veut exploiter l’IA agentique pour « transformer le processus de découverte scientifique ». Comment ? En laissant l’IA faire ce qu’elle fait de mieux : lui confier toutes les opérations rébarbatives, Discovery pouvant gérer certaines charges de travail scientifique « de bout en bout ».

« Microsoft Discovery est une plateforme agentique d’entreprise qui permet d’accélérer la recherche et la découverte en transformant l’ensemble du processus de découverte grâce à l’IA agentique – du raisonnement des connaissances scientifiques à la formulation d’hypothèses, à la génération de candidats, à la simulation et à l’analyse », claironne ainsi Microsoft.

TechCrunch rappelle cependant que l’IA n’est pas nécessairement bien vue par tout le monde dans le domaine de la recherche scientifique. Cause principale : son manque de fiabilité. Nos confrères évoquent « un nombre incalculable de confusions » potentielles à surveiller. Mais l’IA pourrait quand même servir à explorer certaines voies, dans le sens d’un défrichage. Pour ce qui est de mener à des percées avérées, tout reste encore à faire.

Enfin, Microsoft annonce que Grok 3 et sa déclinaison mini sont disponibles dans sa plateforme Azure AI Foundry. Ils seront traités comme tous les autres modèles, avec toutes les fonctions liées et une facturation émise directement par Microsoft. L’annonce est d’autant plus visible que le modèle, développé par xAI et au cœur désormais du fonctionnement du réseau social X, a beaucoup fait parler de lui récemment, faisant référence au pseudo « génocide blanc » en Afrique du Sud et se montrant « sceptique » sur le nombre de juifs tués par la Shoah.

  •  

Fibre sans fioriture : des baisses chez Red by SFR et Free, une nouvelle guerre des prix ?

On est encore loin des offres à 1,99 euro par mois
Fibre sans fioriture : des baisses chez Red by SFR et Free, une nouvelle guerre des prix ?

Une nouvelle guerre des prix se profile chez les fournisseurs d’accès à Internet… à coup de 1 ou 2 euros de remise par mois. Nous sommes loin de l’époque des forfaits à moins de 2 euros, mais la baisse est généralisée.

Depuis quelques mois, les prix repartent à la baisse chez les opérateurs. Un élément déclencheur était le lancement par B&You de son offre Pure Fibre. C’était en novembre, avec 23,99 euros pour un débit pouvant atteindre 8 Gb/s en téléchargement. Elle a de quoi séduire un public qui ne souhaite qu’un accès à Internet, sans superflu, et donc sans payer des fonctionnalités dont il n’a que faire. D’autant plus avec le passage au Wi-Fi 7 pour le même prix fin avril.

La lente chute de RED by SFR

Suite à cela, la résistance s’est rapidement organisée. RED by SFR était à 24,99 euros par mois, avec 500 Mb/s symétrique. L’opérateur est ensuite passé à 1 Gb/s symétrique (comme c’est le cas aujourd’hui) avec une baisse à 23,99 euros par mois, puis 22,99 euros et depuis peu 20,99 euros.

Les frais de mise en service de 39 euros sont offerts depuis des mois (si ce n’est des années). Problème, la box reste en Wi-Fi 5 seulement, loin derrière ses deux principaux concurrents que sont Bouygues Telecom et Free.

Free baisse d’un euro et s’engage sur cinq ans

Chez Free, la réponse est arrivée début avril avec la Freebox Pop S à 24,99 euros par mois, avec 5 Gb/s partagés en téléchargement et du Wi-Fi 7. Il s’agit en fait d’une Freebox Pop, mais sans aucun service de télévision. Dans un mouvement assez rare, le fournisseur d’accès annonce aujourd’hui une petite baisse sur sa Freebox Pop S : « Dès aujourd’hui, le prix de la Série Spéciale Pop S accessible en ligne, baisse de 1 euro à 23,99 euros par mois sans engagement ». Elle s’aligne ainsi sur Pure Fibre de B&You.

Il n’est pas question d’une offre avec une durée limitée, comme on en a déjà vu plusieurs fois par le passé. C’est bien le tarif de la Freebox Pop S qui baisse et Free ajoute même qu’il « garantit ce prix pendant 5 ans ». Ce n’est pas la première fois qu’iliad fait une telle promesse. En 2022, Xavier Niel s’engageait à maintenir les prix sur le mobile pendant cinq ans. Engagement repris dans le bilan financier de 2024 : « Le Groupe s’est engagé en 2022 à ne pas augmenter les prix de ses forfaits mobiles (2 euros et 19,99 euros) pour les 5 prochaines années, soit jusqu’à 2027 ».

La Freebox Pop S n’a pour rappel que deux mois, un changement de tarif aussi rapide montre certainement que le marché est dynamique. Selon le dernier décompte de l’Arcep, la France comptait 32,564 millions d’abonnements haut débit en France, dont 24,391 millions en fibre optique (+ 744 000 en trois mois).

Sosh de son côté reste à 25,99 euros par mois, mais propose depuis plusieurs semaines une remise de 6 euros par mois pendant un an.

Il est loin le temps des forfaits à moins de deux euros

On reste dans tous les cas loin de la guerre commerciale que s’étaient livrés les opérateurs il y a une dizaine d’années avec des abonnements Internet à moins de 10 euros par mois… voire moins de 2 euros, et même à 0,99 euro sur le mobile. Free, qui multipliait les offres sur Vente privée (désormais Veepee) en avait fait les frais et avait décidé de prolonger certaine promotions en 2018 face à l’hémorragie.

Notre tableau comparatif

Cette fois encore, voici un tableau récapitulatif des quatre forfaits « low cost » pour un accès à Internet sans fioriture. Et si vous souhaitez voir ce qu’il en est avec des forfaits plus haut de gamme incluant des accès à des plateformes de streaming, nous avions mis à jour notre comparateur interactif début avril.

  •  

Build 2025 : WinGet devient plus puissant et Edit modifie les fichiers depuis le Terminal

Tremble Vim !
Build 2025 : WinGet devient plus puissant et Edit modifie les fichiers depuis le Terminal

On continue dans les nouveautés présentées par Microsoft durant sa conférence Build. Cette fois, on s’attarde sur les outils proposés aux développeurs, mais pas uniquement. Des produits comme WinGet, le terminal et WSL étaient ainsi à l’honneur.

WinGet pourra enregistrer l’état d’une machine

Commençons par WinGet, qui va recevoir une nouvelle commande. Nommée simplement Configuration, elle permettra d’enregistrer l’état d’un système dans un fichier de configuration, afin de le restaurer sur d’autres machines. L’état en question comprend les applications installées, ainsi que les différents paquets et outils.

Le point le plus intéressant est sans doute que cette commande prendra en charge le manifeste Microsoft Desired State Configuration V3. En clair, les applications compatibles pourront préserver leurs paramètres et configurations dans le même fichier. Lors de la restauration, elles retrouveront ainsi un état très proche que sur la machine d’origine.

La fonction sera disponible cet été.

L’édition de fichiers depuis le Terminal

L’une des annonces qui a le plus retenu l’attention des développeurs est Edit. Cet outil, dont la préversion doit arriver cet été, permettra de modifier directement des fichiers depuis le Terminal, pour éviter l’ouverture d’un outil dédié et une sortie des opérations en cours, avec l’objectif de minimiser les changements de contexte.

L’application, écrite en Rust, est également open source (sous licence MIT) et accessible actuellement sur son dépôt GitHub. Microsoft fournit des informations pour sa compilation.

L’éditeur se veut très simple. De l’aveu même de Microsoft, c’est une forme d’hommage à MS-DOS Editor. Léger (moins de 250 ko), il propose quand même son lot de fonctions, dont l’ouverture de plusieurs fichiers en parallèle (la rotation se fait via Ctrl + P), la possibilité de chercher et remplacer du texte, le support des majuscules et minuscules ou encore des expressions régulières. Bien que l’on puisse utiliser Edit avec la souris, toutes les fonctions ont des raccourcis clavier.

« Ce qui nous a motivés à créer Edit, c’est le besoin d’un éditeur de texte CLI par défaut dans les versions 64 bits de Windows. Les versions 32 bits de Windows sont livrées avec l’éditeur MS-DOS, mais les versions 64 bits n’ont pas d’éditeur CLI installé d’origine », explique dans un billet Christopher Nguyen, chef de produit chez Microsoft.

WSL et Copilot for GitHub passent en open source

Puisque l’on parle d’open source, Windows Subsystem for Linux vient également de recevoir ce traitement. Ce composant permet pour rappel depuis bientôt dix ans (lancé en 2016) de faire fonctionner des distributions Linux sur Windows grâce à la virtualisation. En dépit de certains ricanements initiaux, ce sous-système a été développé et entretenu dans le temps et plusieurs distributions peuvent être installées depuis le Store.

Si le code du noyau de WSL 2 était déjà disponible en open source, le reste était sous licence propriétaire. C’est désormais l’intégralité du sous-système que l’on trouve sous licence MIT sur un dépôt GitHub. Ce n’est d’ailleurs pas une simple visibilité sur le code, puisque Microsoft annonce recevoir volontiers des contributions. L’éditeur recommande d’ailleurs de lire le guide dédié avant de se lancer. Microsoft indique également que l’outil comporte certains éléments « basiques » de télémétrie, qui peuvent être désactivés.

Toujours dans l’open source, on trouve désormais Copilot for GitHub, l’extension pour Visual Studio Code permettant de recevoir une aide au développement par l’IA. Cette transition se fera sur plusieurs mois avec un passage progressif de toutes les fonctions sous licence MIT. Il ne semble pas y avoir encore de dépôt dédié.

  •  

Build 2025 : Microsoft se renforce sur les IA locales et veut un agent sur chaque site

Smith ? Perturbateur ? Orange ?
Build 2025 : Microsoft se renforce sur les IA locales et veut un agent sur chaque site

Sans surprise, les annonces de Microsoft au sujet de l’IA ont été très nombreuses durant la conférence d’ouverture de la Build. Voici ce qu’il ne fallait pas manquer.

Microsoft étant devenu l’un des acteurs majeurs de l’intelligence artificielle, les conférences Build sont largement centrées sur ce sujet. À l’instar de ce que l’on a pu voir plus tôt dans l’année chez Google, une certaine maturité commence à s’imposer, notamment à travers le grand sujet du moment : les agents, et désormais la manière dont ils peuvent communiquer entre eux.

Windows AI Foundry

On commence avec Windows AI Foundry, qui est en fait le nouveau nom (Microsoft aime en changer) du service Windows Copilot Runtime. Le terme Foundry étant utilisé dans d’autres domaines, il s’agit d’une nouvelle appellation parapluie pour mieux représenter de quoi il s’agit. En l’occurrence, d’une « plateforme unifiée pour le développement local de l’IA », avec pour mission de concentrer toutes les ressources liées à l’utilisation de l’IA directement sur les appareils. Windows AI Foundry est donc placé en opposition à Azure AI Foundry qui, de son côté, s’attèle à tout ce qui s’exécute dans le cloud.

Windows AI Foundry peut ainsi détecter le matériel d’un ordinateur, installer automatiquement tous les composants nécessaires à l’exécution d’un modèle spécifique et s’occuper de leurs mises à jour. Il contient un vaste catalogue de modèles open source, indique Microsoft.

On y trouve également Foundry Local, disponible pour Windows et macOS. Ce kit de développement (SDK) comprend un ensemble d’outils et de modules destinés à faciliter l’exécution des modèles en local, le tout en s’appuyant sur le runtime open source ONNX. Foundry Local intègre en outre une interface en ligne de commande, pour des commandes du type « foundry model list » ou « foundry model run ». Là encore, la détection du matériel pourra indiquer quels modèles peuvent être essayés.

On trouve également Windows ML, qui prend la relève de DirectML en tant que runtime d’inférence, en exploitant les capacités des CPU, GPU et bien sûr NPU. Microsoft promet que son runtime suivra les évolutions du matériel et pourra maintenir les dépendances des modèles avec les évolutions des machines. Windows ML n’est pour l’instant disponible qu’en préversion.

Une nouvelle trousse à outils, AI Toolkit for VS Code, est chargé de s’occuper de tout ce qui touche à la préparation des modèles et des applications. La quantification, l’optimisation, la compilation et le profilage font partie de ses attributions. Disponible lui aussi en préversion, il veut simplifier le processus de préparation et de livraison des modèles via Windows ML.

Notez que dans le cadre de Windows ML, NVIDIA a de son côté annoncé une révision de son kit TensorRT, qui vient d’être révisé pour les GeForce RTX. Dans sa présentation, la société parle d’un support natif par Windows ML.

NLWeb, le gros morceau de la Build

L’une des annonces qui a le plus retenu l’attention est NLWeb. Microsoft a clairement la volonté d’aplanir le terrain devant les agents, en particulier les chatbots. La volonté de l’éditeur avec ce nouveau projet est simple : aider à la création de chatbots pour tous les sites.

NLWeb doit permettre cette diffusion en quelques lignes de code, permettant de choisir le modèle et de connecter les sources de données. Microsoft donne des exemples : un chatbot pour aider les clients à choisir des vêtements pour des voyages spécifiques, un autre sur un site de cuisine pour suggérer des plats à associer à une recette, etc.

NLWeb pouvant créer des pages web, les utilisateurs auront le choix de mettre à disposition leurs contenus aux plateformes d’IA compatibles MCP (Model Context Protocol), créé par Anthropic pour simplifier justement la connexion des modèles aux sources de données. Plus précisément, « chaque point de terminaison NLWeb est également un serveur Model Context Protocol », explique Microsoft, permettant « aux sites web de rendre leur contenu découvrable et accessible aux agents et autres participants de l’écosystème MCP s’ils le souhaitent ».

Microsoft n’hésite pas à comparer NLWeb à « un HTML pour le web agentique » et rêve déjà d’agents sur tous les sites. La promesse aux internautes est qu’ils pourront interagir avec le contenu de ces sites de manière riche et sémantique. NLWeb exploite pour cela des formats semi-structurés comme Schema.org, RSS ou autres, combinées avec des LLM. NLWeb incorpore dans ces données des connaissances externes venant des LLM sous-jacents, comme des informations géographiques sur une requête concernant un restaurant.

NLWeb est open source (licence MIT) et a déjà son dépôt GitHub, qui contient tout ce qu’il faut pour se lancer. Le projet se veut totalement « agnostique », tant sur la plateforme utilisée (Windows, macOS, Linux…) que sur les réserves de vecteurs (Qdrant, Snowflake, Milvus, Azure AI Search…) et les LLM (OpenAI, Deepseek, Gemini, Anthropic, Inception…). Le dépôt contient le cœur du service, les connecteurs pour les principaux modèles et réserves de vecteurs, des outils pour les données, un serveur web et une interface simple. Microsoft dit s’attendre à ce que les déploiements se fassent avec des interfaces personnalisées.

Deux améliorations pour MCP

Puisque l’on parle du protocole d’Anthropic, Microsoft et GitHub ont annoncé leur entrée dans le comité de pilotage MCP. Deux apports ont été présentés dans ce contexte.

D’abord, une nouvelle spécification d’identité et d’autorisation. Elle doit permettre aux applications connectées à MCP d’améliorer la sécurité des connexions aux serveurs. Plusieurs méthodes de connexion fiables sont prises en charge, et Microsoft y va bien sûr de son Entra ID. Résultat, les agents et applications utilisant des LLM peuvent obtenir l’accès à ces informations, y compris les disques de stockage personnels et les services d’abonnement. En clair, il s’agit de mettre en phase les agents avec des informations verrouillées par des droits, que l’on pourra fournir après demande d’autorisation. Cet ajout devrait être utile en entreprise, pour gérer les contextes de sécurité.

L’autre apport est un registre public et communautaire des serveurs MCP. Il permet « quiconque de mettre en œuvre des référentiels publics ou privés, actualisés et centralisés pour les entrées de serveurs MCP et de permettre la découverte et la gestion de diverses implémentations MCP avec leurs métadonnées, configurations et capacités associées », explique Microsoft.

Recherche scientifique et Grok

Parmi les autres annonces, on note aussi l’arrivée de Discovery. Cette plateforme veut exploiter l’IA agentique pour « transformer le processus de découverte scientifique ». Comment ? En laissant l’IA faire ce qu’elle fait de mieux : lui confier toutes les opérations rébarbatives, Discovery pouvant gérer certaines charges de travail scientifique « de bout en bout ».

« Microsoft Discovery est une plateforme agentique d’entreprise qui permet d’accélérer la recherche et la découverte en transformant l’ensemble du processus de découverte grâce à l’IA agentique – du raisonnement des connaissances scientifiques à la formulation d’hypothèses, à la génération de candidats, à la simulation et à l’analyse », claironne ainsi Microsoft.

TechCrunch rappelle cependant que l’IA n’est pas nécessairement bien vue par tout le monde dans le domaine de la recherche scientifique. Cause principale : son manque de fiabilité. Nos confrères évoquent « un nombre incalculable de confusions » potentielles à surveiller. Mais l’IA pourrait quand même servir à explorer certaines voies, dans le sens d’un défrichage. Pour ce qui est de mener à des percées avérées, tout reste encore à faire.

Enfin, Microsoft annonce que Grok 3 et sa déclinaison mini sont disponibles dans sa plateforme Azure AI Foundry. Ils seront traités comme tous les autres modèles, avec toutes les fonctions liées et une facturation émise directement par Microsoft. L’annonce est d’autant plus visible que le modèle, développé par xAI et au cœur désormais du fonctionnement du réseau social X, a beaucoup fait parler de lui récemment, faisant référence au pseudo « génocide blanc » en Afrique du Sud et se montrant « sceptique » sur le nombre de juifs tués par la Shoah.

  •