UK Bans Fake Reviews and 'Sneaky' Fees For Online Products
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
La décision aura fait couler beaucoup d’encre et avait notamment provoqué chez Bloomberg une grande enquête sur les données des notes de communauté. Mais cette fois ça y est : dans quelques heures, le programme de vérification professionnelle des faits de Meta sera officiellement terminé.
Comme nous le rappelions le mois dernier, Mark Zuckerberg avait fait une annonce fracassante sur le sujet. Selon le CEO, cette vérification prenait trop de temps et était trop « politisée », rejoignant en filigrane la grande chasse au « wokisme » tant propulsée par Donald Trump et Elon Musk.
À la place, Meta applique désormais les mêmes notes de la communauté. Toutes les personnes utilisant Facebook pourront ainsi faire une proposition de note, pour expliquer en quoi le contenu est problématique. Comme sur X, il est recommandé d’ajouter un ou plusieurs liens pour étayer son propos. La validation de la note est ensuite soumise à approbation d’autres membres de la communauté.
Les premières notes devraient apparaitre « progressivement sur Facebook, Threads et Instagram », a indiqué vendredi Joel Kaplan, responsable des affaires mondiales chez Meta. Rappelons une différence majeure entre l’ancien processus de vérification et les notes de la communauté : les publications épinglées par des notes resteront en ligne, ces dernières n’étant là que pour fournir du contexte.
Dans son enquête, basée sur plus d’un million de notes récupérées sur X, Bloomberg reconnaissait plusieurs vertus au système, dont une plus grande réactivité. Cependant, il n’est en rien une solution vraiment efficace de modération à une telle échelle. Surtout, le média critiquait aussi bien que X que Meta en pointant que la rémunération des publications revenait à encourager la viralité, donc à accentuer les problèmes de modération.
Précisons enfin que les changements évoqués ici ne sont pour l’instant valables qu’aux États-Unis. En Europe notamment, rien n’a encore été annoncé.
La décision aura fait couler beaucoup d’encre et avait notamment provoqué chez Bloomberg une grande enquête sur les données des notes de communauté. Mais cette fois ça y est : dans quelques heures, le programme de vérification professionnelle des faits de Meta sera officiellement terminé.
Comme nous le rappelions le mois dernier, Mark Zuckerberg avait fait une annonce fracassante sur le sujet. Selon le CEO, cette vérification prenait trop de temps et était trop « politisée », rejoignant en filigrane la grande chasse au « wokisme » tant propulsée par Donald Trump et Elon Musk.
À la place, Meta applique désormais les mêmes notes de la communauté. Toutes les personnes utilisant Facebook pourront ainsi faire une proposition de note, pour expliquer en quoi le contenu est problématique. Comme sur X, il est recommandé d’ajouter un ou plusieurs liens pour étayer son propos. La validation de la note est ensuite soumise à approbation d’autres membres de la communauté.
Les premières notes devraient apparaitre « progressivement sur Facebook, Threads et Instagram », a indiqué vendredi Joel Kaplan, responsable des affaires mondiales chez Meta. Rappelons une différence majeure entre l’ancien processus de vérification et les notes de la communauté : les publications épinglées par des notes resteront en ligne, ces dernières n’étant là que pour fournir du contexte.
Dans son enquête, basée sur plus d’un million de notes récupérées sur X, Bloomberg reconnaissait plusieurs vertus au système, dont une plus grande réactivité. Cependant, il n’est en rien une solution vraiment efficace de modération à une telle échelle. Surtout, le média critiquait aussi bien que X que Meta en pointant que la rémunération des publications revenait à encourager la viralité, donc à accentuer les problèmes de modération.
Précisons enfin que les changements évoqués ici ne sont pour l’instant valables qu’aux États-Unis. En Europe notamment, rien n’a encore été annoncé.
Si RDNA 4, la microarchitecture à l’œuvre dans les RX 9070 (XT) de chez AMD nous a agréablement surpris par son ratio performance-prix attractif, ces GPU ne forment malheureusement pas toute la gamme rouge. En particulier, sur les machines portables, RDNA 4 est encore aux abonnés absents, si bien qu...
Read more of this story at Slashdot.
Alors que l’actualité sur l’intelligence artificielle générative se déchaine avec les nouvelles versions de DeepSeek V3, Gemini 2.5 Pro ou encore le très récent Llama 4, OpenAI annonce du retard du GPT-5.
« Nous allons être en mesure de rendre le GPT-5 bien meilleur que ce que nous pensions au départ. Nous avons également constaté qu’il était plus difficile que nous le pensions de tout intégrer en douceur », a ainsi indiqué Sam Altman, CEO d’OpenAI, dans une publication sur X le 4 avril.
En conséquence, GPT-5 n’arrivera que dans quelques mois, donc avec du retard. Altman ajoute que l’entreprise veut s’assurer qu’elle disposera « d’une capacité suffisante pour répondre à ce [qu’elle prévoit] être une demande sans précédent ».
La société avait expliqué plus tôt dans l’année que son modèle serait disponible pour tous, mais que le degré de précision se ferait en fonction de la formule utilisée. Sans abonnement payant, le niveau d’intelligence sera ainsi « standard ». La formule ChatGPT Plus aura droit à « un niveau d’intelligence plus élevé », tandis que ChatGPT Pro donnera accès au niveau le plus élevé. On ignore concrètement à quoi correspondent ces paliers.
« L’un de nos principaux objectifs est d’unifier nos modèles en créant des systèmes capables d’utiliser tous nos outils, de savoir s’il faut réfléchir longtemps ou non, et d’être utiles pour un large éventail de tâches », précise également Sam Altman. GPT-5 sera un modèle unifié : il sera multimodal et intègrera la voix, Canvas, la recherche approfondie et d’autres outils.
Si GPT-5 sera en retard, il en va autrement des modèles « o ». Contrairement à ce qui avait été indiqué en février, o3 va finalement sortir « dans quelques semaines », accompagné d’un o4-mini. On apprend également qu’un modèle o3-pro est en préparation, sans plus de détails. Aucune précision technique n’a été donnée sur ces futurs modèles de raisonnement.
Dans la longue quête des modèles d’IA générative toujours plus puissants, c’est au tour de Meta de dégainer avec la quatrième version de son Llama. Il est décliné en trois versions, selon le cas d’usage, et tous sont multimodaux. Alors que Meta se lance pour la première fois dans les « mélanges d’experts », l’Europe continue d’être privée des nouveautés.
Meta veut frapper fort avec son modèle Llama 4. Dans son annonce, publiée samedi (c’est la première fois que l’entreprise lance un modèle majeur durant le week-end), Meta explique qu’il a été entrainé sur « de grandes quantités de textes, d’images et de données vidéo non étiquetés » et qu’il dispose d’une « large compréhension visuelle ».
Llama 4 est décliné en trois versions : Scout, Maverick et Behemot. Précisons d’emblée que si les deux premiers sont disponibles, ils ont été distillés depuis Behemot qui, lui, est toujours en cours d’entrainement.
Llama 4 Scout est le plus petit modèle, avec 16 experts. Ces derniers représentent des sous-sections spécifiques du modèle, conçues pour traiter des tâches particulières. Ils sont la conséquence de l’approche MoE (Mixture of Experts), utilisée pour la première fois chez Meta. Chaque expert représente un réseau neuronal pouvant être entrainé séparément, permettant un entrainement global du modèle nettement plus rapide, comme l’expliquait déjà Hugging Face fin 2023.
En fonction de la tâche, c’est le modèle qui « décide » ensuite à quel expert envoyer les jetons. Conséquence, si Llama 4 Scout a 109 milliards de paramètres, 17 milliards « seulement » sont actifs en même temps.
Même cas de figure pour Maverick, le modèle principal. Cette fois, le nombre de paramètres est de 400 milliards, mais le modèle dispose de 128 experts, toujours avec la même technique. Comme pour Scout, le nombre de paramètres actifs est de 17 milliards.
Selon Meta, ces deux modèles sont tout simplement les meilleurs modèles multimodaux de leur catégorie respective. Scout fournit ainsi une fenêtre contextuelle de 10 millions de jetons, peut fonctionner sur un seul GPU H100 de NVIDIA et fournit de meilleurs résultats que Gemma 3, Gemini 2.0 Flash-Lite et Mistral 3.1 « dans une large gamme de tests de référence », selon Meta.
Maverick, qui doit devenir le principal modèle poussé par Meta, est présenté comme surpassant GPT-4o et Gemini 2.0 Flash. Sur LMArena, le modèle se classe deuxième avec un score de 1417. Point intéressant, Meta évoque directement DeepSeek, car les résultats obtenus par Maverick sont décrits comme « comparables » au dernier modèle chinois. Selon Meta, Maverick peut fonctionner sur un seul système H100 DGX de NVIDIA.
Dans la nouvelle trilogie de Meta, Scout et Maverick sont les étudiants. L’enseignant se nomme Behemot, à partir duquel ils ont été distillés. Le modèle porte a priori bien son nom : on ne joue plus du tout dans la même cour.
Ce mastodonte, dont l’entrainement est toujours en cours, affiche la bagatelle de 2 000 milliards de paramètres. Bien sûr, tous ne fonctionnent pas en même temps, mais le modèle, doté de 16 experts, dispose quand même 288 milliards de paramètres actifs. De fait, il est présenté comme le modèle « de pointe » pour tout ce qui touche aux mathématiques, au multilinguisme et aux images. Pour économiser les coûts, la distillation du modèle a été réalisée pendant la phase de pré-entrainement, précise Meta.
Évidemment, les performances d’un tel modèle sont annoncées comme supérieures à tout ce qui existe. Ou presque. Dans le tableau donné par Meta, on peut voir que les notes obtenues par son Behemot sont largement supérieures globalement que les modèles concurrents. Mais si Meta a fait combattre son modèle face à Claude Sonnet 3.7 et GPT-4.5 – qui sont effectivement les dernières versions des modèles – l’entreprise a choisi de se limiter à Gemini 2.0 Pro, alors que la 2.5 est disponible.
L’entrainement d’un tel modèle aurait « constitué un défi de taille ». Pendant celui de Maverick, Meta dit s’être aperçue de plusieurs problèmes, au point de changer toute sa chaine de traitements post-entrainement. Le réglage fin supervisé (SFT) et l’optimisation des préférences directes (DPO) ont ainsi été allégés. 50 % des données jugées « faciles » ont été supprimées, en se servant d’autres modèles Llama comme juges. L’étape intermédiaire d’apprentissage par renforcement (RL) est restée entière, bien qu’avec des prompts « plus difficiles ».
Concernant Behemot, Meta a appliqué une version extrême de cette recette, puisque 95 % des données « faciles » ont été élaguées pour la phase SFT. « Nous avons également constaté que l’exécution d’un SFT léger suivi d’un apprentissage par renforcement (RL) à grande échelle produisait des améliorations encore plus significatives dans les capacités de raisonnement et de codage du modèle », affirme Meta.
Même l’étape d’apprentissage par renforcement a nécessité des travaux. L’entreprise dit avoir dû passer par une refonte de son infrastructure : nouvelle conception de la parallélisation MoE pour des itérations plus rapides et un nouveau cadre asynchrone pour l’apprentissage par renforcement. Pour ce dernier, Meta dit avoir développé un système d’allocation flexible des modèles à des GPU distincts. Cette amélioration aurait « multiplié par 10 l’efficacité de l’entrainement », comparé à l’ancienne méthode qui consistait à « empiler tous les modèles en mémoire ».
Meta précise enfin que tous les entrainements de Llama 4 ont été réalisés en précision FP8. Dans le cas de Behemot, l’entreprise s’est servie de 32 000 GPU, avec un niveau de performances de 390 TFLOPS par GPU. La réserve de données, même après le fameux élagage, représentait 30 000 milliards de jetons, plus du double de ce qui avait été utilisé pour Llama 3.
Les trois nouveaux modèles annoncés sont « classiques » : ils n’opèrent aucun raisonnement. Les comparaisons sont donc d’autant plus intéressantes, surtout dans le cas de Behemot sur des domaines comme les mathématiques et le développement logiciel. Reste à savoir bien sûr le type de coût qu’un modèle aussi volumineux peut engendrer. Surtout quand la concurrence, notamment DeepSeek-V3-0324, commence à mettre un accent plus prononcé sur l’efficacité.
Meta, en tout cas, indique avoir tout mis en œuvre pour que ses modèles fournissent des réponses utiles et « factuelles ». Toutes les variantes de Llama 4 auraient été réglées pour refuser moins souvent de répondre à des questions plus « litigieuses ». Une précision intéressante, et qui rejoint Anthropic dans sa communication : c’était l’un des changements mis en avant au lancement de Claude Sonnet 3.7 fin février. Deux semaines plus tôt, OpenAI annonçait des changements en ce sens dans la manière d’entrainer ses modèles. On pourrait y voir une influence de xAI et de son Grok, qui se veut effronté dans ses réponses.
« Vous pouvez compter sur [Llama 4] pour fournir des réponses utiles et factuelles sans porter de jugement. Nous continuons à rendre Llama plus réactif afin qu’il réponde à plus de questions, qu’il puisse répondre à une variété de points de vue différents […] et qu’il ne favorise pas certains points de vue par rapport à d’autres », a ainsi déclaré Meta à TechCrunch.
Techniquement, les nouveaux modèles Llama 4 Scout et Maverick sont disponibles depuis le site dédié et Hugging Face. Plus précisément, ce sont les modèles Llama-4-Scout-17B-16E, Llama-4-Scout-17B-16E-Instruct, et Llama 4-Maverick-17B-128E-Instruct-FP8. Ces modèles alimentent même déjà Meta AI pour WhatsApp, Messenger et Instagram pour tout ce qui touche aux conversations (du moins, sur les conversations non chiffrées de bout en bout). Les nouveaux modèles sont également disponibles dans Azure AI Foundry de Microsoft.
Mais en Europe, la situation est plus complexe. La licence associée aux modèles Llama 4 n’exclut pas les utilisateurs finaux. Ces derniers devraient donc avoir les mêmes capacités sur Meta AI que dans les autres pays où l’assistant est présent. En revanche, les personnes physiques et morales (donc les entreprises) européennes n’ont pas le droit d’accéder aux modèles.
« En ce qui concerne les modèles multimodaux inclus dans Llama 4, les droits accordés en vertu de la section 1(a) de l’accord de licence communautaire Llama 4 ne vous sont pas accordés si vous êtes une personne physique domiciliée dans l’Union européenne ou une société dont le siège social se trouve dans l’Union européenne. Cette restriction ne s’applique pas aux utilisateurs finaux d’un produit ou d’un service qui intègre de tels modèles multimodaux », indique Meta.
On retrouve une fois de plus les tensions entre Meta et l’Europe, l’entreprise ayant largement critiqué cette dernière pour ses « incertitudes réglementaires ». Elle a fustigé plus d’une fois le DMA (notamment à cause de ses abonnements supprimant la publicité), mais s’en est également prise à l’AI Act, main dans la main avec Spotify. Mais en attendant que la situation se détende, malgré un contexte géopolitique toujours plus complexe, ni les entreprises ni les chercheurs européens ne peuvent officiellement mettre la main dessus.
Ajoutons enfin que, dans le reste du monde, les applications et services tirant parti de Llama 4 devront afficher une mention « Built with Llama ».
Alors que l’actualité sur l’intelligence artificielle générative se déchaine avec les nouvelles versions de DeepSeek V3, Gemini 2.5 Pro ou encore le très récent Llama 4, OpenAI annonce du retard du GPT-5.
« Nous allons être en mesure de rendre le GPT-5 bien meilleur que ce que nous pensions au départ. Nous avons également constaté qu’il était plus difficile que nous le pensions de tout intégrer en douceur », a ainsi indiqué Sam Altman, CEO d’OpenAI, dans une publication sur X le 4 avril.
En conséquence, GPT-5 n’arrivera que dans quelques mois, donc avec du retard. Altman ajoute que l’entreprise veut s’assurer qu’elle disposera « d’une capacité suffisante pour répondre à ce [qu’elle prévoit] être une demande sans précédent ».
La société avait expliqué plus tôt dans l’année que son modèle serait disponible pour tous, mais que le degré de précision se ferait en fonction de la formule utilisée. Sans abonnement payant, le niveau d’intelligence sera ainsi « standard ». La formule ChatGPT Plus aura droit à « un niveau d’intelligence plus élevé », tandis que ChatGPT Pro donnera accès au niveau le plus élevé. On ignore concrètement à quoi correspondent ces paliers.
« L’un de nos principaux objectifs est d’unifier nos modèles en créant des systèmes capables d’utiliser tous nos outils, de savoir s’il faut réfléchir longtemps ou non, et d’être utiles pour un large éventail de tâches », précise également Sam Altman. GPT-5 sera un modèle unifié : il sera multimodal et intègrera la voix, Canvas, la recherche approfondie et d’autres outils.
Si GPT-5 sera en retard, il en va autrement des modèles « o ». Contrairement à ce qui avait été indiqué en février, o3 va finalement sortir « dans quelques semaines », accompagné d’un o4-mini. On apprend également qu’un modèle o3-pro est en préparation, sans plus de détails. Aucune précision technique n’a été donnée sur ces futurs modèles de raisonnement.
D’après le Figaro, Patrick Drahi étudierait sérieusement la possibilité de mettre en vente SFR. Particulièrement complexe sur le plan réglementaire, l’opération conduirait soit à l’arrivée d’un nouvel acteur sur le marché, soit à un retour à trois opérateurs.
L’hypothèse d’une mise en vente de SFR sera-t-elle abordée le 15 avril prochain, date à laquelle le groupe Altice organise avec ses actionnaires et ses créanciers un point d’étape sur la restructuration de sa dette et ses performances sur le quatrième trimestre 2024 ? La question sera certainement posée, mais il n’est pas dit que Patrick Drahi et la direction d’Altice France lâchent le morceau, tant le dossier risque de se révéler complexe.
C’est pourtant l’idée qui revient au goût du jour, suite à la publication, dimanche, d’une enquête du Figaro, selon laquelle SFR serait – officieusement – en quête d’un repreneur. Ironiquement, c’est du nouveau directeur financier d’Orange, Laurent Martinez, que vient la première confirmation évoquée par le Figaro. « Pour la première fois depuis quinze ans dans les télécoms françaises, nous avons un vendeur », aurait ainsi déclaré ce dernier lors d’un échange avec des analystes financiers.
La rumeur selon laquelle Drahi envisagerait la vente de SFR n’est pas inédite. Elle revient toutefois dans l’actualité auréolée d’un contexte particulier : le milliardaire vient en effet de réussir le tour de force de restructurer la dette financière de son groupe, sans en perdre le contrôle. Pour y parvenir, il doit toutefois abandonner 45 % d’Altice à ses créanciers, principalement des fonds d’investissement américains, parmi lesquels des géants de la gestion d’actifs comme BlackRock, Elliott Investment Management ou Pacific Investment Management.
Pour atteindre son objectif, Altice a toutefois admis qu’il lui faudrait poursuivre la vente de ses actifs non essentiels. Après plusieurs cessions récentes (Altice Medias, datacenters, La Poste Mobile), c’est désormais la filiale XP Fibre, en charge de l’infrastructure réseau du groupe, qui ferait l’objet de tractations en coulisses…
L’opération doit, selon les propres termes d’Altice, faire retrouver au groupe un niveau d’endettement conforme aux standards du marché, et donc lui redonner des marges de manœuvre pour financer son développement. Elle lui confère également une structure de dette plus saine, nettement plus compatible avec un scénario de reprise que les 24 milliards d’euros qui plombaient les comptes…
Les trois opérateurs français restants étudieraient déjà très sérieusement la question, indique le Figaro. À grands renforts d’avocats et de banques d’affaires, ils chercheraient à déterminer les différentes modalités de rapprochement envisageables, au regard bien sûr des conditions de marché, mais aussi et surtout du cadre réglementaire, français comme européen.
En admettant qu’Orange, Free ou Bouygues Telecom souhaite se porter acquéreur des activités de SFR, les conditions d’un retour à trois opérateurs sont-elles réunies ? Rien n’est moins sûr, et le projet devrait très certainement prévoir la ventilation des actifs entre les trois, pour limiter les risques d’abus de position dominante. Au 30 septembre dernier, Altice France revendiquait pour mémoire (PDF) 6,174 millions de clients fixes (dont fibre) et 19,515 millions de clients mobiles.
En France, le cas de figure d’un retour à trois opérateurs ne s’est sérieusement présenté qu’une seule fois depuis l’entrée de Free sur le marché : l’hypothèse d’un rapprochement entre Orange et Bouygues Telecom avait longuement défrayé la chronique, avant de finalement achopper en avril 2016.
L’exemple du Royaume-Uni montre toutefois qu’une telle transaction n’est pas impossible : l’Autorité de la concurrence britannique a ainsi donné, en décembre dernier, son feu vert au projet de fusion entre Vodafone et Three, qui permettra au nouvel ensemble de devenir le premier acteur du marché, devant British Telecom et Virgin O2.
Read more of this story at Slashdot.
Oui, nous nous ennuyons un peu en ce lundi au soleil, on utilise donc abondamment les majuscules, mais tout de même l'information est détonante : des RX 9070 avec un Bios de RX 9070 XT seraient capables de dépasser de véritables RX 9070 XT ! Les plus anciens d'entre nous vont se plonger avec mélancolie dans les saintes années du GPU, lorsque nous pouvions acheter du moyen de gamme chez AMD ou NVIDIA et le flasher en haut de gamme, en réalité, ce n'était pas si aisé, mais cela était parfois possible... Concrètement sur le forum du site PC Gamers Hardware, pullulent des retours d'utilisateur qui auraient flashé "facilement" leur RX 9070 avec un Bios modifié de RX 9070 XT, le résultat étant probant : 6762 points sous 3DMark SpeedWay et 7183 points sous 3DMark SteelNomad, notre RX 9070 XT TUF se situe à 6318 points et 7158 points. […]
Lire la suiteComme nous le disions la semaine dernière, les problèmes s'accumulent pour NVIDIA avec ses GPU RTX 5000 de la série Blackwell. Lancement chaotique, indisponibilité des cartes, câbles d'alimentation fondus, soucis de stabilité et ROPs manquants, tels sont les problèmes déjà rencontrés par les verts, sans oublier la vague de crashs système et d'écrans noirs qui touchent les utilisateurs depuis le lancement. Le problème concerne plusieurs cartes, que ce soit la RTX 5090, 5080 ou la toute nouvelle 5070 Ti, toutes sont concernées, avec des symptômes allant du simple scintillement d'affichage jusqu'au BSOD pur et dur en usage normal. Et avec ces modèles, impossible de passer à des pilotes antérieurs pour résoudre le problème. […]
Lire la suiteLucas nous propose ce jour de passer un peu de temps avec un smartphone haut de gamme par Honor avec le Magic 7 Pro. Un modèle en 6.8 pouces OLED 2800 x 1280, qui exploite un Qualcomm Snapdragon 8 Elite, 12 Go de mémoire, 512 Go de stockage et 4 APN, rien que ça. À découvrir ici même : Test smartphone Honor Magic 7 Pro ou en cliquant sur la source. […]
Lire la suiteMicrosoft a récemment arrêté ou reporté certains projets de construction de data centers en Indonésie, au Royaume-Uni, en Australie, aux États-Unis et en France. Alors qu’il y a encore quelques mois, la mode était à la construction d’énorme centres pour l’IA, le géant du numérique planifiait déjà de freiner ses projets.
Microsoft est bel et bien en train de revoir les plans de son installation massive de data centers dans le monde, comme le laissait déjà entendre l’annulation de contrats de location qu’avait divulguée la banque d’investissement TD Cowen.
La petite commune de Quaëdypre du Nord de la France devait accueillir, sur une parcelle d’une vingtaine d’hectares, la création d’un tel centre. Enfin, c’est ce que Microsoft avait laissé entendre en aout dernier, selon La Voix du Nord. En octobre, l’entreprise avait confirmé son intension aux élus des Hauts-de-Flandre, expliquait le même quotidien régional. Deux projets étaient en discussion aussi dans l’Audomarois et le Calaisis.
Mais, finalement, Microsoft n’installera pas de data center à Quaëdypre ni sur les deux autres lieux en discussion. En février dernier, le même quotidien régional expliquait que Microsoft avait finalement fait savoir qu’elle ne viendrait pas. La communauté de communes des Hauts-de-Flandre espérait qu’une autre entreprise reprendrait le projet, sans en dire plus.
Quaëdypre pourrait être un cas anecdotique dans les plans d’installation de Microsoft. Mais Bloomberg confirme que l’entreprise a réduit ses projets de centres de données dans le monde entier. Elle a arrêté les négociations ou retardé le développement de sites en Indonésie, au Royaume-Uni, en Australie et dans trois États américains (L’Illinois, le Dakota du Nord et le Wisconsin).
En avril 2024, Microsoft annonçait un investissement de 1,7 milliard de dollars dans de nouvelles infrastructures de cloud et d’IA en Indonésie. Mais l’entreprise aurait interrompu les travaux d’une partie de son futur projet de regroupement de data centers, qui devait voir le jour à environ une heure de Jakarta, selon Bloomberg.
Au Royaume-Uni, Microsoft projetait de louer une zone située entre Londres et Cambridge. Elle devait accueillir un data center équipé des « meilleures puces Nvidia ». Mais elle a, semble-t-il, abandonné les négociations. De même avec Ada Infrastructure, alors que la multinationale projetait de louer une partie de son data center 210 MW Docklands. Mais, selon Bloomberg, Microsoft a finalement renoncé et Ada Infrastructure est maintenant en négociation avec un autre client.
L’entreprise aurait aussi arrêté les négociations concernant un emplacement à côté de Chicago, son projet d’extension de son site à Mount Pleasant, dans le Wisconsin, ou laissé courir les négociations au-delà de la clause d’exclusivité pour la location d’un centre d’Applied Digital Corp dans le Dakota du Nord.
Interrogée par Bloomberg, Microsoft refuse de parler de chaque implantation, mais reconnait avoir modifié ses plans en matière de data centers. Elle affirme :
« Nous planifions les besoins en capacité de nos data centers des années à l’avance pour nous assurer que nous disposons d’une infrastructure suffisante aux bons endroits. […] Alors que la demande en IA continue de croître et que notre présence dans les centres de données continue de s’étendre, les changements que nous avons apportés démontrent la flexibilité de notre stratégie ».
Microsoft n’est pas forcément le leader de la R&D en IA générative, puisqu’elle a laissé ce rôle à OpenAI. Elle en a fait le cheval de Troie des modèles de langage en y investissant massivement. Mais l’entreprise est sans doute le leader en termes de commercialisation. La firme de Redmond a intégré l’IA générative dans ses offres logicielles et a augmenté la facture. Les investissements et abandons de l’entreprise dans le secteur sont donc scrutés avec intérêt.
Mais il est difficile de savoir de quoi ces abandons et cette pause dans les investissements sont le signe. S’agit-il de difficultés de construction, de pénuries, de coûts, de baisse des besoins en IA ou encore d’une projection de ventes de services d’IA plus faibles que prévu par l’entreprise ?
Read more of this story at Slashdot.