Vue normale

Metacritic Will Kick Out Media Attempting To Submit AI Generated Reviews

Par : msmash
27 février 2026 à 17:32
An anonymous reader shares a report: While some see AI as a tool to be used, its specific use and how it is deployed responsibly is being heavily debated online across a wide range of industries. In terms of journalistic content, and in this particular instance, reviews, review aggregator Metacritic has taken a firm stance on content published and submitted to their platform, that have been generated by artificial intelligence in some way. In a statement by co-founder Marc Doyle, sent to Gamereactor, he says this: "Metacritic has been a reputable review source for a quarter century and has maintained a rigorous vetting process when adding new publications to our slate of critics. However, in certain instances such as a publication being sold or a writing staff having turned over, problems can arise such as plagiarism, theft, or other forms of fraud including AI-generated reviews. Metacritic's policy is to never include an AI-generated critic review on Metacritic and if we discover that one has been posted, we'll remove it immediately and sever ties with that publication indefinitely pending a thorough investigation." So, what is this about specifically? Well, it's probably a sound guess, that this pertains to Videogamer's review of Resident Evil 9: Requiem, which was removed from the platform after a barrage of comments accusing the review of being AI-written, and for the author of being made up.

Read more of this story at Slashdot.

Bon Flan : Graveuse laser MecPow X3 Pro + Air Assist à 169€

27 février 2026 à 17:21

Stockée en France et livrée gratuitement, la graveuse MecPow X3 Pro est une solution ouverte très classique qui propose un graveur laser 10W précis et facile à mettre en œuvre. La zone de gravure est confortable avec 41 cm sur 40 et la solution est peu encombrante.

Un kit « Air Assist » est livré avec la MecPow X3 Pro. Celui permet de souffler de l’air au niveau où est dirigé le laser. Évitant ainsi la fumée d’obstruer le passage de la lumière et dégageant la zone pour une gravure puissante et fine. Le réglage de la hauteur du laser est rapide grâce à une jauge et une focale fixe. Enfin, un cache de protection vient protéger les yeux de la lumière du laser. Des lunettes de protection sont également incluses dans le colis.

La graveuse MecPow X3 Pro est proposée à 199€ chez Geekbuying mais le code NNNFRMX3PRO réduit la facture de 30€ une fois ajouté dans le panier. Ce qui nous fait un engin livré rapidement, complet et facile d’emploi à 169€.

Voir l’offre sur Geekbuying

Bon Flan : Graveuse laser MecPow X3 Pro + Air Assist à 169€ © MiniMachines.net. 2026

Sam Altman Says OpenAI Shares Anthropic's Red Lines in Pentagon Fight

Par : msmash
27 février 2026 à 16:40
An anonymous reader shares a report: OpenAI CEO Sam Altman wrote in a memo to staff that he will draw the same red lines that sparked a high-stakes fight between rival Anthropic and the Pentagon: no AI for mass surveillance or autonomous lethal weapons. If other leading firms like Google follow suit, this could massively complicate the Pentagon's efforts to replace Anthropic's Claude, which was the first model integrated into the military's most sensitive work. It would also be the first time the nation's top AI leaders have taken a collective stand about how the U.S. government can and can't use their technology. Altman made clear he still wants to strike a deal with the Pentagon that would allow ChatGPT to be used for sensitive military contexts. Despite the show of solidarity, such a deal could see OpenAI replace Anthropic if the Pentagon follows through with its plan to declare the latter a "supply chain risk."

Read more of this story at Slashdot.

UFS 5.0 : une vitesse max théorique de 10.8 Gb/s pour le stockage

27 février 2026 à 16:29

Le JEDEC, organisme en charge de la publication de la norme, annonce les spécifications de l’UFS 5.0. Et le point phare de cette norme est la vitesse promise par le format. En effet, les débits en écriture et en lecture séquentielles atteindraient les 10.8 Gb/s.

C’est presque deux fois le débit du PCIe 4.0 NVMe employé encore aujourd’hui sur la majorité des PC. L’UFS 5.0 ferait bien mieux que les 5.8 Gb/s de ce format de référence ou que les 4.2 Gb/s de l’UFS 4.0. Une bonne nouvelle sur le papier mais encore très théorique pour trois bonnes raisons.

D’abord, il y a du temps entre l’annonce d’une norme comme cet UFS 5.0 et la sortie d’un éventuel produit commercial. Encore plus de temps si on veut que le produit soit financièrement accessible. Cela nous mène à la seconde raison, qui est que la période est pour le moins compliquée. Les solutions de stockage innovantes et rapides n’ont aucune raison d’être disponibles pour le grand public ni même proposées à un prix abordable. Il faudra donc du temps pour que ce genre de puce soit intégrée et encore plus pour qu’elles descendent des produits les plus haut de gamme vers un milieu de gamme accessible. On se doute que les premiers clients de ce format seront les fabricants de smartphones.

UFS 5.0

Troisième point, est-ce vraiment souhaitable de voir proliférer les stockages de ce type dans des ordinateurs personnels ? Certes un portable en UFS 5.0 sera plus rapide, mais il sera également irréparable en cas de pépin technique sur le stockage. Entre les processeurs, la mémoire et le stockage soudés, l’obsolescence d’un engin ne serait plus liée qu’à la première faille technique d’une des puces.

Les fournisseurs classiques de puces UFS sont sur les rangs. Samsung, SK Hynix, Sandisk, KIOXIA et Mediatek sont d’ores et déjà impliqués. Ce qui veut dire qu’ils ont probablement choisi d’acquérir une licence d’exploitation du format. Kioxia indique avoir déjà expédié des prototypes de puces de 512 Go et 1 To de tout petit format. On parle de modules mesurant 7.5 par 13 mm seulement. De quoi glisser facilement 2,3 ou même 4 To très rapides dans un smartphone ou une tablette. Ces puces sont très en avance sur la production de masse et ne serviront qu’à établir des circuits fonctionnels chez les intégrateurs.

UFS 5.0 : une vitesse max théorique de 10.8 Gb/s pour le stockage © MiniMachines.net. 2026

#Nextpresso Adaptateur M.2 vers PCIe à 10 euros pour installer un SSD sur sa carte mère

27 février 2026 à 16:02
On ne branche pas directement le SSD dans le port PCIe !
#Nextpresso Adaptateur M.2 vers PCIe à 10 euros pour installer un SSD sur sa carte mère

Installer un SSD M.2 NVMe dans le port PCIe d’une carte mère peut se faire simplement à l’aide d’un adaptateur vendu quelques euros. Nous avons testé un modèle de Sabrent avec un radiateur pour refroidir les puces de NAND qui pourraient chauffer lors de gros transferts.

Nous avons commandé il y a quelque temps un adaptateur M.2 pour les SSD NVMe afin de les installer dans un emplacement PCIe de carte mère. C’est l’occasion d’expliquer comment cela fonctionne. C’est simple : un PCB, quelques pistes et quasiment aucun composant.

M.2 NVMe et PCIe : blanc bonnet et bonnet blanc

La raison est simple : les SSD au format M.2 utilisant le protocole NVMe sont déjà avec un câblage en PCIe, il n’y a donc aucune conversion de signal à faire pour les brancher sur un connecteur PCIe, il faut simplement emmener les broches du SSD au bon endroit sur le port PCI Express. Ce n’était pas le cas de l’adaptateur M.2 vers USB dans lequel, pour rappel, un contrôleur Realtek se chargeait de la conversion du signal.

Le PCB de notre adaptateur de marque Sabrent était vendu 10 euros sur Amazon il y a quelques mois quand nous l’avons acheté, mais il est désormais à 18 euros, ce qui est largement au-dessus de la moyenne pour ce genre de produit. Il en existe d’autres marques (ou sans marque) à 10 euros sur la marketplace d’Amazon.

Un PCB quasiment vide, et c’est normal

Le même bout de PCB (en no-name, sans la marque Sabrent, mais le reste du PCB est identique) est vendu quelques euros sur les plateformes chinoises, mais sans radiateur.

L’intérêt de ce modèle est qu’il est livré avec un pad thermique à poser sur les puces de mémoire NAND du SSD et un radiateur métallique qui englobe entièrement le SSD.

L’installation nécessite un peu de dextérité avec une vis pour faire tenir le SSD dans son emplacement M.2 (des trous sont disponibles pour les SSD au format 2230, 2242, 2260 et 2280, c’est-à-dire en 30, 42, 60 et 80 mm de long) et quatre autres pour fermer le boîtier. Dans le bundle, nous avions également un petit tournevis adapté aux vis, pratique.

À y regarder de plus près, on remarque quelques composants, à vrai dire. Deux condensateurs pour l’alimentation électrique, quatre LED et autant de résistances pour ces dernières. Aucun des composants ne sert au transfert des données.

Sur les photos ci-dessous, vous pouvez voir que seuls les deux premiers morceaux de PCB du port PCIe sont connectés, ce sont ceux qui correspondent à du x4. Les autres ne sont pas branchés, ce qui explique qu’on peut mettre la carte dans un emplacement x4, x8 ou x16.

Il suffit donc d’installer l’adaptateur dans un port PCIe de votre ordinateur. Il doit être en x4 minimum (il n’est pas compatible avec les ports x1), mais il peut aussi être en x4, x8 ou x16. Dans tous les cas, le câblage interne est en x4 maximum.

Sur la seconde rangée d’images, vous pouvez voir l’installation dans un emplacement x16, puis dans un emplacement x4 et enfin en face d’un emplacement x1 qui n’est pas compatible.

Cinq vis plus tard, 3 Go/s comme prévu avec notre SSD

Nous avons installé un SSD Kingston NV2S de 500 Go, qui est au format M.2 avec une interface NVMe en PCIe x4 Gen 4. Attention, cet adaptateur n’est compatible qu’avec les SSD M.2 avec une interface en PCIe, pas ceux en S-ATA !

Notre SSD était déjà partitionné et considérablement rempli, mais les performances sont équivalentes à celles obtenues s’il était directement branché sur la carte mère. Nous avons ainsi un peu plus de 3 Go/s en lecture et près de 2,4 Go/s en écriture.

Rien de surprenant puisque, une fois encore, cet adaptateur ne fait que mettre les broches du SSD M.2 au bon endroit sur le port PCIe, rien de plus ni rien de moins.

Des adaptateurs pour 2 ou 4 SSD existent, attention à la bifurcation !

Si vous avez des SSD à brancher sur votre ordinateur et plus (ou pas) d’emplacement M.2 disponible, alors ce genre d’adaptateur est fait pour vous, à condition d’avoir au moins un port PCIe x4 de libre. Nous n’avons testé qu’un seul modèle, mais il existe des dizaines de déclinaisons, avec un ou plusieurs emplacements M.2.

Sur les adaptateurs avec quatre emplacements, vous verrez parfois une mention du type : nécessite la fonction de bifurcation. Cette technique permet de diviser un port x16 en deux ports x8 ou en quatre ports x4. C’est nécessaire pour utiliser quatre SSD M.2 sur une même carte. Nous en avions déjà parlé il y a plusieurs années.

Même encore aujourd’hui, mieux vaut vérifier ce qu’il en est sur le manuel de votre carte mère. Première chose, bien différencier le format du connecteur PCIe et son câblage. Un emplacement x16 peut ne proposer que du x4 ou x8, cela peut même varier en fonction du CPU (qui peut proposer plus ou moins de lignes PCIe).

Un exemple ? La X670-P-CSM avec un port PCIe x16 en x16 et deux autres ports PCIe x16 en… x4. Ne comptez donc pas y installer plus d’un SSD M.2. Asus propose aussi une page dédiée à la bifurcation et aux différentes possibilités… vous allez voir que c’est plus complexe qu’il n’y parait.

Netflix Ditches deal for Warner Bros. Discovery After Paramount's Offer is Deemed Superior

Par : msmash
27 février 2026 à 16:00
Netflix is walking away from a deal to buy Warner Bros. Discovery's studio and streaming assets after the WBD board on Thursday deemed a revised bid by Paramount Skydance to be a superior offer. From a report: Earlier this week, Paramount raised its bid to buy the entirety of WBD to $31 per share, up from $30 per share, all cash. It was the latest amendment to Paramount's multiple offers in recent months -- and since moving forward with a hostile bid to buy the company -- and it's now unseated a deal between WBD and Netflix to sell the legacy media company's studio and streaming businesses for $27.75 per share. Last week, Netflix granted WBD a seven-day waiver to reengage with Paramount, resulting in the higher bid. Paramount's offer is for the entirety of WBD, including its pay-TV networks, such as CNN, TBS and TNT. Netflix had four business days to make changes to its own proposal in light of Paramount's superior bid, the WBD board said in a statement Thursday. Instead, the decision by the streaming giant to walk away puts a pin in a drawn-out saga that saw amended offers from both bidders.

Read more of this story at Slashdot.

SilverStone RM4A: 4U Rackmount Server/Workstation Chassis That's Great For Liquid Cooling

27 février 2026 à 15:43
For those looking to build a rackmount-ready server or workstation that can handle up to an SSI-EEB motherboard and capable of fitting a large liquid cooling setup, the RM4A is a new option from SilverStone that can fit up to a 360mm radiator while still fitting an SSI-EEB motherboard and up to eight expansion slots within 4U size constraints.

☕️ Fuite de données personnelles à l’école d’ingénieurs ESPCI

27 février 2026 à 15:27

Dans un email envoyé à l’ensemble de l’école et plus largement à « l’ensemble des usagers disposant d’un compte informatique ESPCI », le responsable du service informatique de l’École supérieure de physique et de chimie industrielles de la ville de Paris (ESPCI Paris) les a informés d’une fuite de données personnelles.

LPLT, licence Creative Commons by-sa 3.0

Le courrier explique que, « lors de la journée du jeudi 26 février 2026, un défaut de contrôle d’accès a permis à des acteurs non identifiés de moissonner l’annuaire de l’école ».

Les données concernées sont les suivantes :

  • Civilité, nom et prénom d’usage.
  • Courriel pro, et éventuellement personnel s’il a été renseigné.
  • Données d’identification: nom d’utilisateur, mais pas le mot de passe.
  • Fonction et affectation.
  • Photo, sauf si il avait été indiqué qu’elle ne devait servir qu’au badge.
  • Permissions d’accès aux services et aux locaux.
  • Abonnements aux listes de diffusion.
  • Pour les étudiants: inscriptions pédagogiques.
  • Pour le personnel: employeur, domaine d’activité (BAP, section CNRS et CNU).
  • Pour le personnel salarié de la régie: corps, date de fin de contrat.
  • Pour les prestataires, partenaires et extérieurs: employeur, catégorie socioprofessionnelle.

Le responsable du service informatique assure avoir notifié la CNIL, conformément à l’article 33 du RGPD et se dit « navré de cet incident ». Il ajoute que son équipe prévoit « des mesures de renforcement de la sécurité, afin que ce scénario ne puisse pas se reproduire ».

Next a contacté ESPCI pour en savoir plus et mettra à jour cet article le cas échéant.

☕️ Fuite de données personnelles à l’école d’ingénieurs ESPCI

27 février 2026 à 15:27

Dans un email envoyé à l’ensemble de l’école et plus largement à « l’ensemble des usagers disposant d’un compte informatique ESPCI », le responsable du service informatique de l’École supérieure de physique et de chimie industrielles de la ville de Paris (ESPCI Paris) les a informés d’une fuite de données personnelles.

LPLT, licence Creative Commons by-sa 3.0

Le courrier explique que, « lors de la journée du jeudi 26 février 2026, un défaut de contrôle d’accès a permis à des acteurs non identifiés de moissonner l’annuaire de l’école ».

Les données concernées sont les suivantes :

  • Civilité, nom et prénom d’usage.
  • Courriel pro, et éventuellement personnel s’il a été renseigné.
  • Données d’identification: nom d’utilisateur, mais pas le mot de passe.
  • Fonction et affectation.
  • Photo, sauf si il avait été indiqué qu’elle ne devait servir qu’au badge.
  • Permissions d’accès aux services et aux locaux.
  • Abonnements aux listes de diffusion.
  • Pour les étudiants: inscriptions pédagogiques.
  • Pour le personnel: employeur, domaine d’activité (BAP, section CNRS et CNU).
  • Pour le personnel salarié de la régie: corps, date de fin de contrat.
  • Pour les prestataires, partenaires et extérieurs: employeur, catégorie socioprofessionnelle.

Le responsable du service informatique assure avoir notifié la CNIL, conformément à l’article 33 du RGPD et se dit « navré de cet incident ». Il ajoute que son équipe prévoit « des mesures de renforcement de la sécurité, afin que ce scénario ne puisse pas se reproduire ».

Next a contacté ESPCI pour en savoir plus et mettra à jour cet article le cas échéant.

Microsoft: Computer Programming Is Dying, Long Live AI Literacy

Par : msmash
27 février 2026 à 15:21
theodp writes: On Tuesday, Microsoft GM of Education and Workforce Policy (and former Code.org Chief Academic Officer) Pat Yongpradit posted an obituary of sorts for coders. "Computer programmers and software developers are codified differently in the BLS [Bureau of Labor Statistics] data," Yongpradit wrote. "The modern AI-infused world needs less computer programmers (coders) and more software developers (more holistic and higher level). So when folks say that there is less hiring of computer programmers, they are right. But there will be more hiring of software developers, especially those who have adopted an AI-forward mindset and skillset. [...] The number of just pure computer programming roles has already been declining due to reasons like outsourcing, AI will just accelerate the decline." On Wednesday, Yongpradit's colleague Allyson Knox, Senior Director of Education and Workforce Policy at Microsoft, put another AI nail in the coder coffin, testifying before the House Committee on Education -- the Workforce Subcommittee on Early Childhood, Elementary, and Secondary Education on Building an AI-ready America: Teaching in the Age of AI. "Thank you to Chairman Tim Walberg, Ranking Member Bobby Scott, Chair Kevin Kiley, Ranking Member Suzanne Bonamici and members of the Subcommittee for the opportunity to share Microsoft perspective and that of the educators and parents we hear from every day across the country," Knox wrote in a LinkedIn post. "Three themes continue to emerge throughout these discussions: 1. Educators want support to build AI literacy and critical thinking skills. 2. Schools need guidance and guardrails to ensure student data is protected and adults remain in control. 3. Teachers want classroom-ready tools, and a voice in shaping them. If we focus on these priorities, we can help ensure AI expands opportunity for every student across the United States." Yongpradit and Knox report up to Microsoft President Brad Smith, who last July told Code.org CEO Hadi Partovi it was time for the tech-backed nonprofit to "switch hats" from coding to AI as Microsoft announced a new $4 billion initiative to advance AI education. Smith's thoughts on the extraordinary promise of AI in education were cited by Knox in her 2026 Congressional testimony. Interestingly, Knox argued for the importance of computer programming literacy in her 2013 Congressional testimony at a hearing on Our Nation of Builders: Training the Builders of the Future. "Congress needs to come up with fresh ideas on how we can continue to train the next generation of builders, programmers, manufacturers, technicians and entrepreneurs," said Rep. Lee Terry said to open the discussion. So, are reports of computer programming's imminent death greatly exaggerated?

Read more of this story at Slashdot.

La GeForce3 fête ses 25 ans. Et si nous nous replongions dans le test HFR de l'époque ?

Le 27 février 2001, NVIDIA lançait officiellement la GeForce3. La première représentante de la 3e génération de cartes GeForce apportait de nombreuses nouveautés dont une qui a radicalement changé la donne : le nFinite FX Engine. Derrière ce nom obscur, on retrouvait en fait la toute première intégr...

SHIELD Experience Upgrade 9.2.4 : une nouvelle mise à jour

27 février 2026 à 15:04

Le SHIELD Experience Upgrade 9.2.4 est disponible, il pèse un bon gigaoctet et amène plusieurs corrections à la TV Box de la marque.

Le point clé est la mise à niveau du patch de sécurité d’Android correspondant à janvier 2026. Pour un produit dont la première version date de 2015, cela fait un support un poil plus long qu’un smartphone ou une tablette classique. 

Plusieurs bugs sont également corrigés : 

  • Résolution du problème de lecture de Disney+.
  • Résolution du problème de connexion à distance tierce avec Xbox après le mode veille.
  • Résolution d’un problème de crash entraînant l’activation des appareils SHIELD et CEC pendant le mode veille.
  • Résolution de la déconnexion fréquente des télécommandes Bluetooth tierces.
  • Résolution de la fermeture de la page de paramètres lors du déclenchement de NVIDIA Share en haut de la page de paramètres.

Si vous comptez regarder quelque chose avec votre Shield ce soir lancez la mise à jour avant, car si le téléchargement est rapide, l’application du patch a pris quelques longues minutes. 

Comme d’habitude, le patch doit vous être signalé par la TV Box si elle est connectée. Si ce n’est pas le cas, allez dans les paramètres pour forcer la recherche de mises à jour.

SHIELD Experience Upgrade 9.2.4 : une nouvelle mise à jour © MiniMachines.net. 2026

OpenAI lève 110 milliards de dollars auprès d’Amazon, Softbank et NVIDIA

27 février 2026 à 15:01
Enlarge your model
OpenAI lève 110 milliards de dollars auprès d’Amazon, Softbank et NVIDIA

La bourse attendra : OpenAI a dévoilé vendredi les modalités d’un nouveau tour de table record, avec 110 milliards de dollars réunis, sur la base d’une valorisation à 730 milliards de dollars. L’entreprise dirigée par Sam Altman en profite pour annoncer un partenariat renforcé avec Amazon, et assure que son accord avec Microsoft n’est pas remis en cause.

Moins d’un an après sa dernière levée de fonds (40 milliards de dollars en 2025), OpenAI remet le couvert avec un tour de table aux proportions pharaoniques. L’entreprise a en effet annoncé, vendredi 27 février, avoir réuni 110 milliards de dollars auprès de trois investisseurs : Amazon, premier contributeur avec 50 milliards de dollars, puis NVIDIA et Softbank, tous deux engagés à hauteur de 30 milliards de dollars.

« D’autres investisseurs financiers devraient nous rejoindre au fur et à mesure que le tour de table progresse », précise l’entreprise, qui ne compte donc pas en rester là. Il faut toutefois noter que ces montants sont des engagements d’investissement qui doivent donc encore se vérifier : Amazon par exemple promet 50 milliards de dollars mais en deux temps : d’abord 15 milliards, puis 35 milliards « dans les prochains mois, lorsque certaines conditions seront remplies ».

OpenAI valorisée 730 milliards de dollars

« La demande en IA augmente parmi les consommateurs, les développeurs et les entreprises. Répondre à cette demande et fournir l’accès à nos produits à tous exige trois choses : du calcul, de la distribution et du capital », résume OpenAI selon qui ces fonds vont permettre à ses infrastructures, comme à ses modèles, de passer à l’échelle.

L’entreprise en profite pour actualiser ses chiffres : elle ne communique aucun chiffre d’affaires, mais affirme que ChatGPT compte 900 millions d’utilisateurs actifs par semaine, dont 50 millions d’abonnés payants particuliers. Plus de 9 millions d’utilisateurs seraient abonnés à l’une des offres entreprise, et la base d’utilisateurs de Codex, son outil dédié aux développeur, aurait été multipliée par trois depuis le début de l’année, pour atteindre 1,6 million d’utilisateurs hebdomadaires.

OpenAI précise que cette levée de fonds se fait sur la base d’une valorisation fixée à 730 milliards de dollars, avant réalisation du tour. La capitalisation de l’entreprise a donc plus que doublé en moins d’un an, puisqu’elle était fixée à 300 milliards lors de la précédente levée de fonds. L’entreprise indique que la participation de la fondation OpenAI au sein de l’entreprise commerciale est désormais valorisée 180 milliards de dollars.

Un partenariat dantesque (et circulaire) avec Amazon

Si Amazon (par ailleurs investisseur historique d’Anthropic) prend la tête de ce tour de table, c’est parce que les deux groupes ont convenu d’un partenariat renforcé entre OpenAI et Amazon Web Services (AWS).

Selon les termes de ce dernier, les deux groupes vont concevoir ensemble et lancer dans les prochains mois un environnement d’exécution stateful (capable de conserver l’état et le contexte), sous-tendu par les modèles d’OpenAI et distribué au travers d’Amazon Bedrock à destination des entreprises et développeurs qui cherchent à développer leurs propres agents ou applications IA.

AWS devient par ailleurs le distributeur tiers exclusif d’OpenAI Frontier, la plateforme tout juste annoncée via laquelle l’éditeur de ChatGPT propose à ses grands clients de déployer leurs applications.

AWS devient le distributeur agréé pour OpenAI Frontier, dont ce schéma résume le fonctionnement – crédit OpenAI

Dans le même temps, OpenAI s’engage à consommer (et donc à payer) l’équivalent de 2 GW de puissance de calcul sur le réseau de puces Trainium déployé dans les infrastructures d’AWS, précisément pour sous-tendre le fonctionnement de Frontier et des autres outils de déploiement évoqués.

Les deux partenaires indiquent que cet engagement prolonge l’accord à 38 milliards de dollars annoncé en novembre dernier et le porte à un total de 100 milliards de dollars sur huit ans.

Enfin, ils collaboreront à des modèles personnalisés, destinés aux applications commerciales d’Amazon vers le consommateur grand public.

5 GW chez NVIDIA

De la même façon, la participation de NVIDIA, finalement fixée à 30 milliards de dollars, bien loin des 100 milliards un temps évoqués, est assortie d’un engagement significatif de la part d’OpenAI, qui prévoit de consommer l’équivalent de 2 GW en entraînement sur des systèmes équipés de puces Vera Rubin, et 3 GW en capacités dédiées spécifiquement à l’inférence.

« Ce projet s’appuie sur les systèmes Hopper et Blackwell déjà opérationnels chez Microsoft, OCI et CoreWeave. Ensemble, cet investissement et ce développement de l’infrastructure renforcent notre capacité à entraîner et à déployer des modèles de pointe à l’échelle mondiale », précise à ce sujet OpenAI.

OpenAI et Microsoft toujours main dans la main

À ces deux annonces (levée de fonds et partenariat étendu avec Amazon), OpenAI ajoute une troisième communication, ciblée cette fois sur un autre partenaire et investisseur absent du tour de table : Microsoft.

Alors que les projets récemment renforcés de l’éditeur de Redmond en matière d’IA laissaient craindre à certains observateurs une forme de désengagement, OpenAI et Microsoft renouvellent leurs vœux dans une déclaration conjointe.

« Alors (…) qu’OpenAI annonce de nouveaux financements et de nouveaux partenaires, nous tenons à préciser que ces annonces s’inscrivent dans le cadre de notre partenariat actuel. Les annonces d’aujourd’hui ne modifient en rien les termes de la relation entre Microsoft et OpenAI, tels que présentés » en octobre 2025, affirment les deux entreprises.

Si AWS devient le partenaire de choix pour les environnements stateful, Azure reste par ailleurs le fournisseur exclusif des API stateless d’OpenAI, et la distribution directe des services d’OpenAI tels que Frontier se fera elle aussi toujours à partir de l’infrastructure Azure.

OpenAI lève 110 milliards de dollars auprès d’Amazon, Softbank et NVIDIA

27 février 2026 à 15:01
Enlarge your model
OpenAI lève 110 milliards de dollars auprès d’Amazon, Softbank et NVIDIA

La bourse attendra : OpenAI a dévoilé vendredi les modalités d’un nouveau tour de table record, avec 110 milliards de dollars réunis, sur la base d’une valorisation à 730 milliards de dollars. L’entreprise dirigée par Sam Altman en profite pour annoncer un partenariat renforcé avec Amazon, et assure que son accord avec Microsoft n’est pas remis en cause.

Moins d’un an après sa dernière levée de fonds (40 milliards de dollars en 2025), OpenAI remet le couvert avec un tour de table aux proportions pharaoniques. L’entreprise a en effet annoncé, vendredi 27 février, avoir réuni 110 milliards de dollars auprès de trois investisseurs : Amazon, premier contributeur avec 50 milliards de dollars, puis NVIDIA et Softbank, tous deux engagés à hauteur de 30 milliards de dollars.

« D’autres investisseurs financiers devraient nous rejoindre au fur et à mesure que le tour de table progresse », précise l’entreprise, qui ne compte donc pas en rester là. Il faut toutefois noter que ces montants sont des engagements d’investissement qui doivent donc encore se vérifier : Amazon par exemple promet 50 milliards de dollars mais en deux temps : d’abord 15 milliards, puis 35 milliards « dans les prochains mois, lorsque certaines conditions seront remplies ».

OpenAI valorisée 730 milliards de dollars

« La demande en IA augmente parmi les consommateurs, les développeurs et les entreprises. Répondre à cette demande et fournir l’accès à nos produits à tous exige trois choses : du calcul, de la distribution et du capital », résume OpenAI selon qui ces fonds vont permettre à ses infrastructures, comme à ses modèles, de passer à l’échelle.

L’entreprise en profite pour actualiser ses chiffres : elle ne communique aucun chiffre d’affaires, mais affirme que ChatGPT compte 900 millions d’utilisateurs actifs par semaine, dont 50 millions d’abonnés payants particuliers. Plus de 9 millions d’utilisateurs seraient abonnés à l’une des offres entreprise, et la base d’utilisateurs de Codex, son outil dédié aux développeur, aurait été multipliée par trois depuis le début de l’année, pour atteindre 1,6 million d’utilisateurs hebdomadaires.

OpenAI précise que cette levée de fonds se fait sur la base d’une valorisation fixée à 730 milliards de dollars, avant réalisation du tour. La capitalisation de l’entreprise a donc plus que doublé en moins d’un an, puisqu’elle était fixée à 300 milliards lors de la précédente levée de fonds. L’entreprise indique que la participation de la fondation OpenAI au sein de l’entreprise commerciale est désormais valorisée 180 milliards de dollars.

Un partenariat dantesque (et circulaire) avec Amazon

Si Amazon (par ailleurs investisseur historique d’Anthropic) prend la tête de ce tour de table, c’est parce que les deux groupes ont convenu d’un partenariat renforcé entre OpenAI et Amazon Web Services (AWS).

Selon les termes de ce dernier, les deux groupes vont concevoir ensemble et lancer dans les prochains mois un environnement d’exécution stateful (capable de conserver l’état et le contexte), sous-tendu par les modèles d’OpenAI et distribué au travers d’Amazon Bedrock à destination des entreprises et développeurs qui cherchent à développer leurs propres agents ou applications IA.

AWS devient par ailleurs le distributeur tiers exclusif d’OpenAI Frontier, la plateforme tout juste annoncée via laquelle l’éditeur de ChatGPT propose à ses grands clients de déployer leurs applications.

AWS devient le distributeur agréé pour OpenAI Frontier, dont ce schéma résume le fonctionnement – crédit OpenAI

Dans le même temps, OpenAI s’engage à consommer (et donc à payer) l’équivalent de 2 GW de puissance de calcul sur le réseau de puces Trainium déployé dans les infrastructures d’AWS, précisément pour sous-tendre le fonctionnement de Frontier et des autres outils de déploiement évoqués.

Les deux partenaires indiquent que cet engagement prolonge l’accord à 38 milliards de dollars annoncé en novembre dernier et le porte à un total de 100 milliards de dollars sur huit ans.

Enfin, ils collaboreront à des modèles personnalisés, destinés aux applications commerciales d’Amazon vers le consommateur grand public.

5 GW chez NVIDIA

De la même façon, la participation de NVIDIA, finalement fixée à 30 milliards de dollars, bien loin des 100 milliards un temps évoqués, est assortie d’un engagement significatif de la part d’OpenAI, qui prévoit de consommer l’équivalent de 2 GW en entraînement sur des systèmes équipés de puces Vera Rubin, et 3 GW en capacités dédiées spécifiquement à l’inférence.

« Ce projet s’appuie sur les systèmes Hopper et Blackwell déjà opérationnels chez Microsoft, OCI et CoreWeave. Ensemble, cet investissement et ce développement de l’infrastructure renforcent notre capacité à entraîner et à déployer des modèles de pointe à l’échelle mondiale », précise à ce sujet OpenAI.

OpenAI et Microsoft toujours main dans la main

À ces deux annonces (levée de fonds et partenariat étendu avec Amazon), OpenAI ajoute une troisième communication, ciblée cette fois sur un autre partenaire et investisseur absent du tour de table : Microsoft.

Alors que les projets récemment renforcés de l’éditeur de Redmond en matière d’IA laissaient craindre à certains observateurs une forme de désengagement, OpenAI et Microsoft renouvellent leurs vœux dans une déclaration conjointe.

« Alors (…) qu’OpenAI annonce de nouveaux financements et de nouveaux partenaires, nous tenons à préciser que ces annonces s’inscrivent dans le cadre de notre partenariat actuel. Les annonces d’aujourd’hui ne modifient en rien les termes de la relation entre Microsoft et OpenAI, tels que présentés » en octobre 2025, affirment les deux entreprises.

Si AWS devient le partenaire de choix pour les environnements stateful, Azure reste par ailleurs le fournisseur exclusif des API stateless d’OpenAI, et la distribution directe des services d’OpenAI tels que Frontier se fera elle aussi toujours à partir de l’infrastructure Azure.

Your Smart TV May Be Crawling the Web for AI

Par : msmash
27 février 2026 à 14:40
Bright Data, a company that operates one of the world's largest residential proxy networks, has been running an SDK inside smart TV apps that turns those devices into nodes for web crawling -- collecting data used by AI companies, among other clients -- and most consumers have had no idea it was happening. The company has published more than 200 first-party apps to LG's app store alone and still lists Samsung's Tizen OS and LG's webOS as supported platforms, though LG says the SDK is "not officially supported" and its operation on webOS "is not guaranteed." Google, Amazon, and Roku have all since adopted policies restricting or banning background proxy SDKs, and Bright Data no longer supports those platforms. Several Roku apps still running the SDK disappeared from the store after a journalist with The Verge behind this reporting contacted the company.

Read more of this story at Slashdot.

Canonical Talks Up RISC-V This Year With Ubuntu 26.04 LTS

27 février 2026 à 14:01
Canonical put out a new blog post today highlighting their RISC-V work over 2025 that included switching to the RVA23 profile baseline for Ubuntu 25.10 and moving forward. Now with RVA23-compatible RISC-V hardware coming to market this year, Canonical is talking up the RISC-V possibilities when paired with the upcoming Ubuntu 26.04 LTS release...

☕️ Windows Server va (enfin) permettre de démarrer sur une partition ReFS

27 février 2026 à 14:05

ReFS, pour Resilient File System, est le système de fichiers propriétaire conçu par Microsoft à destination des très grands espaces de stockage, avec une capacité maximale fixée à 35 Po par volume, contre 256 To en standard sur NTFS.

Introduit sous Windows (8.1) et Windows Server (2012), il y a près de 14 ans, ReFS présentait une limitation majeure : la prise en charge de ReFS sur un volume système utilisé pour le démarrage n’était pas officiellement assurée.

Sur ce point, la donne s’apprête à changer : Microsoft a en effet annoncé jeudi la prise en charge du démarrage sur ReFS au sein de Windows Server. Pour l’instant, la fonctionnalité n’est distribuée que par l’intermédiaire des préversions de test (Insider Preview), mais elle devrait logiquement être étendue à tous les canaux après une période de test.

« Les charges de travail [workloads, en anglais]modernes exigent davantage de la part du volume de démarrage que ce que NTFS peut fournir. ReFS a été conçu dès le départ pour protéger l’intégrité des données à grande échelle. En activant ReFS pour le volume de démarrage du système d’exploitation, nous garantissons que même les données système les plus critiques bénéficient d’une résilience avancée, d’une évolutivité à l’épreuve du temps et de performances améliorées », se réjouit l’éditeur.

L’option est proposée sur les builds de Windows Server ultérieures au 11 février.

Les avantages comparés de ReFS et NTFS pour un volume de démarrage selon Microsoft – capture d’écran

Pour aller plus loin sur le sujet, consultez notre dossier dédié :

☕️ Windows Server va (enfin) permettre de démarrer sur une partition ReFS

27 février 2026 à 14:05

ReFS, pour Resilient File System, est le système de fichiers propriétaire conçu par Microsoft à destination des très grands espaces de stockage, avec une capacité maximale fixée à 35 Po par volume, contre 256 To en standard sur NTFS.

Introduit sous Windows (8.1) et Windows Server (2012), il y a près de 14 ans, ReFS présentait une limitation majeure : la prise en charge de ReFS sur un volume système utilisé pour le démarrage n’était pas officiellement assurée.

Sur ce point, la donne s’apprête à changer : Microsoft a en effet annoncé jeudi la prise en charge du démarrage sur ReFS au sein de Windows Server. Pour l’instant, la fonctionnalité n’est distribuée que par l’intermédiaire des préversions de test (Insider Preview), mais elle devrait logiquement être étendue à tous les canaux après une période de test.

« Les charges de travail [workloads, en anglais]modernes exigent davantage de la part du volume de démarrage que ce que NTFS peut fournir. ReFS a été conçu dès le départ pour protéger l’intégrité des données à grande échelle. En activant ReFS pour le volume de démarrage du système d’exploitation, nous garantissons que même les données système les plus critiques bénéficient d’une résilience avancée, d’une évolutivité à l’épreuve du temps et de performances améliorées », se réjouit l’éditeur.

L’option est proposée sur les builds de Windows Server ultérieures au 11 février.

Les avantages comparés de ReFS et NTFS pour un volume de démarrage selon Microsoft – capture d’écran

Pour aller plus loin sur le sujet, consultez notre dossier dédié :

OpenAI Raises $110 Billion in the Largest Private Funding Round Ever

Par : msmash
27 février 2026 à 14:00
OpenAI has closed what is now the largest private financing in history -- a $110 billion round at a $730 billion pre-money valuation that more than doubles the $40 billion raise it completed just a year ago, itself a record for a private tech company at the time. Amazon invested $50 billion, SoftBank put in $30 billion, and Nvidia committed $30 billion, and additional investors are expected to join as the round progresses. The valuation is a sharp jump from the $500 billion OpenAI commanded in a secondary financing in October, and the round dwarfs recent raises by rivals Anthropic ($30 billion) and xAI ($20 billion). The company has been telling investors it is now targeting roughly $600 billion in total compute spend by 2030, a more measured figure than the $1.4 trillion in infrastructure commitments CEO Sam Altman had touted months earlier. OpenAI is projecting more than $280 billion in total revenue by 2030, split roughly equally between consumer and enterprise. ChatGPT now has over 900 million weekly active users and more than 50 million paying subscribers.

Read more of this story at Slashdot.

❌