Vue normale
Lenovo Tab Plus Gen 2 : la tablette fera aussi Boombox
![]()
La Lenovo Tab Plus Gen 2 est une tablette Android de 12.1″ qui fait immédiatement penser aux Yoga Tab dans leur approche. Un engin avec beaucoup de bonnes idées et une approche multimédia.
Lenovo Tab Plus Gen 2
La Lenovo Tab Plus Gen 2 propose une dalle 2.5K en face et… un énorme haut-parleur signé JBL dans son dos. Autour de ce haut-parleur, un anneau qui va servir autant à suspendre la tablette que de béquille pour la poser sur une table. On pourra donc savourer un film en laissant le bel écran devant soi. Écouter de la musique ou suspendre l’objet au dos d’un siège en voiture pour que les passagers puissent arrêter de demander quand on arrive.
![]()
Autour de ce Woofer à l’arrière, on retrouve pas moins de quatre plus petits haut-parleurs sur les côtés, un port USB type-C et probablement un lecteur de cartes MicroSDXC. Une webcam est visible au dos comme en façade.
![]()
Pour le moment la tablette n’a pas encore d’existence officielle, comme chaque année, c’est une fuite en provenance des « » »fameux » » » IF Design Awards qui nous vend la mèche. Repérée par Liliûtong, on découvre donc des clichés de cette solution mais peu d’informations techniques sur ses entrailles.
La Lenovo Tab Plus Gen 2 dans la droite ligne des Yoga Tab
J’ignore si vous vous souvenez des Yoga Tab mais elles ont été la raison pour laquelle j’ai totalement arrêté d’acheter des tablettes Android. J’ai adoré ces tablettes. Elles proposaient les mêmes usages que cette nouvelle version. Une béquille au dos avec un trou pour suspendre l’écran. Un système de haut-parleurs en façade très performant et une approche simple mais efficace. J’ai trouvé le concept absolument génial. La barre plus épaisse permettant en plus une excellente prise en main.
Le problème, c’est que ces modèles, sortis il y a 12 ans maintenant, n’ont pas eu droit à une durée de vie logicielle respectable. Elles n’ont eu droit qu’à quelques mises à jour techniques d’Android avant de devenir obsolètes. Cet « abandon » du constructeur n’est pas une légende, la marque a elle-même reconnu avoir fait peu d’efforts de ce côté. En 2022 pour la sortie de la Lenovo Tab M10 Plus, le constructeur a promis de mieux assurer les mises à jour de ses produits Android dans le futur.
J’adorerais me laisser convaincre pour cette nouvelle Lenovo Tab Plus Gen 2 mais je n’ai pas envie de me retrouver avec un produit logiciellement hors service dans 24 mois. Chat échaudé…
Lenovo Tab Plus Gen 2 : la tablette fera aussi Boombox © MiniMachines.net. 2026
-
Slashdot
- Smartphone Market To Decline 13% in 2026, Marking the Largest Drop Ever Due To the Memory Shortage Crisis
Smartphone Market To Decline 13% in 2026, Marking the Largest Drop Ever Due To the Memory Shortage Crisis
Read more of this story at Slashdot.
Hyprland 0.54 Released As A "Massive" Update To This Wayland Compositor
Nasa Announces Artemis III Mission No Longer Aims To Send Humans To Moon
Read more of this story at Slashdot.
A Chinese Official's Use of ChatGPT Accidentally Revealed a Global Intimidation Operation
Read more of this story at Slashdot.
Metacritic Will Kick Out Media Attempting To Submit AI Generated Reviews
Read more of this story at Slashdot.
Bon Flan : Graveuse laser MecPow X3 Pro + Air Assist à 169€
![]()
Stockée en France et livrée gratuitement, la graveuse MecPow X3 Pro est une solution ouverte très classique qui propose un graveur laser 10W précis et facile à mettre en œuvre. La zone de gravure est confortable avec 41 cm sur 40 et la solution est peu encombrante.
![]()
Un kit « Air Assist » est livré avec la MecPow X3 Pro. Celui permet de souffler de l’air au niveau où est dirigé le laser. Évitant ainsi la fumée d’obstruer le passage de la lumière et dégageant la zone pour une gravure puissante et fine. Le réglage de la hauteur du laser est rapide grâce à une jauge et une focale fixe. Enfin, un cache de protection vient protéger les yeux de la lumière du laser. Des lunettes de protection sont également incluses dans le colis.
La graveuse MecPow X3 Pro est proposée à 199€ chez Geekbuying mais le code NNNFRMX3PRO réduit la facture de 30€ une fois ajouté dans le panier. Ce qui nous fait un engin livré rapidement, complet et facile d’emploi à 169€.
Voir l’offre sur Geekbuying
Bon Flan : Graveuse laser MecPow X3 Pro + Air Assist à 169€ © MiniMachines.net. 2026
Sam Altman Says OpenAI Shares Anthropic's Red Lines in Pentagon Fight
Read more of this story at Slashdot.
UFS 5.0 : une vitesse max théorique de 10.8 Gb/s pour le stockage
![]()
Le JEDEC, organisme en charge de la publication de la norme, annonce les spécifications de l’UFS 5.0. Et le point phare de cette norme est la vitesse promise par le format. En effet, les débits en écriture et en lecture séquentielles atteindraient les 10.8 Gb/s.
![]()
C’est presque deux fois le débit du PCIe 4.0 NVMe employé encore aujourd’hui sur la majorité des PC. L’UFS 5.0 ferait bien mieux que les 5.8 Gb/s de ce format de référence ou que les 4.2 Gb/s de l’UFS 4.0. Une bonne nouvelle sur le papier mais encore très théorique pour trois bonnes raisons.
D’abord, il y a du temps entre l’annonce d’une norme comme cet UFS 5.0 et la sortie d’un éventuel produit commercial. Encore plus de temps si on veut que le produit soit financièrement accessible. Cela nous mène à la seconde raison, qui est que la période est pour le moins compliquée. Les solutions de stockage innovantes et rapides n’ont aucune raison d’être disponibles pour le grand public ni même proposées à un prix abordable. Il faudra donc du temps pour que ce genre de puce soit intégrée et encore plus pour qu’elles descendent des produits les plus haut de gamme vers un milieu de gamme accessible. On se doute que les premiers clients de ce format seront les fabricants de smartphones.
![]()
Troisième point, est-ce vraiment souhaitable de voir proliférer les stockages de ce type dans des ordinateurs personnels ? Certes un portable en UFS 5.0 sera plus rapide, mais il sera également irréparable en cas de pépin technique sur le stockage. Entre les processeurs, la mémoire et le stockage soudés, l’obsolescence d’un engin ne serait plus liée qu’à la première faille technique d’une des puces.
Les fournisseurs classiques de puces UFS sont sur les rangs. Samsung, SK Hynix, Sandisk, KIOXIA et Mediatek sont d’ores et déjà impliqués. Ce qui veut dire qu’ils ont probablement choisi d’acquérir une licence d’exploitation du format. Kioxia indique avoir déjà expédié des prototypes de puces de 512 Go et 1 To de tout petit format. On parle de modules mesurant 7.5 par 13 mm seulement. De quoi glisser facilement 2,3 ou même 4 To très rapides dans un smartphone ou une tablette. Ces puces sont très en avance sur la production de masse et ne serviront qu’à établir des circuits fonctionnels chez les intégrateurs.
UFS 5.0 : une vitesse max théorique de 10.8 Gb/s pour le stockage © MiniMachines.net. 2026
#Nextpresso Adaptateur M.2 vers PCIe à 10 euros pour installer un SSD sur sa carte mère
On ne branche pas directement le SSD dans le port PCIe !
Installer un SSD M.2 NVMe dans le port PCIe d’une carte mère peut se faire simplement à l’aide d’un adaptateur vendu quelques euros. Nous avons testé un modèle de Sabrent avec un radiateur pour refroidir les puces de NAND qui pourraient chauffer lors de gros transferts.
Nous avons commandé il y a quelque temps un adaptateur M.2 pour les SSD NVMe afin de les installer dans un emplacement PCIe de carte mère. C’est l’occasion d’expliquer comment cela fonctionne. C’est simple : un PCB, quelques pistes et quasiment aucun composant.
M.2 NVMe et PCIe : blanc bonnet et bonnet blanc
La raison est simple : les SSD au format M.2 utilisant le protocole NVMe sont déjà avec un câblage en PCIe, il n’y a donc aucune conversion de signal à faire pour les brancher sur un connecteur PCIe, il faut simplement emmener les broches du SSD au bon endroit sur le port PCI Express. Ce n’était pas le cas de l’adaptateur M.2 vers USB dans lequel, pour rappel, un contrôleur Realtek se chargeait de la conversion du signal.
Le PCB de notre adaptateur de marque Sabrent était vendu 10 euros sur Amazon il y a quelques mois quand nous l’avons acheté, mais il est désormais à 18 euros, ce qui est largement au-dessus de la moyenne pour ce genre de produit. Il en existe d’autres marques (ou sans marque) à 10 euros sur la marketplace d’Amazon.


Un PCB quasiment vide, et c’est normal
Le même bout de PCB (en no-name, sans la marque Sabrent, mais le reste du PCB est identique) est vendu quelques euros sur les plateformes chinoises, mais sans radiateur.
L’intérêt de ce modèle est qu’il est livré avec un pad thermique à poser sur les puces de mémoire NAND du SSD et un radiateur métallique qui englobe entièrement le SSD.
L’installation nécessite un peu de dextérité avec une vis pour faire tenir le SSD dans son emplacement M.2 (des trous sont disponibles pour les SSD au format 2230, 2242, 2260 et 2280, c’est-à-dire en 30, 42, 60 et 80 mm de long) et quatre autres pour fermer le boîtier. Dans le bundle, nous avions également un petit tournevis adapté aux vis, pratique.



À y regarder de plus près, on remarque quelques composants, à vrai dire. Deux condensateurs pour l’alimentation électrique, quatre LED et autant de résistances pour ces dernières. Aucun des composants ne sert au transfert des données.
Sur les photos ci-dessous, vous pouvez voir que seuls les deux premiers morceaux de PCB du port PCIe sont connectés, ce sont ceux qui correspondent à du x4. Les autres ne sont pas branchés, ce qui explique qu’on peut mettre la carte dans un emplacement x4, x8 ou x16.
Il suffit donc d’installer l’adaptateur dans un port PCIe de votre ordinateur. Il doit être en x4 minimum (il n’est pas compatible avec les ports x1), mais il peut aussi être en x4, x8 ou x16. Dans tous les cas, le câblage interne est en x4 maximum.
Sur la seconde rangée d’images, vous pouvez voir l’installation dans un emplacement x16, puis dans un emplacement x4 et enfin en face d’un emplacement x1 qui n’est pas compatible.






Cinq vis plus tard, 3 Go/s comme prévu avec notre SSD
Nous avons installé un SSD Kingston NV2S de 500 Go, qui est au format M.2 avec une interface NVMe en PCIe x4 Gen 4. Attention, cet adaptateur n’est compatible qu’avec les SSD M.2 avec une interface en PCIe, pas ceux en S-ATA !
Notre SSD était déjà partitionné et considérablement rempli, mais les performances sont équivalentes à celles obtenues s’il était directement branché sur la carte mère. Nous avons ainsi un peu plus de 3 Go/s en lecture et près de 2,4 Go/s en écriture.
Rien de surprenant puisque, une fois encore, cet adaptateur ne fait que mettre les broches du SSD M.2 au bon endroit sur le port PCIe, rien de plus ni rien de moins.

Des adaptateurs pour 2 ou 4 SSD existent, attention à la bifurcation !
Si vous avez des SSD à brancher sur votre ordinateur et plus (ou pas) d’emplacement M.2 disponible, alors ce genre d’adaptateur est fait pour vous, à condition d’avoir au moins un port PCIe x4 de libre. Nous n’avons testé qu’un seul modèle, mais il existe des dizaines de déclinaisons, avec un ou plusieurs emplacements M.2.
Sur les adaptateurs avec quatre emplacements, vous verrez parfois une mention du type : nécessite la fonction de bifurcation. Cette technique permet de diviser un port x16 en deux ports x8 ou en quatre ports x4. C’est nécessaire pour utiliser quatre SSD M.2 sur une même carte. Nous en avions déjà parlé il y a plusieurs années.
Même encore aujourd’hui, mieux vaut vérifier ce qu’il en est sur le manuel de votre carte mère. Première chose, bien différencier le format du connecteur PCIe et son câblage. Un emplacement x16 peut ne proposer que du x4 ou x8, cela peut même varier en fonction du CPU (qui peut proposer plus ou moins de lignes PCIe).
Un exemple ? La X670-P-CSM avec un port PCIe x16 en x16 et deux autres ports PCIe x16 en… x4. Ne comptez donc pas y installer plus d’un SSD M.2. Asus propose aussi une page dédiée à la bifurcation et aux différentes possibilités… vous allez voir que c’est plus complexe qu’il n’y parait.

Netflix Ditches deal for Warner Bros. Discovery After Paramount's Offer is Deemed Superior
Read more of this story at Slashdot.
SilverStone RM4A: 4U Rackmount Server/Workstation Chassis That's Great For Liquid Cooling
☕️ Fuite de données personnelles à l’école d’ingénieurs ESPCI
Dans un email envoyé à l’ensemble de l’école et plus largement à « l’ensemble des usagers disposant d’un compte informatique ESPCI », le responsable du service informatique de l’École supérieure de physique et de chimie industrielles de la ville de Paris (ESPCI Paris) les a informés d’une fuite de données personnelles.

Le courrier explique que, « lors de la journée du jeudi 26 février 2026, un défaut de contrôle d’accès a permis à des acteurs non identifiés de moissonner l’annuaire de l’école ».
Les données concernées sont les suivantes :
- Civilité, nom et prénom d’usage.
- Courriel pro, et éventuellement personnel s’il a été renseigné.
- Données d’identification: nom d’utilisateur, mais pas le mot de passe.
- Fonction et affectation.
- Photo, sauf si il avait été indiqué qu’elle ne devait servir qu’au badge.
- Permissions d’accès aux services et aux locaux.
- Abonnements aux listes de diffusion.
- Pour les étudiants: inscriptions pédagogiques.
- Pour le personnel: employeur, domaine d’activité (BAP, section CNRS et CNU).
- Pour le personnel salarié de la régie: corps, date de fin de contrat.
- Pour les prestataires, partenaires et extérieurs: employeur, catégorie socioprofessionnelle.
Le responsable du service informatique assure avoir notifié la CNIL, conformément à l’article 33 du RGPD et se dit « navré de cet incident ». Il ajoute que son équipe prévoit « des mesures de renforcement de la sécurité, afin que ce scénario ne puisse pas se reproduire ».
Next a contacté ESPCI pour en savoir plus et mettra à jour cet article le cas échéant.
☕️ Fuite de données personnelles à l’école d’ingénieurs ESPCI
Dans un email envoyé à l’ensemble de l’école et plus largement à « l’ensemble des usagers disposant d’un compte informatique ESPCI », le responsable du service informatique de l’École supérieure de physique et de chimie industrielles de la ville de Paris (ESPCI Paris) les a informés d’une fuite de données personnelles.

Le courrier explique que, « lors de la journée du jeudi 26 février 2026, un défaut de contrôle d’accès a permis à des acteurs non identifiés de moissonner l’annuaire de l’école ».
Les données concernées sont les suivantes :
- Civilité, nom et prénom d’usage.
- Courriel pro, et éventuellement personnel s’il a été renseigné.
- Données d’identification: nom d’utilisateur, mais pas le mot de passe.
- Fonction et affectation.
- Photo, sauf si il avait été indiqué qu’elle ne devait servir qu’au badge.
- Permissions d’accès aux services et aux locaux.
- Abonnements aux listes de diffusion.
- Pour les étudiants: inscriptions pédagogiques.
- Pour le personnel: employeur, domaine d’activité (BAP, section CNRS et CNU).
- Pour le personnel salarié de la régie: corps, date de fin de contrat.
- Pour les prestataires, partenaires et extérieurs: employeur, catégorie socioprofessionnelle.
Le responsable du service informatique assure avoir notifié la CNIL, conformément à l’article 33 du RGPD et se dit « navré de cet incident ». Il ajoute que son équipe prévoit « des mesures de renforcement de la sécurité, afin que ce scénario ne puisse pas se reproduire ».
Next a contacté ESPCI pour en savoir plus et mettra à jour cet article le cas échéant.
Microsoft: Computer Programming Is Dying, Long Live AI Literacy
Read more of this story at Slashdot.
-
Hardware & Co - Actualités
- La GeForce3 fête ses 25 ans. Et si nous nous replongions dans le test HFR de l'époque ?
La GeForce3 fête ses 25 ans. Et si nous nous replongions dans le test HFR de l'époque ?
Le 27 février 2001, NVIDIA lançait officiellement la GeForce3. La première représentante de la 3e génération de cartes GeForce apportait de nombreuses nouveautés dont une qui a radicalement changé la donne : le nFinite FX Engine. Derrière ce nom obscur, on retrouvait en fait la toute première intégr...
SHIELD Experience Upgrade 9.2.4 : une nouvelle mise à jour
![]()
Le SHIELD Experience Upgrade 9.2.4 est disponible, il pèse un bon gigaoctet et amène plusieurs corrections à la TV Box de la marque.
![]()
Le point clé est la mise à niveau du patch de sécurité d’Android correspondant à janvier 2026. Pour un produit dont la première version date de 2015, cela fait un support un poil plus long qu’un smartphone ou une tablette classique.
Plusieurs bugs sont également corrigés :
- Résolution du problème de lecture de Disney+.
- Résolution du problème de connexion à distance tierce avec Xbox après le mode veille.
- Résolution d’un problème de crash entraînant l’activation des appareils SHIELD et CEC pendant le mode veille.
- Résolution de la déconnexion fréquente des télécommandes Bluetooth tierces.
- Résolution de la fermeture de la page de paramètres lors du déclenchement de NVIDIA Share en haut de la page de paramètres.
Si vous comptez regarder quelque chose avec votre Shield ce soir lancez la mise à jour avant, car si le téléchargement est rapide, l’application du patch a pris quelques longues minutes.
Comme d’habitude, le patch doit vous être signalé par la TV Box si elle est connectée. Si ce n’est pas le cas, allez dans les paramètres pour forcer la recherche de mises à jour.
SHIELD Experience Upgrade 9.2.4 : une nouvelle mise à jour © MiniMachines.net. 2026
OpenAI lève 110 milliards de dollars auprès d’Amazon, Softbank et NVIDIA
Enlarge your model
La bourse attendra : OpenAI a dévoilé vendredi les modalités d’un nouveau tour de table record, avec 110 milliards de dollars réunis, sur la base d’une valorisation à 730 milliards de dollars. L’entreprise dirigée par Sam Altman en profite pour annoncer un partenariat renforcé avec Amazon, et assure que son accord avec Microsoft n’est pas remis en cause.
Moins d’un an après sa dernière levée de fonds (40 milliards de dollars en 2025), OpenAI remet le couvert avec un tour de table aux proportions pharaoniques. L’entreprise a en effet annoncé, vendredi 27 février, avoir réuni 110 milliards de dollars auprès de trois investisseurs : Amazon, premier contributeur avec 50 milliards de dollars, puis NVIDIA et Softbank, tous deux engagés à hauteur de 30 milliards de dollars.
« D’autres investisseurs financiers devraient nous rejoindre au fur et à mesure que le tour de table progresse », précise l’entreprise, qui ne compte donc pas en rester là. Il faut toutefois noter que ces montants sont des engagements d’investissement qui doivent donc encore se vérifier : Amazon par exemple promet 50 milliards de dollars mais en deux temps : d’abord 15 milliards, puis 35 milliards « dans les prochains mois, lorsque certaines conditions seront remplies ».
OpenAI valorisée 730 milliards de dollars
« La demande en IA augmente parmi les consommateurs, les développeurs et les entreprises. Répondre à cette demande et fournir l’accès à nos produits à tous exige trois choses : du calcul, de la distribution et du capital », résume OpenAI selon qui ces fonds vont permettre à ses infrastructures, comme à ses modèles, de passer à l’échelle.
L’entreprise en profite pour actualiser ses chiffres : elle ne communique aucun chiffre d’affaires, mais affirme que ChatGPT compte 900 millions d’utilisateurs actifs par semaine, dont 50 millions d’abonnés payants particuliers. Plus de 9 millions d’utilisateurs seraient abonnés à l’une des offres entreprise, et la base d’utilisateurs de Codex, son outil dédié aux développeur, aurait été multipliée par trois depuis le début de l’année, pour atteindre 1,6 million d’utilisateurs hebdomadaires.
OpenAI précise que cette levée de fonds se fait sur la base d’une valorisation fixée à 730 milliards de dollars, avant réalisation du tour. La capitalisation de l’entreprise a donc plus que doublé en moins d’un an, puisqu’elle était fixée à 300 milliards lors de la précédente levée de fonds. L’entreprise indique que la participation de la fondation OpenAI au sein de l’entreprise commerciale est désormais valorisée 180 milliards de dollars.
Un partenariat dantesque (et circulaire) avec Amazon
Si Amazon (par ailleurs investisseur historique d’Anthropic) prend la tête de ce tour de table, c’est parce que les deux groupes ont convenu d’un partenariat renforcé entre OpenAI et Amazon Web Services (AWS).
Selon les termes de ce dernier, les deux groupes vont concevoir ensemble et lancer dans les prochains mois un environnement d’exécution stateful (capable de conserver l’état et le contexte), sous-tendu par les modèles d’OpenAI et distribué au travers d’Amazon Bedrock à destination des entreprises et développeurs qui cherchent à développer leurs propres agents ou applications IA.
AWS devient par ailleurs le distributeur tiers exclusif d’OpenAI Frontier, la plateforme tout juste annoncée via laquelle l’éditeur de ChatGPT propose à ses grands clients de déployer leurs applications.

Dans le même temps, OpenAI s’engage à consommer (et donc à payer) l’équivalent de 2 GW de puissance de calcul sur le réseau de puces Trainium déployé dans les infrastructures d’AWS, précisément pour sous-tendre le fonctionnement de Frontier et des autres outils de déploiement évoqués.
Les deux partenaires indiquent que cet engagement prolonge l’accord à 38 milliards de dollars annoncé en novembre dernier et le porte à un total de 100 milliards de dollars sur huit ans.
Enfin, ils collaboreront à des modèles personnalisés, destinés aux applications commerciales d’Amazon vers le consommateur grand public.
5 GW chez NVIDIA
De la même façon, la participation de NVIDIA, finalement fixée à 30 milliards de dollars, bien loin des 100 milliards un temps évoqués, est assortie d’un engagement significatif de la part d’OpenAI, qui prévoit de consommer l’équivalent de 2 GW en entraînement sur des systèmes équipés de puces Vera Rubin, et 3 GW en capacités dédiées spécifiquement à l’inférence.
« Ce projet s’appuie sur les systèmes Hopper et Blackwell déjà opérationnels chez Microsoft, OCI et CoreWeave. Ensemble, cet investissement et ce développement de l’infrastructure renforcent notre capacité à entraîner et à déployer des modèles de pointe à l’échelle mondiale », précise à ce sujet OpenAI.
OpenAI et Microsoft toujours main dans la main
À ces deux annonces (levée de fonds et partenariat étendu avec Amazon), OpenAI ajoute une troisième communication, ciblée cette fois sur un autre partenaire et investisseur absent du tour de table : Microsoft.
Alors que les projets récemment renforcés de l’éditeur de Redmond en matière d’IA laissaient craindre à certains observateurs une forme de désengagement, OpenAI et Microsoft renouvellent leurs vœux dans une déclaration conjointe.
« Alors (…) qu’OpenAI annonce de nouveaux financements et de nouveaux partenaires, nous tenons à préciser que ces annonces s’inscrivent dans le cadre de notre partenariat actuel. Les annonces d’aujourd’hui ne modifient en rien les termes de la relation entre Microsoft et OpenAI, tels que présentés » en octobre 2025, affirment les deux entreprises.
Si AWS devient le partenaire de choix pour les environnements stateful, Azure reste par ailleurs le fournisseur exclusif des API stateless d’OpenAI, et la distribution directe des services d’OpenAI tels que Frontier se fera elle aussi toujours à partir de l’infrastructure Azure.
OpenAI lève 110 milliards de dollars auprès d’Amazon, Softbank et NVIDIA
Enlarge your model
La bourse attendra : OpenAI a dévoilé vendredi les modalités d’un nouveau tour de table record, avec 110 milliards de dollars réunis, sur la base d’une valorisation à 730 milliards de dollars. L’entreprise dirigée par Sam Altman en profite pour annoncer un partenariat renforcé avec Amazon, et assure que son accord avec Microsoft n’est pas remis en cause.
Moins d’un an après sa dernière levée de fonds (40 milliards de dollars en 2025), OpenAI remet le couvert avec un tour de table aux proportions pharaoniques. L’entreprise a en effet annoncé, vendredi 27 février, avoir réuni 110 milliards de dollars auprès de trois investisseurs : Amazon, premier contributeur avec 50 milliards de dollars, puis NVIDIA et Softbank, tous deux engagés à hauteur de 30 milliards de dollars.
« D’autres investisseurs financiers devraient nous rejoindre au fur et à mesure que le tour de table progresse », précise l’entreprise, qui ne compte donc pas en rester là. Il faut toutefois noter que ces montants sont des engagements d’investissement qui doivent donc encore se vérifier : Amazon par exemple promet 50 milliards de dollars mais en deux temps : d’abord 15 milliards, puis 35 milliards « dans les prochains mois, lorsque certaines conditions seront remplies ».
OpenAI valorisée 730 milliards de dollars
« La demande en IA augmente parmi les consommateurs, les développeurs et les entreprises. Répondre à cette demande et fournir l’accès à nos produits à tous exige trois choses : du calcul, de la distribution et du capital », résume OpenAI selon qui ces fonds vont permettre à ses infrastructures, comme à ses modèles, de passer à l’échelle.
L’entreprise en profite pour actualiser ses chiffres : elle ne communique aucun chiffre d’affaires, mais affirme que ChatGPT compte 900 millions d’utilisateurs actifs par semaine, dont 50 millions d’abonnés payants particuliers. Plus de 9 millions d’utilisateurs seraient abonnés à l’une des offres entreprise, et la base d’utilisateurs de Codex, son outil dédié aux développeur, aurait été multipliée par trois depuis le début de l’année, pour atteindre 1,6 million d’utilisateurs hebdomadaires.
OpenAI précise que cette levée de fonds se fait sur la base d’une valorisation fixée à 730 milliards de dollars, avant réalisation du tour. La capitalisation de l’entreprise a donc plus que doublé en moins d’un an, puisqu’elle était fixée à 300 milliards lors de la précédente levée de fonds. L’entreprise indique que la participation de la fondation OpenAI au sein de l’entreprise commerciale est désormais valorisée 180 milliards de dollars.
Un partenariat dantesque (et circulaire) avec Amazon
Si Amazon (par ailleurs investisseur historique d’Anthropic) prend la tête de ce tour de table, c’est parce que les deux groupes ont convenu d’un partenariat renforcé entre OpenAI et Amazon Web Services (AWS).
Selon les termes de ce dernier, les deux groupes vont concevoir ensemble et lancer dans les prochains mois un environnement d’exécution stateful (capable de conserver l’état et le contexte), sous-tendu par les modèles d’OpenAI et distribué au travers d’Amazon Bedrock à destination des entreprises et développeurs qui cherchent à développer leurs propres agents ou applications IA.
AWS devient par ailleurs le distributeur tiers exclusif d’OpenAI Frontier, la plateforme tout juste annoncée via laquelle l’éditeur de ChatGPT propose à ses grands clients de déployer leurs applications.

Dans le même temps, OpenAI s’engage à consommer (et donc à payer) l’équivalent de 2 GW de puissance de calcul sur le réseau de puces Trainium déployé dans les infrastructures d’AWS, précisément pour sous-tendre le fonctionnement de Frontier et des autres outils de déploiement évoqués.
Les deux partenaires indiquent que cet engagement prolonge l’accord à 38 milliards de dollars annoncé en novembre dernier et le porte à un total de 100 milliards de dollars sur huit ans.
Enfin, ils collaboreront à des modèles personnalisés, destinés aux applications commerciales d’Amazon vers le consommateur grand public.
5 GW chez NVIDIA
De la même façon, la participation de NVIDIA, finalement fixée à 30 milliards de dollars, bien loin des 100 milliards un temps évoqués, est assortie d’un engagement significatif de la part d’OpenAI, qui prévoit de consommer l’équivalent de 2 GW en entraînement sur des systèmes équipés de puces Vera Rubin, et 3 GW en capacités dédiées spécifiquement à l’inférence.
« Ce projet s’appuie sur les systèmes Hopper et Blackwell déjà opérationnels chez Microsoft, OCI et CoreWeave. Ensemble, cet investissement et ce développement de l’infrastructure renforcent notre capacité à entraîner et à déployer des modèles de pointe à l’échelle mondiale », précise à ce sujet OpenAI.
OpenAI et Microsoft toujours main dans la main
À ces deux annonces (levée de fonds et partenariat étendu avec Amazon), OpenAI ajoute une troisième communication, ciblée cette fois sur un autre partenaire et investisseur absent du tour de table : Microsoft.
Alors que les projets récemment renforcés de l’éditeur de Redmond en matière d’IA laissaient craindre à certains observateurs une forme de désengagement, OpenAI et Microsoft renouvellent leurs vœux dans une déclaration conjointe.
« Alors (…) qu’OpenAI annonce de nouveaux financements et de nouveaux partenaires, nous tenons à préciser que ces annonces s’inscrivent dans le cadre de notre partenariat actuel. Les annonces d’aujourd’hui ne modifient en rien les termes de la relation entre Microsoft et OpenAI, tels que présentés » en octobre 2025, affirment les deux entreprises.
Si AWS devient le partenaire de choix pour les environnements stateful, Azure reste par ailleurs le fournisseur exclusif des API stateless d’OpenAI, et la distribution directe des services d’OpenAI tels que Frontier se fera elle aussi toujours à partir de l’infrastructure Azure.