New HDR10+ Advanced Standard Will Try To Fix the Soap Opera Effect
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Les pilotes GeForce Game Ready 581.80 viennent d'être livrés sur la toile. Ils apportent les optimisations prévues pour les jeux Anno 117: Pax Romana, Europa Universalis V et Call of Duty: Black Ops 7. Pour ce dernier titre, le DLSS 4, la Multi Frame Generation et Reflex sont incorporés pour le jour...
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Libéré de son exclusivité avec Microsoft, OpenAI n’a pas perdu de temps : l’éditeur de ChatGPT a annoncé mardi la conclusion d’un contrat d’envergure avec Amazon. Sa filiale dédiée au cloud, AWS, devrait ainsi mettre des ressources à disposition, à hauteur d’au moins 38 milliards de dollars sur sept ans. OpenAI s’assure ainsi une présence significative sur les infrastructures de deux des trois plus grands fournisseurs de cloud de la planète, et s’invite au passage sur les plate-bandes de son concurrent Anthropic.
La collaboration, qui débute immédiatement, prévoit déjà 38 milliards de dollars de dépenses sur sept ans, mais ce montant peut être amené à croître, affirment d’emblée les deux nouveaux partenaires. Amazon Web Services (AWS) et OpenAI ont en effet formalisé un accord stratégique de grande ampleur le 3 novembre, selon les termes duquel le premier mettra à la disposition du second ses infrastructures informatiques dans toutes les régions du monde.
À très court terme, l’accord prévoit qu’OpenAI déploie ses modèles sur les infrastructures actuelles d’AWS, pour l’entraînement ou pour la fourniture du service ChatGPT aux clients finaux. Mais il est aussi question qu’Amazon construise des capacités fléchées vers OpenAI, avec un premier jalon (non chiffré) fixé à fin 2026, puis un programme d’expansion à partir de 2027.
« L’infrastructure qu’AWS est en train de construire pour OpenAI présente une architecture sophistiquée optimisée pour une efficacité et des performances maximales en matière de traitement de l’IA », promet Amazon, selon qui l’entreprise de Sam Altman va ainsi accéder à des « centaines de milliers de GPU NVIDIA », avec la possibilité d’associer ces derniers à des « dizaines de millions de CPU » pour sous-tendre le développement de ses produits commerciaux.
Si les deux partenaires communiquent sur l’enveloppe financière globale du contrat, aucun détail chiffré n’est donné, ni sous forme de nombre de machines, ni même sous forme de puissance électrique associée, quant à la capacité réelle des infrastructures prévues. AWS évoque simplement le recours à deux générations de puces NVIDIA (les GB200 et GB300 de classe Blackwell), et vante les mérites de l’interconnexion directe entre ces GPU et ses serveurs EC2.
En dépit de ce flou relatif, les 38 milliards de dollars annoncés ont fait gagner quelques points à l’action Amazon en bourse, alors que cette dernière caracolait déjà à des plus hauts historiques suite à la publication de ses derniers résultats financiers, le 30 octobre dernier. Avec 33 milliards de dollars de chiffre d’affaires sur le trimestre, en hausse de 20 % sur un an, la division cloud AWS était déjà sans aucun doute la principale raison de cette envolée boursière.
Quelles que soient les incertitudes qui entourent la vague de l’IA, AWS peut se targuer de compter un nouveau client prestigieux. OpenAI assure de son côté une forme de diversification nouvelle dans les ressources informatiques mises à sa disposition. Une approche plus œcuménique, rendue possible par l’évolution récente du contrat stratégique qui unit l’entreprise de Sam Altman à son partenaire historique et jusqu’ici exclusif en matière de cloud, Microsoft.
Fin octobre, les deux entreprises ont en effet renégocié les termes de leur contrat pour préparer la transformation d’OpenAI en une entreprise à but lucratif (même si toujours placée sous le contrôle d’une structure à but non lucratif). Selon les nouvelles conditions, OpenAI s’engage à consommer 250 milliards de dollars de cloud chez Microsoft Azure, mais se voit dans le même temps libéré de son exclusivité.
L’éditeur de ChatGPT, qui consomme le cash à vitesse grand V et étudie, d’après la rumeur, la possibilité d’une entrée en bourse à horizon 2026 - 2027, peut donc aller démarcher de nouveaux partenaires pour sécuriser les ressources informatiques nécessaires à la croissance stratosphérique envisagée par Sam Altman. Une valse des contrats, ou plutôt des promesses d’achat, qui porterait déjà sur des montants de l’ordre de 1 000 milliards de dollars…
S’assurer une présence chez Amazon, leader du secteur du cloud public, peut, dans ce contexte particulièrement spéculatif, être vu comme un élément de réassurance, et pas uniquement face aux problèmes de concentration illustrés par les récentes pannes mondiales d’AWS et d’Azure. Ce faisant, OpenAI met en effet un pied chez l’un des principaux partenaires de son concurrent Anthropic, éditeur des modèles Claude. Et confirme ainsi son ambition de devenir le barycentre des infrastructures mondiales dédiées au calcul IA…
Libéré de son exclusivité avec Microsoft, OpenAI n’a pas perdu de temps : l’éditeur de ChatGPT a annoncé mardi la conclusion d’un contrat d’envergure avec Amazon. Sa filiale dédiée au cloud, AWS, devrait ainsi mettre des ressources à disposition, à hauteur d’au moins 38 milliards de dollars sur sept ans. OpenAI s’assure ainsi une présence significative sur les infrastructures de deux des trois plus grands fournisseurs de cloud de la planète, et s’invite au passage sur les plate-bandes de son concurrent Anthropic.
La collaboration, qui débute immédiatement, prévoit déjà 38 milliards de dollars de dépenses sur sept ans, mais ce montant peut être amené à croître, affirment d’emblée les deux nouveaux partenaires. Amazon Web Services (AWS) et OpenAI ont en effet formalisé un accord stratégique de grande ampleur le 3 novembre, selon les termes duquel le premier mettra à la disposition du second ses infrastructures informatiques dans toutes les régions du monde.
À très court terme, l’accord prévoit qu’OpenAI déploie ses modèles sur les infrastructures actuelles d’AWS, pour l’entraînement ou pour la fourniture du service ChatGPT aux clients finaux. Mais il est aussi question qu’Amazon construise des capacités fléchées vers OpenAI, avec un premier jalon (non chiffré) fixé à fin 2026, puis un programme d’expansion à partir de 2027.
« L’infrastructure qu’AWS est en train de construire pour OpenAI présente une architecture sophistiquée optimisée pour une efficacité et des performances maximales en matière de traitement de l’IA », promet Amazon, selon qui l’entreprise de Sam Altman va ainsi accéder à des « centaines de milliers de GPU NVIDIA », avec la possibilité d’associer ces derniers à des « dizaines de millions de CPU » pour sous-tendre le développement de ses produits commerciaux.
Si les deux partenaires communiquent sur l’enveloppe financière globale du contrat, aucun détail chiffré n’est donné, ni sous forme de nombre de machines, ni même sous forme de puissance électrique associée, quant à la capacité réelle des infrastructures prévues. AWS évoque simplement le recours à deux générations de puces NVIDIA (les GB200 et GB300 de classe Blackwell), et vante les mérites de l’interconnexion directe entre ces GPU et ses serveurs EC2.
En dépit de ce flou relatif, les 38 milliards de dollars annoncés ont fait gagner quelques points à l’action Amazon en bourse, alors que cette dernière caracolait déjà à des plus hauts historiques suite à la publication de ses derniers résultats financiers, le 30 octobre dernier. Avec 33 milliards de dollars de chiffre d’affaires sur le trimestre, en hausse de 20 % sur un an, la division cloud AWS était déjà sans aucun doute la principale raison de cette envolée boursière.
Quelles que soient les incertitudes qui entourent la vague de l’IA, AWS peut se targuer de compter un nouveau client prestigieux. OpenAI assure de son côté une forme de diversification nouvelle dans les ressources informatiques mises à sa disposition. Une approche plus œcuménique, rendue possible par l’évolution récente du contrat stratégique qui unit l’entreprise de Sam Altman à son partenaire historique et jusqu’ici exclusif en matière de cloud, Microsoft.
Fin octobre, les deux entreprises ont en effet renégocié les termes de leur contrat pour préparer la transformation d’OpenAI en une entreprise à but lucratif (même si toujours placée sous le contrôle d’une structure à but non lucratif). Selon les nouvelles conditions, OpenAI s’engage à consommer 250 milliards de dollars de cloud chez Microsoft Azure, mais se voit dans le même temps libéré de son exclusivité.
L’éditeur de ChatGPT, qui consomme le cash à vitesse grand V et étudie, d’après la rumeur, la possibilité d’une entrée en bourse à horizon 2026 - 2027, peut donc aller démarcher de nouveaux partenaires pour sécuriser les ressources informatiques nécessaires à la croissance stratosphérique envisagée par Sam Altman. Une valse des contrats, ou plutôt des promesses d’achat, qui porterait déjà sur des montants de l’ordre de 1 000 milliards de dollars…
S’assurer une présence chez Amazon, leader du secteur du cloud public, peut, dans ce contexte particulièrement spéculatif, être vu comme un élément de réassurance, et pas uniquement face aux problèmes de concentration illustrés par les récentes pannes mondiales d’AWS et d’Azure. Ce faisant, OpenAI met en effet un pied chez l’un des principaux partenaires de son concurrent Anthropic, éditeur des modèles Claude. Et confirme ainsi son ambition de devenir le barycentre des infrastructures mondiales dédiées au calcul IA…
Après le musée du gramophone, nous vous proposons un petit retour sur le matériel ADATA et XPG, avec de l'alim, du watercooling de l'aircooling, du boitier, de la mémoire, des SSD et des cartes mèmoire, rien de plus normal, quand on est chez le numéro 2 mondial de la mémoire. […]
Lire la suiteOn vous propose, presque en direct de Taipei, une vidéo sur un musée totalement insolite et qui se trouve chez ADATA, le fabricant de mémoire. Et ce musée, porte sur les gramophones, car le directeur de la marque Simon Chen est un fan inconditionnel de ces machines et des vinyles. […]
Lire la suiteRead more of this story at Slashdot.
![]()
Le Minisforum MS-R1 reprend le format et le boitier des MS-A1 de la marque tout en basculant les puces AMD Ryzen vers des SoC ARM signées par CIX Technologies. L’engin fait partie de cette nouvelle galaxie de machines que la Chine développe pour retrouver sa souveraineté technique.
![]()
Avec le MS-R1, on ne luttera pas d’un point de vue vitesse de traitement. La puce CP8180 de CXI Technologies n’est pas mauvaise, bien au contraire, elle ne sera simplement pas au niveau de ce que propose une station sous Intel ou AMD sous Windows dans tous les domaines. L’objectif de ce type de solution est clairement ailleurs. Pilotée par une distribution Linux Debian 12 OS légèrement customisée, compatible avec Debian 12 et 13 classiques, la minimachine vise des secteurs spécifiques.
![]()
Son CXI CP8180 est processeur 12 cœurs construit de manière assez particulière. Il propose deux cœurs Cortex-A720 à 2.6 GHz, deux cœurs Cortex-A720 à 2.4 GHz, quatre cœurs cortex-A-720 à 2.3 GHz et enfin quatre cœurs Cortex-A520 à 1.8 GHz. Le tout est secondé par un circuit graphique Immortalis-G720 MC10 et prend en charge de la mémoire vive LPDDR5-5500 de 16 à 64 Go. Un stockage SSD non détaillé est présent avec jusqu’à 512 Go de capacité en sortie d’usine.
Une ventilation impressionnante
Le tout entre dans un châssis très classique chez le constructeur qui mesure 19.6 cm de large pour 18.9 cm de profondeur et 4.8 cm d’épaisseur. Le boitier pèse 1.35 Kg et s’alimente en externe pas un bloc de 180 watts ou via un PowerDelivery de 100 watts.
![]()
On retrouve en interne un port PCIe 4.0 x16, un support de 40 broches GPIO, un port eDP, une connexion I2C pour la gestion d’écrans tactiles et de quoi brancher un TPM. In module sans fil offre du Wi-Fi 6E et du Bluetooth 5.3. La connectique avant liste un jack audio combo 3.5 mm, un USB 3.2 Type-A et deux USB 2.0 Type-A. Des sorties arrière en Ethernet 10 Gigabit, du HDMI 2.0 et deux ports USB 3.2 Gen 2 Type-C avec Power Delivery et DisplayPort sont également listées.
Pas d’informations de prix ni de distribution plus exactes. Mais au fur et à mesure que le temps passe, le gouvernement chinois presse de plus en plus les constructeurs du pays de proposer des alternatives aux processeurs AMD et Intel ainsi qu’un système externe à Microsoft Windows. La performance et l’efficacité de cette solution ne seront sans doute pas au niveau d’un Ryzen ou d’un Core très haut de gamme. Cependant, cela sera plus que suffisant pour alimenter les dizaines de millions de postes administratifs dont le pays a besoin. L’absence de ces commandes massives que le gouvernement Chinois passe chaque année pour alimenter les services d’état étant un autre coup dur pour les marques internationales et surtout américaines.
Source : pc.watch
Minisforum MS-R1 : un MiniPC SoC ARM CIX pour la Chine © MiniMachines.net. 2025