Vue lecture

Pourquoi je ne parle pas des « portables Nvidia » ?

Petit état des lieux : des rumeurs quant à la sortie de portables Nvidia circulent depuis novembre 2025. Alimentées par le fait que Nvidia travaille avec Mediatek depuis mai 2023. Rumeur soutenue par le fait que la fin de l’exclusivité accordée à Qualcomm pour développer des puces compatibles Windows est désormais actée. En juin 2025, une nouvelle pièce dans la machine à rumeurs laissait entendre l’arrivée d’une puce ARM capable de proposer un niveau de performances digne d’une GeForce RTX 4070.

Cet ensemble, lié à d’autres rumeurs provenant de différentes sources, a mis progressivement le cerveau de beaucoup de monde en ébullition. La machine s’est largement emballée quand un anonyme a publié en ligne un listing de références de portables signés Lenovo sous processeur Nvidia N1 ou Nvidia N1X.

Des portables Nvidia signés Lenovo ?

Un listing qui serait lié à une fuite d’informations de la chaine d’approvisionnement Lenovo mais dont la véracité peut difficilement être prouvée. On parle d’une capture d’écran de texte blanc sur fond noir. Chose que n’importe qui peut fabriquer de ses mains en quelques minutes seulement. Cela serait cependant la preuve de la sortie imminente de toute une gamme de machines sous ces nouveaux SoC N1. 

Le Nvidia GB10 du DGX Spark

Le Nvidia GB10 du DGX Spark

Ce Nvidia N1X serait, d’après la rumeur toujours, une déclinaison des puces Nvidia GB10 des stations DGX Spark orientées vers l’IA. On parle de 20 cœurs ARM  et de 6144 cœurs CUDA « Blackwell ». Le Spark étant une puce de machine de bureau avec un TDP de 120W, la révision mobile N1X serait sensiblement moins gourmande et dissipatrice.

Des portables Nvidia signés Dell ?

Le truc amusant, c’est la manière dont tout cela est construit. Parce que Lenovo ne serait pas le seul constructeur à se pencher sur ce nouveau processeur et à proposer des portables Nvidia. Le 12 janvier, c’est une machine de Dell qui apparait avec la puce avec encore une fois une rumeur en provenance de Twitter et une capture d’écran qui ne prouve pas grand-chose. Mais ce qui est pris avec des pincettes en janvier devient une info sûre et vérifiée le 23 janvier… Lors de l’annonce des machines Lenovo. Toute précaution autour de la source, de la fiabilité de celle-ci et de la possibilité d’une erreur d’interprétation ou de simple envie de troller a disparu en… 11 jours. Et cela malgré des années et des années de pratique où on a fini par s’apercevoir qu’un bon pourcentage des annonces de ce type étaient totalement farfelues.

Générer une image IA d'une puce avec une IA lui donne t-elle plus de poids ?

Générer une image IA d’une puce avec une IA lui donne t-elle plus de poids ?

Des portables Nvidia sous N1X pour cette année !

Et le tout s’emballe assez rapidement. De nouvelle en nouvelle, de reprise en reprise, les hypothèses se transforment en affirmations. Certains proposent toujours un peu de conditionnel mais ils sont repris par d’autres qui ne s’embarrassent pas des pincettes de leur collègues. Ainsi une phrase comme « des ordinateurs portables Nvidia semblent se profiler pour la fin de 2026 » se transforme en « des ordinateurs portables Nvidia sont prévus pour la fin de 2026 » un clic plus loin. 

Les dates de sorties établies par d’anciennes rumeurs qui ont été dépassées – comme celle prévue au Computex 2025 qui n’a bizarrement pas eu lieu – deviennent des confirmations de la recherche d’un meilleur alignement calendaire avec les sorties des nouvelles mises à jour techniques de Windows. Avec la même foi renouvelée que celle des disciples déçus par l’absence pourtant prévue de la visite d’une civilisation extraterrestre par leur gourou. Gouou qui va rattraper le coup en expliquant que « personne n’est prêt ».

Et on embraye directement avec une nouvelle rumeur censée prouver la validité des plus anciennes. Le Nvidia N1 est tellement vrai, tellement prévu pour cette année que la marque AURAIT déjà planifié un SoC N2 pour la fin de l’année 2027. Source ? Rien. Au pif, au doigt mouillé. Certains sites allant même jusqu’à reprocher à Nvidia de n’être pas très clair sur son calendrier parce qu’il n’aurait pas réfuté ou étayé ces « informations » ?

Et pour couronner le tout, des IA génératives pondent des images comme celle ci-dessus, censées représenter des puces totalement sorties du chapeau.

Pourquoi je ne parle pas des portables Nvidia, c’est simple

Vous l’aurez compris, cela ne sert à rien de parler de ces rumeurs. A part générer du clic… Nvidia n’a jamais confirmé quoi que ce soit et ses représentants se refusent de le faire parce que c’est la politique maison. Les jalons établis par la marque, son partenariat signé avec Mediatek par exemple, ont bien été documentés. Mais le reste n’est pas assez solide pour établir la moindre théorie sérieuse. C’est juste l’équivalent d’une presse people adapté au matériel informatique. Le Voici du Hardware. Les papiers sont faciles à écrire puisqu’il est inutile de vérifier quoi que ce soit. Tout le monde peut dire que le Nvidia N3 serait prévu pour 2028 et qu’il apporterait un niveau de performances équivalent à une GeForce RTX 5070 Ti. Vous voyez, cela ne m’a demandé aucun effort. 

Le Nvidia N3 prévu chez Asus. Source, un éditeur de texte et un outil de capture.

Le Nvidia N3 prévu chez Asus. Source, un éditeur de texte et un outil de capture.

De deux choses l’une. Soit vous savez réellement des choses tangibles sur des portables Nvidia et le futur de ses puces. Et dans ce cas là vous êtes sous NDA. Vous ne pouvez absolument pas en parler. Vous risquez votre travail ou d’être grillé comme média.

Soit vous n’en savez rien. Rien de concret, rien d’autre que des bruits de couloir, des infos provenant de sources anonymes ou des cachoteries faites lors d’un rendez-vous avec quelqu’un du milieu sans preuves. Bref rien de suffisamment tangible pour parler avec assez d’assurance du futur. A-t-on vu un seul cliché d’une de ces fameuses puces N1 soi-disant prêtes depuis le Computex en mai 2025 ? Non, bizarrement aucune. Un portable Dell ou Lenovo équipé N1 ou N1X ? Pas plus. Tout ce que vous avez pu lire sur le sujet est bâti sans aucune preuve formelle. Ce sont juste des pixels sur des écrans, rien que du vent.

Jensen Huang

Jensen Huang

Est-ce que cela veut dire qu’il n’y aura pas de portable N1, N2 ou que sais-je signé Nvidia ?

Non, évidemment pas. Si je ne peux pas affirmer que ces puces et ces portables Nvidia existent, je ne peux pas non plus affirmer que ces puces et ces machines n’existent pas. Je veux juste expliquer pourquoi je n’en parle pas. Il ne me semble pas opportun d’entretenir une série de rumeurs basées sur des sources beaucoup trop maigres de ce type. Il est possible que demain des engins équipés de telles puces soient annoncés effectivement. Tout comme il est possible que l’annonce de Nvidia prévue pour la GTC 2026 le mois prochain les concerne. 

Le PDG de la marque, Jensen Huang, a en effet indiqué que Nvidia allait dévoiler une puce qui allait « surprendre le monde » à un journal économique Coréen. Mais ma position ne change pas. Ce n’est pas rendre service à mes lecteurs que d’écrire « L’annonce de Nvidia en mars pourrait correspondre à la sortie du Nvidia N1 » parce que, au final, je n’en sais absolument rien. 

Pourquoi je ne parle pas des « portables Nvidia » ? © MiniMachines.net. 2026

  •  

Le DLSS 4.5 plus apprécié que le rendu natif, ce que nous dit l’expérience de ComputerBase

Quel est le rendu que vous préférez ? L’image native ? Le DLSS 4.5 ? Ou le FSR ? Vous en avez peut-être entendu parler, l’expérience de ComputerBase fait grand bruit sur la toile. Le site a demandé à ses lecteurs de choisir entre différentes images tirées de différents jeux vidéo mais avec des technologies de rendus différents. Trois grandes solutions ont été mises en concurrence. Un rendu « natif », c’est-à-dire celui calculé par le circuit graphique de la machine. Un rendu piloté par un algorithme signé Nvidia avec le DLSS 4.5. Et enfin un rendu piloté par AMD avec le FSR.

DLSS 4.5 vs natif Vs FSR

DLSS 4.5 vs natif Vs FSR

La surprise vient du fait que le test, réalisé bien entendu « à l’aveugle » sans que les internautes ne sachent quelle technologie est employée pour chaque image, met en évidence une préférence marquée pour le rendu issu de la technologie DLSS 4.5. On pourrait penser que l’image préférée des internautes serait la plus « juste » possible. Entendez par là celle qui correspond le mieux à ce que les développeurs du jeu proposent. Il n’en est rien, sur toutes les images et quel que soit le jeu, la majorité préfère le rendu DLSS 4.5.

Les résultats sont sans appel : sur les 6 jeux mis au vote, la majorité des internautes préfèrent l’image générée par la technologie de Nvidia. Avec, pour certains titres, des résultats sans équivoque : sur Satisfactory par exemple, c’est presque 61% des suffrages qui désignent le DLSS 4.5. Contre 15.1 et 12.4% pour le rendu natif ou le FSR. 

Premier élément à noter, assez important d’ailleurs, il ne s’agit pas d’un podium. La question importe ici et ComputerBase le rappelle. On demande aux internautes quel est le meilleur rendu dans les différentes propositions. Et non pas de dresser une liste de préférences entre elles. Autrement dit, les votants ont juste choisi l’image qu’ils préféraient pour chaque jeu sans déterminer ensuite s’ils en préféraient une seconde. Si cela permet de mettre explicitement en avant le DLSS cela n’offre pas la possibilité de dire que le natif ou le FSR est second. Si la question d’un tri de préférences des images avait été demandé, on aurait pu établir un classement. Ce n’est donc pas le cas ici.

Jeu Pourcentage de vote
« rendu équivalent »
Date de sortie du jeu
Anno 117 10.7% 2025
ARC Raiders 11.5% 2025
Cyberpunk 2077 22.6% 2020
Horizeon Forbidden West 12.6% 2022
Satisfactory 11.6% 2019
The Last of US Part II 7.8% 2020

Second point qui me parait intéressant : un jeu qui a largement été mis en avant pour ses qualités graphiques, Cyberpunk 2077, est celui où les votes pour l’absence de différence entre les affichages est le plus élevé. Cela veut dire que pour ce titre aux graphismes très léchés, et dont une grande partie de l’intérêt vient de l’univers déployé par les designers, le moteur de jeu impose un rendu précis qui peine à être départagé.

Ce résultat est très net et c’est un des premiers jeux à avoir été embarqué par des IA pour mettre en valeur ces technologies de génération d’images. Sorti en 2020, il fait partie des tous premiers titres pilotés par le FSR d’AMD (lancé en 2021) et le DLSS de Nvidia (2020). Cela veut dire que ces technologies n’avaient pas encore déployé tout leur « savoir faire ». Pour autant, d’autres titres comme Satisfactory ou The Last of US part II sont sortis à la même époque et héritent de notes d’équivalences bien plus faibles. On peut donc se demander dans quelle mesure les développeurs, sachant que les jeux étaient de plus en plus sujets à interprétation de la part des matériels de jeu, ont décidé de relâcher leurs efforts de contrôle sur le rendu de leurs titres. 

Cyberpunk 2077 a largement soigné son esthétique et son rendu technique

Cyberpunk 2077 a largement soigné son esthétique et son rendu technique

Difficile de leur en vouloir d’ailleurs. Entre un joueur qui va lancer une partie sur un PC portable avec un écran bas de gamme et un circuit graphique de base, un autre qui profitera d’un écran géant OLED porté par une carte graphique très haut de gamme et un troisième, entre les deux, qui profitera des solutions IA que sont les DLSS 4.5 ou FSR 3.1 sur un écran IPS, les équipes de développement sont perdues. Bien malin celui qui saura comment le jeu sera affiché au final. Il faut une volonté de développement très spécifique pour appuyer un rendu précis afin que cela ait un impact. Et peut être que Cyberpunk 2077 est un des seuls à avoir eu cette exigence. C’est d’ailleurs peut-être pour cela que le jeu a été aussi exigeant lors de sa sortie : il refusait de tourner sur des configurations trop moyennes.

Le DLSS 4.5 en 2026 propose aux jeux ce que les ingénieurs du son ont proposé à la musique dès les années 2000.

Enfin, il n’y a pas de raisons que notre vue soit si différente de nos autres sens. Lorsque les casques, amplis, autoradios, lecteurs de Mp3 en tous genres se sont vus affublés de fonctions d’amplification des Basses, les ventes ont augmenté. Le public a préféré ce son largement amplifié de boom boom au fur et à mesure que la consommation de la musique a quitté les maisons pour envahir les rues. Les basses étant alors la plage de son que l’on entendait le mieux. Lorsque les albums ont été « remasterisés » en masse avec une normalisation à outrance, le public a adhéré et suivi ce travail sonore. A chaque fois, cela colorait largement la volonté originale du ou des auteurs. Et pourtant le marché a suivi.

Dans le domaine de l’image et de la vidéo, même constat. Des fonctions comme le HDR intégrées par défaut dans de nombreuses applications de photo. Ou les fameux algorithmes intégrés dans les téléviseurs qui réussissent à transformer un film tourné en cinémascope en une série télé filmée à la caméra numérique… Ces technologies ont les faveurs du public. Beaucoup de personnes trouvent les rendus originaux trop fades. Qu’ils « manquent de pêche ». 

Cette apparition d’une préférence pour le rendu « IA » du DLSS 4.5 n’est, à mon avis, pas à regarder autrement. Le public apprécie ces images. Ce n’est pas tant que le rendu soit meilleur en DLSS ou en FSR qu’en natif. C’est que les joueurs ont été habitués à regarder leurs jeux de la même manière que le reste, en poussant les niveaux de contraste et de saturation toujours plus haut.

Le DLSS 4.5 plus apprécié que le rendu natif, ce que nous dit l’expérience de ComputerBase © MiniMachines.net. 2026

  •  

NVIDIA Studio : le secret des monteurs de Mastu et Michou pour booster leur productivité [Sponso]

Cet article a été réalisé en collaboration avec NVIDIA

Les puces graphiques conçues par NVIDIA servent également à booster votre productivité. Les créatifs de tous bords – montage vidéo, motion design, modélisation 3D – peuvent tirer parti de leurs spécificités grâce à NVIDIA Studio.

Cet article a été réalisé en collaboration avec NVIDIA

Il s’agit d’un contenu créé par des rédacteurs indépendants au sein de l’entité Humanoid xp. L’équipe éditoriale de Numerama n’a pas participé à sa création. Nous nous engageons auprès de nos lecteurs pour que ces contenus soient intéressants, qualitatifs et correspondent à leurs intérêts.

En savoir plus

  •  

ComfyUI : comment générer facilement des images ou des vidéos avec une carte graphique Nvidia RTX [Sponso]

Cet article a été réalisé en collaboration avec Nvidia

Un PC solide, un GPU Nvidia de dernière génération, une solide connexion internet, ComfyUI et un peu de temps : voilà les ingrédients nécessaires à la mise en place d’un agent IA personnalisé pour générer des images ou des vidéos.

Cet article a été réalisé en collaboration avec Nvidia

Il s’agit d’un contenu créé par des rédacteurs indépendants au sein de l’entité Humanoid xp. L’équipe éditoriale de Numerama n’a pas participé à sa création. Nous nous engageons auprès de nos lecteurs pour que ces contenus soient intéressants, qualitatifs et correspondent à leurs intérêts.

En savoir plus

  •  

Nvidia ne ferme pas la porte à une nouvelle Shield TV

La Shield TV est un OVNI sur le marché des solutions Android en général et des TV-Box en particulier. Non pas qu’elle propose quelque chose de matériellement exceptionnel aujourd’hui, mais parce qu’elle fête ses 10 ans.

Shield TV

Lancée en 2015 avant d’être mise à jour en 2017 puis en 2019, la Shield TV et un dinosaure égaré dans le cheptel actuel de solutions Android. La grande majorité des fabricants de TV-Box tire un trait sur la mise à jour de leurs produits dès que la production de ceux-ci a cessé. Avec Nvidia sur ce modèle, nous avons découvert qu’avec un peu de bonne volonté, et de moyens, il était possible de continuer à proposer des mises à jour efficaces dans la durée. Et, avec un rythme assez décousu, la TV-Box de la marque a été portée jusqu’en 2026 en restant toujours parfaitement exploitable. Je ne compte pas les tablettes, smartphones, TV-Box et autres appareils sortis ces dix dernières années et qui ont fini à la déchetterie parce que non mis à jour.

Reste que 10 ans, c’est beaucoup. Et pour une puce comme le Tegra X1 ou la version X1+ de 2019, cela fait trop pour ne pas voir un peu du vernis de la Box s’écailler. Des codecs et fonctionnalités sont apparus que Nvidia ne pouvait pas réellement anticiper. On parle de formats comme le AV1 par exemple, mais également de la lecture de certains formats HDR qui ne sont pas pris en charge et ne peuvent pas l’être. Même en ayant toute la bonne volonté du monde, le SoC Tegra n’est tout  simplement pas câblé pour.

Dans un entretien avec Ars Technica, un responsable de l’ingénierie matérielle de Nvidia, annonce qu’il souhaiterait qu’une nouvelle Shield TV sorte un jour. Andrew Bell, c’est son nom, n’indique pas que cela va être le cas. Plutôt que ce serait bien que cela arrive. Un vœu pieu qui peut tout ou ne rien dire.

La seule chose dont je suis certain, c’est que le jour où Nvidia s’engagerait dans une voie de ce type, une clientèle très importante serait attentive à ce mouvement. Celle de tous les acheteurs de la TV-Box première du nom qui, depuis dix ans pour les plus anciens, sont satisfaits de leur Shield TV. Ce qui ferait une assez grosse base de clients et un coussin assez moelleux pour amortir un nouveau développement dans ce sens.

Évidemment, 2026 n’est pas la meilleure période pour lancer ce type de produit. Les consoles actuelles ont de 2 à 3 Go de mémoire vive et de 8 à 16 Go de stockage interne. Des composants qui sont en ce moment hors de prix. On imagine qu’une version plus moderne de la minimachine serait mieux équipée en mémoire et en stockage, ce qui aurait en ce moment un trop fort impact sur le tarif public.

Vers une nouvelle Shield TV ?

Il est difficile de savoir si Andrew Bell a évoqué une nouvelle version de cette TV Box parce que son interviewer l’y a poussé ou parce qu’une actualité se dessine autour d’un tel projet. Le fait qu’il aimerait développer une nouvelle TV Box a pour autant beaucoup de sens. D’abord, parce que la nouvelle venue pourrait partager une puce ARM commune avec le monde PC. On sait qu’un SoC est en préparation sans qu’on ait beaucoup d’informations officielles pour le moment. Si un Nvidia N1 débarque sur PC, on peut imaginer qu’une version « TV-Box » serait un bon moyen de lancer le produit.

Ensuite parce que GeForce Now gagne en traction et qu’un nouveau produit comme une Shield TV pourrait parfaitement coller avec ce service. En plus d’apporter son lot de prises en charges techniques en termes de lecture vidéo et en services. Le succès des Steam Deck est impressionnant et on imagine que Nvidia pourrait porter la même philosophie avec son service GeForce Now dans les salons en proposant un large accès au catalogue de Steam via une distribution Linux et Proton.

Impossible de répondre à la question d’une nouvelle Box aujourd’hui donc, surtout pendant cette période trouble. Il faut juste garder en tête que beaucoup d’éléments semblent pouvoir converger vers ce type de projet.

Source : Ars Technica

Nvidia ne ferme pas la porte à une nouvelle Shield TV © MiniMachines.net. 2025

  •  

GeForce Now Linux branche son tuyau de jeu vers le libre

C’est au tour de Nvidia de se pencher sur le berceau du monde libre avec son déploiement de GeForce Now Linux. Pour le moment, la solution retenue est un module Flatpak uniquement compatible avec les systèmes 64 bits. De nombreuses distributions pourront donc profiter de ce système GeForce Now Linux même si Nvidia met en avant Ubuntu. 

L’idée est ici probablement de communiquer vers le plus grand nombre puisque Ubuntu est massivement déployé et que de nombreuses autres distributions en sont dérivées. Le téléchargement se fait depuis le site de Nvidia, pour le moment aucune forme de décentralisation ne semble être prévue.

GeForce Now Linux

Pour rappel, avec GeForce Now Linux, il s’agit ni plus ni moins de piloter à distance un système dans un centre de données de Nvidia qui pilotera vos jeux en suivant vos ordres locaux avant de vous retransmettre le rendu de vos actions sur votre écran en streaming. Si votre liaison internet est solide, à la fois en débit et en latence, le fait de déporter ces calculs est absolument imperceptible. On profite au passage des avancées permises par les puces Nvidia GeForce RTX avec le RayTracing et le DLSS 4, de la possibilité de jouer immédiatement sans avoir à télécharger un jeu s’il est présent dans les bibliothèques compatibles comme Steam ou EPIC. 

Pouvoir lancer un jeu en très haute définition, avec un rendu de très bonne qualité et une réactivité assez folle depuis un MiniPC basique est toujours quelque chose d’assez impressionnant. Le fait de pouvoir le faire depuis une machine Linux, même pas forcément récente, est évidemment une excellente nouvelle.

GeForce Now Linux et ailleurs

GeForce Now Linux : une version bêta à surveiller

Je n’ai pas eu le temps de tester l’application, mes journées sont un peu trop courtes en ce moment. Mais les premiers échos que j’en ai sont assez bons. Les principaux désagréments rencontrés sont liés à différents ajustements d’affichages de l’application en local. Sur certains engins, cela ne pose absolument aucun problème. Les machines avec un équipement très standard répondent au doigt et à l’œil. Sur des machines plus exotiques, l’application GeForce Now Linux semble avoir plus de mal à trouver ses marques d’affichage. Entre des écrans noirs qui nécessitent un redémarrage avant de répondre correctement ensuite, des définitions pas immédiatement respectées et un mode fenêtré qui ne veut pas bouger… On reconnait là des problèmes de jeunesse qui devraient rapidement être réglés. Il s’agit encore, pour le moment, d’une version BETA. Une chose est toutefois unanimement reconnue. Une fois que cela fonctionne, plus de problèmes. Dès que le tuyau est branché, les jeux fonctionnent admirablement bien.

Comme toujours avec GeForce Now, je vous encourage à tester l’application et le service via la formule gratuite proposée. Je n’ai aucune idée du succès futur de la formule Linux. Les griefs entre Nvidia et les développeurs Linuxiens sont encore assez vifs… Mais malgré tout je vois cela comme une bonne nouvelle pour l’univers du libre. Comme pour GoG et sa volonté de débarquer sur Linux. Comme pour Valve avec SteamOS. On sent que la digue du jeu sur Linux est plus que fissurée et qu’il ne faut plus grand-chose pour qu’elle saute totalement. Cela sera le cas quand plus de studios proposeront des jeux optimisés nativement pour cet écosystème.

Nvidia a compris que pour le moment il ne pouvait pas espérer pénétrer si facilement le marché du hardware pour ConsolesPC qui semble se diriger de plus en plus vers SteamOS et donc vers AMD. Proposer la solution GeForce Now Linux est un moyen de mettre en avant une alternative viable et accessible à tout le monde sans racheter de matériel. Cela fait également écho à l’arrivée du service directement sur les Steam Deck.

Le prix des abonnements ne varie pas et oui, passé l’offre gratuite, cela représente une certaine somme. Mais à partir de 10.99€ pour un mois et 21.99€ pour un mois dans d’excellentes conditions sur un PC basique, c’est bien moins cher qu’un ticket de cinéma pour 120 minutes de film. J’ai pas mal de connaissances qui ne prennent que des pass mensuels, notamment pour les vacances scolaires. Cela permet de retrouver l’équivalent d’un PC gaming hors de prix et de découvrir des jeux dans des conditions exceptionnelles… Quitte à les poursuivre ou les relancer après en plus basse définition quand leur PC leur permet.

GeForce Now Linux branche son tuyau de jeu vers le libre © MiniMachines.net. 2025

  •  

A propos de la rumeur d’un SoC Nvidia N1 pour PC

Dernièrement les choses s’agitent et le nom de code Nvidia N1 a été propulsé sur la toile. Vous êtes très nombreux à m’interpeller et à me demander mon avis sur ces « leaks » autour d’une puce de ce type et des partenariats supposés avec des constructeurs.

Bien sûr je pourrais agiter les bras et vous tartiner un billet sur un listing tiré des entrailles d’internet pour vous dire des choses entourées de plein de conditionnels. Mais le moment est trop complexe pour prétendre y voir clair. Si on a des traces et des annonces de l’intérêt de Nvidia pour le marché PC depuis de nombreuses années, l’actualité rend les prévisions trop hasardeuses pour s’y risquer. De mon côté, je n’ai aucune idée de calendrier probable, pas plus que de certitudes à partager.

Mediatek et Nvidia à la manœuvre pour le Nvidia N1 ?

Nvidia et le marché PC : ce que l’on sait

Nvidia est un acteur majeur du monde PC grand public et professionnel. Ses cartes graphiques forment l’écrasante majorité des puces spécialisées vendues dans le monde. La marque a donc encore un gros intérêt à rester présente sur ce segment. Même si ces dernières années, son regard semble largement avoir dérivé vers les puces spécialisées dans l’IA. Le monde PC n’est plus la première source de revenus de la boite, loin de là, mais cela reste un filet de sécurité complet et un relais de croissance.

On sait également que Nvidia travaille depuis un bon moment avec Mediatek pour développer une solution ARM mâtinée de cœurs CUDA. La dernière rumeur en date, en juin 2025, évoquait une puce développant sous ARM quelque chose de proche d’une RTX 4070. Une rumeur d’autant plus forte que les premiers signes d’un rapprochement des deux marques débutent en 2023. L’objectif étant pour Nvidia de venir concurrencer un Qualcomm qui a bénéficié d’une exclusivité de support de Windows jusqu’en 2024.

On sait également que Nvidia a mis un pied dans la porte chez Intel, en investissant pas moins de 5 milliards de dollars. Ce qui devrait conduire à terme à la création de puces hybrides Intel et Nvidia. Chose qui montre l’intérêt de la boite de prendre encore et toujours des positions sur le marché PC malgré sa réussite sur le marché IA. À moins que cela ne soit au final qu’une stratégie d’engagement envers le service Intel Foundry pour avoir une possibilité de profiter des capacités de fabrication de silicium d’Intel. On sait que Nvidia est devenu le premier client de TSMC devant Apple, mais on ne sait pas quelle est la force de son appétit futur.

Ces éléments dessinent la volonté existant depuis probablement plus de trois ans pour Nvidia de venir contrer Qualcomm sur ce segment. Volonté peut être émoussée par le succès actuel de ses puces IA qui rend le besoin de croissance du segment « ordinateur personnel » moins primordial. Et cela d’autant plus que la situation actuelle du marché est impossible pour Nvidia.

Nvidia Blackwell et pas Nvidia N1

Nvidia Blackwell

Nvidia N1 : Les deux pieds dans les deux plats

Sur le segment IA, Nvidia est évidemment partie prenante. Une majorité du problème actuel des composants du marché PC est lié au centre de données qui les absorbent en masse. Nvidia n’a aucun intérêt à un quelconque ralentissement des investissements des géants de la tech dans ces centres de traitement, ils lui rapportent littéralement des milliards de dollars. Limiter ces rentrées massives d’argent pour lancer un SoC qu’il va falloir pousser pendant quelques longues années avant qu’il ne soit rentable ne semble donc pas être la bonne solution.

Sur le segment PC, l’absence de mémoire vive à bas prix rend le lancement d’un supposé Nvidia N1 non pas impossible, mais tout au moins fort compliqué. La tendance du marché pour 2026 va être très clairement d’éviter de prendre des risques ou d’expérimenter outre mesure. Quand on aura assez économisé pour compenser la hausse de prix par rapport à 2025, si on a encore envie d’investir, on le fera dans une valeur sûre. Pas dans un SoC à l’arrière-goût de prototype.

  • Ideapad Slim 5 14N1V11 : Nvidia N1
  • Ideapad Slim 5 16N1V11 : Nvidia N1
  • Yoga pro 7 15N1V11 : Nvidia N1
  • Yoga Yro 7 15N1X11 : Nvidia N1
  • Yoga 9 2-in-1 16N1X11 : Nvidia N1X
  • Legion 7 15N1X11 : Nvidia N1X

Il est possible que des partenaires de Nvidia aient anticipé cette sortie. On parle de Lenovo et d’une liste de machines sous Nvidia N1 et N1x reportée ci dessus. Liste dévoilée par un internaute chinois avant d’être retirée. Mais même en imaginant un inventaire de RAM réservé à ces puces particulières, le moment ne parait pas franchement idéal. Comment justifier des prix « épargnés » par la hausse pour ces puces alors que le reste du marché flambe ? Comment vendre les nouveaux portables sous Nvidia N1 dans des conditions sereines, avec une mémoire qui est désormais au minimum vendue trois fois au prix de ce qui était anticipé en juillet 2025 ? Comment réserver de la DDR pour des machines particulières alors que les usines tournent en sous-régime à cause d’un inventaire qui n’arrive pas à se renouveler ?

Que faire pour Nvidia ? Tenter l’aventure ? Respecter un calendrier de sortie dans les pires conditions possibles ? Ou temporiser au maximum ? Difficile d’être certain de la stratégie qui va être suivie. Le nombre de paramètres en jeu en plus des problématiques classiques liées à la rumeur me semble bien trop complexe et aléatoire pour me livrer à une quelconque spéculation. Certains croient être sûrs que Nvidia profiterait de l’arrivée de Windows on ARM pour lancer des puces Nvidia N1 grand public et Nvidia N1X plus puissantes. Avec Lenovo et Dell comme principaux partenaires. 

Il est possible que ce soit ce qui a été anticipé, il est également possible que cela se concrétise. Mais il y a aussi beaucoup de chances que tout calendrier programmé soit retardé. 

A propos de la rumeur d’un SoC Nvidia N1 pour PC © MiniMachines.net. 2025

  •  

Nvidia se retrouve accusé d’utiliser la bibliothèque pirate Anna’s Archive pour entraîner ses IA

nvidia piratage

Tous les coups sont-ils permis dans la course effrénée à l'intelligence artificielle ? La question se pose avec des documents judiciaires qui allèguent que Nvidia aurait activement cherché à récupérer le contenu d'Anna's Archive (une célèbre bibliothèque clandestine d'ouvrages piratés) pour entraîner ses IA. Et cela, en toute connaissance de cause.

  •  
❌