Vue lecture

Google a une arme secrète pour gagner la guerre de l’IA : les TPU 8t et TPU 8i

Google vient de présenter la 8ᵉ génération de ses puces maison dédiées à l'intelligence artificielle : les TPU 8t et TPU 8i. Le géant du web mise sur deux puces et sépare la phase d'apprentissage et la phase d'exécution pour la première fois afin d'optimiser les coûts et d'augmenter sa capacité à être indépendant du reste de l'industrie, Nvidia compris.

  •  

Half-Life 2, Max Payne… Comment l’IA et le Path Tracing ressuscitent les jeux cultes des années 2000 [Sponso]

Cet article a été réalisé en collaboration avec NVIDIA

Et si les cartes graphiques Nvidia Geforce de 2026 rendaient les vieux jeux des années 2000 plus beaux ? L'idée est tellement séduisante que Nvidia a donné les outils pour le faire aux moddeurs. Son nom : RTX Remix. Voici tout ce qu'il faut savoir à son sujet.

Cet article a été réalisé en collaboration avec NVIDIA

Il s’agit d’un contenu créé par des rédacteurs indépendants au sein de l’entité Humanoid xp. L’équipe éditoriale de Numerama n’a pas participé à sa création. Nous nous engageons auprès de nos lecteurs pour que ces contenus soient intéressants, qualitatifs et correspondent à leurs intérêts.

En savoir plus

  •  

« Je pense qu’on a atteint l’intelligence artificielle générale » : le patron de Nvidia surprend tout le monde avec cette phrase

Invité du podcasteur américain Lex Fridman, Jensen Huang a laissé entendre que l'AGI, considérée par beaucoup comme la forme ultime de l'IA générative, était déjà possible aujourd'hui. Une affirmation qui divise beaucoup : tout dépend de la définition que l'on attribue à AGI.

  •  

Un sèche-cheveux et 2,5 milliards de dollars : comment cet incroyable réseau de contrebande a inondé la Chine de puces Nvidia

Le 19 mars 2026, le département américain de la Justice a inculpé trois personnes liées à Super Micro Computer, un fabricant californien de serveurs coté en bourse. Leur crime présumé : avoir orchestré un vaste réseau de contrebande de semi-conducteurs à destination de la Chine, principal rival technologique des États-Unis.

  •  

DLSS 5 : Il n’y a pas de magie dans l’IA de Nvidia

L’histoire est assez simple. Pour le lancement de son système de génération d’images DLSS 5, Nvidia a proposé différentes vidéos mettant en scène des jeux avec et sans son filtrage. Les exemples proposés sont spectaculaires et on peut voir des univers totalement changer d’ambiance une fois l’algorithme activé.

Visages redessinés, textures appuyées, décors et ambiances bouleversées… Les jeux passés à la moulinette de l’IA du DLSS 5 ont causé un certain émoi chez les joueurs. Quand on passe des dizaines d’heures dans un univers spécifique, quand on apprécie le travail mené par les équipes créatives d’un jeu et qu’on voit ce travail bouleversé par un filtre, il est absolument normal de s’inquiéter.

Quand on mélange cela avec l’ambiance qui règne en ce moment autour de l’IA, cette inquiétude devient viscérale. On a déjà parlé à plusieurs reprises des errements de ces algorithmes qui ont tendance à manier le pinceau de la retouche avec la grâce d’un dinosaure et à jouer avec les réglages des différents effets les plus lourdingues avec des gants de boxe. Impossible de ne pas voir la pose d’un « nouveau visage » sur un personnage de jeu vidéo autrement que comme un masque grotesque. 

Image native sans DLSS 5

Image native sans DLSS 5

L’erreur de Nvidia est d’avoir cru au classique effet « wahou »

Nvidia a roulé sa bosse en termes de technologie et de communication avec le public. La marque est présente depuis des années sur ce terrain. Mais, souvent, son approche marketing se limite à deux aspects. De l’évangélisation technique avec l’explication de ses technologies qui sont très souvent assez complexes à appréhender. Puis, dans un second temps, l’exposition de l’intérêt de celles-ci avec des démonstrations techniques. Et, il faut l’avouer, depuis presque 30 ans que les GeForce sont en vente sur le marché PC, cette seconde phase suffit généralement à convaincre tout le monde. 

Voir pour la première fois le décor d’un jeu se refléter fidèlement sur une carcasse de voiture. Découvrir une illumination d’objet qui s’adapte au mouvement de l’éclairage que porte un personnage ou observer les comportements physiques d’un univers se mettre en scène dans une logique de pesanteur ou de fluidité, tout cela pose son petit effet Wahou sur les rétines de l’observateur. Que l’on comprenne ou pas comment tout cela fonctionne, le fait est que l’impact dans le jeu est suffisant pour convaincre. Et d’ailleurs, moins on comprend, plus cet effet est « magique » pour le joueur.

Image retravaillée par le DLSS 5

Image retravaillée par le DLSS 5

On ne touche pas aux doudous des joueurs !

Problème, cet effet a été considéré comme un argument suffisant pour la présentation du DLSS 5. Et cela du seul point de vue technique. Pour un ingénieur de chez Nvidia ou pour toute personne qui s’intéresse aux technologies employées dans le système plus qu’au jeu lui-même, cette démonstration est éblouissante. Le rendu apporté en temps réel par le DLSS 5 dans les titres mis en scène est techniquement incroyable. 

Mais du point de vue d’un joueur, ce n’est absolument pas ce qui est retenu. Chez Nvidia, la confiance dans le système a été portée sur la capacité et l’expertise du DLSS 5 comme système d’optimisation et d’affichage en tant que tel. Cela a certainement été conforté par les récents tests sur le DLSS 4.5 qui indiquaient que les joueurs préféraient le rendu généré au rendu natif.

En réalité, loin de l’aspect technologique, ce que le joueur lambda a vu, c’est le maquillage outrancier d’un univers qu’il connaissait déjà. Pour certains, changer le visage de son héros avec qui il a passé des dizaines et des dizaines d’heures est atroce. C’est comme si on échangeait un doudou pour un autre ou qu’on changeait un acteur par un autre au milieu d’un film. Ce n’est simplement pas intelligible.

Dès que ces vidéos ont été publiées, il est devenu impossible de nuancer ce qui était proposé par le DLSS 5. Dans la vidéo ci-dessus, on ne reconnait plus le personnage mis en scène par rapport à sa version native sans DLSS. Et c’est vraiment le principal problème de cette annonce. Tout le monde a immédiatement pensé à une IA hors de contrôle. Comme si un magicien malicieux prenait place dans votre carte graphique pour affubler les jeux de ces rendus pilotés par une IA sans supervision. Impossible d’expliquer ensuite si oui ou non ce « masque » porté par le personnage a été généré uniquement par l’IA ou en collaboration avec le studio de développement. Impossible de se dire que cela provient d’un travail de fond mené par les designers du jeu qui ont imposé leurs choix artistiques pour l’entrainement du DLSS 5. On ne peut plus y voir qu’une Sloperie2 de la part d’une machine sans goût ni sentiment.

C’est d’autant plus flagrant pour moi que cette image m’en a rappelé une autre que je vous proposais il y a quelques temps pour parler d’IA et de VPC. Les deux images se sont superposées immédiatement dans mon regard. Provoquant ainsi un rejet quasi épidermique de la proposition. Impossible pour moi de continuer à regarder ces images sereinement. Il a fallu que je laisse un peu de temps à mon cerveau pour refroidir et essayer d’appréhender le sujet de manière plus réfléchie. Et, à bien y regarder, en écoutant les arguments des différents acteurs mis en scène dans toute cette histoire, la proposition de Nvidia avec le DLSS 5 est un peu plus intéressante que cette simple histoire de maquillage de personnages à la truelle.

Le gros problème de cette démonstration technique est d’avoir pris des jeux existants. Des jeux qui ont déjà gagné le cœur des joueurs, et d’avoir poussé le côté technique de la démonstration au lieu d’ajuster un mélange entre avancées technologiques et ambiance connue.

L’effet est logiquement le même que la découverte d’une personne en face à face alors qu’elle use et abuse de filtres IA pour paraitre différente sur ses photos en ligne. Ou la découverte d’un lieu ultra-touristique photographié sur les réseaux sociaux et qui s’avère être un cadrage d’un angle précis. Cadrage qui cache la réalité de la scène toute entière souvent moins étonnante ou esthétique. L’aspect totalement artificiel de ce qui est proposé par le DLSS 5 parait non seulement faux mais également totalement incongru au joueur qui connait déjà le jeu présenté.

Il n’y a pas de magie dans ce rendu

Nvidia l’affirme, les visages générés par l’algorithme, les décors léchés et les textures appliquées, sont bien réalisés en partenariat avec les éditeurs de jeu. Sous leur propre direction artistique. Cela veut dire que l’IA ne fantasme pas le visage de tel ou tel personnage à partir de rien. Qu’il ne changera pas d’une machine à l’autre ou d’une partie à l’autre. Le « masque » est décidé en amont et restera le même pour tout le monde. Il est généré par les équipes qui construisent l’âme graphique du jeu. À bien y regarder, toutes proportions gardées, l’approche de cette métamorphose IA ressemble à une version « premium » d’un pack de textures « 4K » proposées au téléchargement après la sortie d’un jeu lancé en FullHD. Bref, ce n’est pas un sortilège jeté à votre jeu vidéo, c’est juste une option comme une autre.

Nvidia n’aurait dû présenter qu’une démo purement technologique du DLSS 5

Employer des jeux déjà commercialisés a été une erreur. L’attachement des joueurs pour les personnages est trop fort pour qu’une réaction autre qu’épidermique puisse exister. Nvidia propose de changer des souvenirs. Des émotions. C’est totalement impossible. La marque n’aurait dû faire ce que fait un moteur de jeu comme Unreal pour présenter ses technologies. Telle que la démo que vous voyez ci-dessus. Proposer soit un jeu à venir, soit un jeu qui n’existe pas mais qui permet de mettre en scène ses nouveautés. Cela aurait permis de mettre en avant la participation des studios dans le développement des effets générés par l’IA mais surtout de se détacher du côté émotionnel que chacun entretient avec les jeux.

Nvidia l’a fait, la vidéo ci-dessus est une de ces présentations technologiques. Mais ce n’est pas celle-là qui a été retenue. Elle n’a quasiment pas été publiée ni reprise sur les réseaux sociaux. C’est logique puisqu’elle n’évoque rien à personne, ni en positif, ni en négatif. C’est juste une démo technique où on peut apprécier la technologie mise en avant.

Ne proposer que cette démo n’aurait pas impacté Nvidia puisque les éléments présentés ne tournent pour le moment que dans des conditions très particulières. On parle de solutions graphiques employant un matériel que personne ne possède combinant deux cartes GeForce haut de gamme. Le DLSS 5 n’est pas encore prêt à trouver sa voie chez la majorité des joueurs.  Le moteur est prévu pour cet automne, mais il faudra probablement beaucoup plus de temps avant que ce système se déploie véritablement auprès du grand public. Et d’ici là, les jeux concernés seront différents de ceux présentés.

Il faudra faire attention à l’avenir à la présence de ce filtre dans les démos de jeu

Ce que je redoute au final, ce n’est pas le maquillage façon clown d’anniversaire des prochains jeux. C’est plutôt la tendance qui risque d’apparaitre de démonstrations de jeu sous leur meilleur angle avec le DLSS 5. Exactement comme la carte postale présentant une vision « Instagram » d’un lieu touristique. Vision qui, une fois sur place, n’est pas tout à fait aussi glamour. Les studios et les éditeurs de jeu auront certainement tendance à mettre en avant des jeux au réalisme poussé au travers du processus proposé par Nvidia. Et si l’approche esthétique sera bien pilotée en interne, elle ne concernera pendant très longtemps qu’une minorité de joueurs.

Or, si on vous met en scène un jeu « sublimé » par un filtre que vous ne pouvez pas appliquer, vous allez acheter autre chose que le produit présenté. Encore une fois, s’il n’y a pas de magie dans l’algorithme, il y’en a toujours une dose dans le marketing.

DLSS 5 : Il n’y a pas de magie dans l’IA de Nvidia © MiniMachines.net. 2026

  •  

Le robot Olaf de Disneyland est contrôlé par un Steam Deck : on l’a vu en vrai

Nvidia a profité de sa conférence GTC pour dévoiler des détails sur le nouveau robot Olaf de Disneyland Paris conçu en partenariat avec ses équipes robotiques. Le géant américain confirme qu'Olaf n'est pas vraiment autonome : il est contrôlé par un Steam Deck. À terme, Nvidia pense pouvoir rendre « intelligents » les robots comme Olaf.

  •  

Nvidia veut mettre des serveurs dans l’espace : faut-il y croire ?

Lors du GTC 2026, Nvidia a officialisé son ambition de conquérir l’orbite terrestre avec sa gamme « Space Computing ». Si l’idée de déployer de véritables data centers spatiaux dédiés à l’IA fait rêver, le géant des puces se heurte à un obstacle redoutable et incontournable : les lois implacables de la thermodynamique.

  •  

Guerre froide de l’IA : pourquoi Nvidia lâche OpenAI et Anthropic en plein bras de fer avec le Pentagone

Le patron de Nvidia, Jensen Huang, a récemment laissé entendre que les investissements du géant des puces dans OpenAI et Anthropic seraient probablement les derniers. Officiellement, il s’agit surtout d’un timing financier lié aux futures introductions en Bourse des deux firmes. Un recul qui intervient en plein bras de fer avec le Pentagone.

  •  

Pourquoi je ne parle pas des « portables Nvidia » ?

Petit état des lieux : des rumeurs quant à la sortie de portables Nvidia circulent depuis novembre 2025. Alimentées par le fait que Nvidia travaille avec Mediatek depuis mai 2023. Rumeur soutenue par le fait que la fin de l’exclusivité accordée à Qualcomm pour développer des puces compatibles Windows est désormais actée. En juin 2025, une nouvelle pièce dans la machine à rumeurs laissait entendre l’arrivée d’une puce ARM capable de proposer un niveau de performances digne d’une GeForce RTX 4070.

Cet ensemble, lié à d’autres rumeurs provenant de différentes sources, a mis progressivement le cerveau de beaucoup de monde en ébullition. La machine s’est largement emballée quand un anonyme a publié en ligne un listing de références de portables signés Lenovo sous processeur Nvidia N1 ou Nvidia N1X.

Des portables Nvidia signés Lenovo ?

Un listing qui serait lié à une fuite d’informations de la chaine d’approvisionnement Lenovo mais dont la véracité peut difficilement être prouvée. On parle d’une capture d’écran de texte blanc sur fond noir. Chose que n’importe qui peut fabriquer de ses mains en quelques minutes seulement. Cela serait cependant la preuve de la sortie imminente de toute une gamme de machines sous ces nouveaux SoC N1. 

Le Nvidia GB10 du DGX Spark

Le Nvidia GB10 du DGX Spark

Ce Nvidia N1X serait, d’après la rumeur toujours, une déclinaison des puces Nvidia GB10 des stations DGX Spark orientées vers l’IA. On parle de 20 cœurs ARM  et de 6144 cœurs CUDA « Blackwell ». Le Spark étant une puce de machine de bureau avec un TDP de 120W, la révision mobile N1X serait sensiblement moins gourmande et dissipatrice.

Des portables Nvidia signés Dell ?

Le truc amusant, c’est la manière dont tout cela est construit. Parce que Lenovo ne serait pas le seul constructeur à se pencher sur ce nouveau processeur et à proposer des portables Nvidia. Le 12 janvier, c’est une machine de Dell qui apparait avec la puce avec encore une fois une rumeur en provenance de Twitter et une capture d’écran qui ne prouve pas grand-chose. Mais ce qui est pris avec des pincettes en janvier devient une info sûre et vérifiée le 23 janvier… Lors de l’annonce des machines Lenovo. Toute précaution autour de la source, de la fiabilité de celle-ci et de la possibilité d’une erreur d’interprétation ou de simple envie de troller a disparu en… 11 jours. Et cela malgré des années et des années de pratique où on a fini par s’apercevoir qu’un bon pourcentage des annonces de ce type étaient totalement farfelues.

Générer une image IA d'une puce avec une IA lui donne t-elle plus de poids ?

Générer une image IA d’une puce avec une IA lui donne t-elle plus de poids ?

Des portables Nvidia sous N1X pour cette année !

Et le tout s’emballe assez rapidement. De nouvelle en nouvelle, de reprise en reprise, les hypothèses se transforment en affirmations. Certains proposent toujours un peu de conditionnel mais ils sont repris par d’autres qui ne s’embarrassent pas des pincettes de leur collègues. Ainsi une phrase comme « des ordinateurs portables Nvidia semblent se profiler pour la fin de 2026 » se transforme en « des ordinateurs portables Nvidia sont prévus pour la fin de 2026 » un clic plus loin. 

Les dates de sorties établies par d’anciennes rumeurs qui ont été dépassées – comme celle prévue au Computex 2025 qui n’a bizarrement pas eu lieu – deviennent des confirmations de la recherche d’un meilleur alignement calendaire avec les sorties des nouvelles mises à jour techniques de Windows. Avec la même foi renouvelée que celle des disciples déçus par l’absence pourtant prévue de la visite d’une civilisation extraterrestre par leur gourou. Gouou qui va rattraper le coup en expliquant que « personne n’est prêt ».

Et on embraye directement avec une nouvelle rumeur censée prouver la validité des plus anciennes. Le Nvidia N1 est tellement vrai, tellement prévu pour cette année que la marque AURAIT déjà planifié un SoC N2 pour la fin de l’année 2027. Source ? Rien. Au pif, au doigt mouillé. Certains sites allant même jusqu’à reprocher à Nvidia de n’être pas très clair sur son calendrier parce qu’il n’aurait pas réfuté ou étayé ces « informations » ?

Et pour couronner le tout, des IA génératives pondent des images comme celle ci-dessus, censées représenter des puces totalement sorties du chapeau.

Pourquoi je ne parle pas des portables Nvidia, c’est simple

Vous l’aurez compris, cela ne sert à rien de parler de ces rumeurs. A part générer du clic… Nvidia n’a jamais confirmé quoi que ce soit et ses représentants se refusent de le faire parce que c’est la politique maison. Les jalons établis par la marque, son partenariat signé avec Mediatek par exemple, ont bien été documentés. Mais le reste n’est pas assez solide pour établir la moindre théorie sérieuse. C’est juste l’équivalent d’une presse people adapté au matériel informatique. Le Voici du Hardware. Les papiers sont faciles à écrire puisqu’il est inutile de vérifier quoi que ce soit. Tout le monde peut dire que le Nvidia N3 serait prévu pour 2028 et qu’il apporterait un niveau de performances équivalent à une GeForce RTX 5070 Ti. Vous voyez, cela ne m’a demandé aucun effort. 

Le Nvidia N3 prévu chez Asus. Source, un éditeur de texte et un outil de capture.

Le Nvidia N3 prévu chez Asus. Source, un éditeur de texte et un outil de capture.

De deux choses l’une. Soit vous savez réellement des choses tangibles sur des portables Nvidia et le futur de ses puces. Et dans ce cas là vous êtes sous NDA. Vous ne pouvez absolument pas en parler. Vous risquez votre travail ou d’être grillé comme média.

Soit vous n’en savez rien. Rien de concret, rien d’autre que des bruits de couloir, des infos provenant de sources anonymes ou des cachoteries faites lors d’un rendez-vous avec quelqu’un du milieu sans preuves. Bref rien de suffisamment tangible pour parler avec assez d’assurance du futur. A-t-on vu un seul cliché d’une de ces fameuses puces N1 soi-disant prêtes depuis le Computex en mai 2025 ? Non, bizarrement aucune. Un portable Dell ou Lenovo équipé N1 ou N1X ? Pas plus. Tout ce que vous avez pu lire sur le sujet est bâti sans aucune preuve formelle. Ce sont juste des pixels sur des écrans, rien que du vent.

Jensen Huang

Jensen Huang

Est-ce que cela veut dire qu’il n’y aura pas de portable N1, N2 ou que sais-je signé Nvidia ?

Non, évidemment pas. Si je ne peux pas affirmer que ces puces et ces portables Nvidia existent, je ne peux pas non plus affirmer que ces puces et ces machines n’existent pas. Je veux juste expliquer pourquoi je n’en parle pas. Il ne me semble pas opportun d’entretenir une série de rumeurs basées sur des sources beaucoup trop maigres de ce type. Il est possible que demain des engins équipés de telles puces soient annoncés effectivement. Tout comme il est possible que l’annonce de Nvidia prévue pour la GTC 2026 le mois prochain les concerne. 

Le PDG de la marque, Jensen Huang, a en effet indiqué que Nvidia allait dévoiler une puce qui allait « surprendre le monde » à un journal économique Coréen. Mais ma position ne change pas. Ce n’est pas rendre service à mes lecteurs que d’écrire « L’annonce de Nvidia en mars pourrait correspondre à la sortie du Nvidia N1 » parce que, au final, je n’en sais absolument rien. 

Pourquoi je ne parle pas des « portables Nvidia » ? © MiniMachines.net. 2026

  •  

Le DLSS 4.5 plus apprécié que le rendu natif, ce que nous dit l’expérience de ComputerBase

Quel est le rendu que vous préférez ? L’image native ? Le DLSS 4.5 ? Ou le FSR ? Vous en avez peut-être entendu parler, l’expérience de ComputerBase fait grand bruit sur la toile. Le site a demandé à ses lecteurs de choisir entre différentes images tirées de différents jeux vidéo mais avec des technologies de rendus différents. Trois grandes solutions ont été mises en concurrence. Un rendu « natif », c’est-à-dire celui calculé par le circuit graphique de la machine. Un rendu piloté par un algorithme signé Nvidia avec le DLSS 4.5. Et enfin un rendu piloté par AMD avec le FSR.

DLSS 4.5 vs natif Vs FSR

DLSS 4.5 vs natif Vs FSR

La surprise vient du fait que le test, réalisé bien entendu « à l’aveugle » sans que les internautes ne sachent quelle technologie est employée pour chaque image, met en évidence une préférence marquée pour le rendu issu de la technologie DLSS 4.5. On pourrait penser que l’image préférée des internautes serait la plus « juste » possible. Entendez par là celle qui correspond le mieux à ce que les développeurs du jeu proposent. Il n’en est rien, sur toutes les images et quel que soit le jeu, la majorité préfère le rendu DLSS 4.5.

Les résultats sont sans appel : sur les 6 jeux mis au vote, la majorité des internautes préfèrent l’image générée par la technologie de Nvidia. Avec, pour certains titres, des résultats sans équivoque : sur Satisfactory par exemple, c’est presque 61% des suffrages qui désignent le DLSS 4.5. Contre 15.1 et 12.4% pour le rendu natif ou le FSR. 

Premier élément à noter, assez important d’ailleurs, il ne s’agit pas d’un podium. La question importe ici et ComputerBase le rappelle. On demande aux internautes quel est le meilleur rendu dans les différentes propositions. Et non pas de dresser une liste de préférences entre elles. Autrement dit, les votants ont juste choisi l’image qu’ils préféraient pour chaque jeu sans déterminer ensuite s’ils en préféraient une seconde. Si cela permet de mettre explicitement en avant le DLSS cela n’offre pas la possibilité de dire que le natif ou le FSR est second. Si la question d’un tri de préférences des images avait été demandé, on aurait pu établir un classement. Ce n’est donc pas le cas ici.

Jeu Pourcentage de vote
« rendu équivalent »
Date de sortie du jeu
Anno 117 10.7% 2025
ARC Raiders 11.5% 2025
Cyberpunk 2077 22.6% 2020
Horizeon Forbidden West 12.6% 2022
Satisfactory 11.6% 2019
The Last of US Part II 7.8% 2020

Second point qui me parait intéressant : un jeu qui a largement été mis en avant pour ses qualités graphiques, Cyberpunk 2077, est celui où les votes pour l’absence de différence entre les affichages est le plus élevé. Cela veut dire que pour ce titre aux graphismes très léchés, et dont une grande partie de l’intérêt vient de l’univers déployé par les designers, le moteur de jeu impose un rendu précis qui peine à être départagé.

Ce résultat est très net et c’est un des premiers jeux à avoir été embarqué par des IA pour mettre en valeur ces technologies de génération d’images. Sorti en 2020, il fait partie des tous premiers titres pilotés par le FSR d’AMD (lancé en 2021) et le DLSS de Nvidia (2020). Cela veut dire que ces technologies n’avaient pas encore déployé tout leur « savoir faire ». Pour autant, d’autres titres comme Satisfactory ou The Last of US part II sont sortis à la même époque et héritent de notes d’équivalences bien plus faibles. On peut donc se demander dans quelle mesure les développeurs, sachant que les jeux étaient de plus en plus sujets à interprétation de la part des matériels de jeu, ont décidé de relâcher leurs efforts de contrôle sur le rendu de leurs titres. 

Cyberpunk 2077 a largement soigné son esthétique et son rendu technique

Cyberpunk 2077 a largement soigné son esthétique et son rendu technique

Difficile de leur en vouloir d’ailleurs. Entre un joueur qui va lancer une partie sur un PC portable avec un écran bas de gamme et un circuit graphique de base, un autre qui profitera d’un écran géant OLED porté par une carte graphique très haut de gamme et un troisième, entre les deux, qui profitera des solutions IA que sont les DLSS 4.5 ou FSR 3.1 sur un écran IPS, les équipes de développement sont perdues. Bien malin celui qui saura comment le jeu sera affiché au final. Il faut une volonté de développement très spécifique pour appuyer un rendu précis afin que cela ait un impact. Et peut être que Cyberpunk 2077 est un des seuls à avoir eu cette exigence. C’est d’ailleurs peut-être pour cela que le jeu a été aussi exigeant lors de sa sortie : il refusait de tourner sur des configurations trop moyennes.

Le DLSS 4.5 en 2026 propose aux jeux ce que les ingénieurs du son ont proposé à la musique dès les années 2000.

Enfin, il n’y a pas de raisons que notre vue soit si différente de nos autres sens. Lorsque les casques, amplis, autoradios, lecteurs de Mp3 en tous genres se sont vus affublés de fonctions d’amplification des Basses, les ventes ont augmenté. Le public a préféré ce son largement amplifié de boom boom au fur et à mesure que la consommation de la musique a quitté les maisons pour envahir les rues. Les basses étant alors la plage de son que l’on entendait le mieux. Lorsque les albums ont été « remasterisés » en masse avec une normalisation à outrance, le public a adhéré et suivi ce travail sonore. A chaque fois, cela colorait largement la volonté originale du ou des auteurs. Et pourtant le marché a suivi.

Dans le domaine de l’image et de la vidéo, même constat. Des fonctions comme le HDR intégrées par défaut dans de nombreuses applications de photo. Ou les fameux algorithmes intégrés dans les téléviseurs qui réussissent à transformer un film tourné en cinémascope en une série télé filmée à la caméra numérique… Ces technologies ont les faveurs du public. Beaucoup de personnes trouvent les rendus originaux trop fades. Qu’ils « manquent de pêche ». 

Cette apparition d’une préférence pour le rendu « IA » du DLSS 4.5 n’est, à mon avis, pas à regarder autrement. Le public apprécie ces images. Ce n’est pas tant que le rendu soit meilleur en DLSS ou en FSR qu’en natif. C’est que les joueurs ont été habitués à regarder leurs jeux de la même manière que le reste, en poussant les niveaux de contraste et de saturation toujours plus haut.

Le DLSS 4.5 plus apprécié que le rendu natif, ce que nous dit l’expérience de ComputerBase © MiniMachines.net. 2026

  •  
❌