Vue normale

À partir d’avant-hierFlux principal

Lancement officiel de Nvidia App qui sort de sa phase beta

12 novembre 2024 à 16:59

Nvidia App c’est la nouvelle solution logicielle de la marque pour piloter ses cartes graphiques sur PC. Les solutions GeForce Experience et Nvidia Control Panel sont toujours actives mais ne seront plus mises à jour.

Depuis son lancement en beta en février, Nvidia App a connu de multiples mises à jour avant d’aboutir à cette version officielle. Plus rapide et facile à maintenir que GFE, l’application se distingue par son efficacité et sa simplicité d’emploi.

Si Nvidia App en fait peut être un peu trop avec de la publicité pour les solutions de la marque ou un panneau de raccourcis vers vos jeux qui fait doublon – ou pire – avec ceux proposés par les magasins de jeux virtuels comme Steam, GoG ou Epic, c’est également une solution clé-en-main efficace.

On retrouve tous les outils de la marque d’un coup d’oeil, même ceux que la majorité des gens ignorent pouvoir utiliser comme les fonctions Nvidia Broadcast pour la vidéo conférence. La lisibilité des mises à jour nécessaires est bien meilleure et le détail de ces mises à jour bien mieux expliqué. Un clic suffit à lancer le téléchargement et la mise à jour du pilote sans avoir besoin de se connecter à un compte quelconque. Il est même possible de naviguer entre plusieurs pilotes, ce qui s’avère particulièrement pratique sur des machines destinées à du travail graphique ou les pilotes « Studio » sont préconisés comme à du jeu ou les pilotes « Game Ready » seront plus efficaces.

Les réglages techniques pour chaque application ou jeu reconnu peuvent se faire directement en quelques clics. Activer le G-Sync d’un écran, forcer des fonctions qui seront prises en charge matériellement par votre carte graphique, limiter le nombre d’images par seconde, tout cela se fait simplement sur cette interface.

Les fonctions du Control Panel sont également intégrées à l’interface, ce qui s’avère assez pratique et efficace. On a le détail de sa configuration en un clin d’oeil mais aussi et surtout un onglet performance qui permet d’optimiser son matériel suivant ses besoins de manière fine ou automatique. 

Enfin, le On Screen Display qui s’affiche par dessus les jeux a été repensé et amélioré. Il permet d’enregistrer ses parties (jusqu’en 120 ips compressé sous CODEC AV1) , de lancer des captures d’écrans en mode « photo » ou de suivre le nombre d’images par seconde ainsi que l’impact de votre activité sur le processeur graphique. Le pilotage des fonctions RTX est également intégré dans cette interface.

Au final, Nvidia App permet de concentrer les deux applications nécessaires au préalable en une seule et de les piloter de manière plus lisible. La possibilité d’optimiser un jeu en un clic sur le bouton proposé est vraiment un plus. 

Pour télécharger Nvidia App, cela se passe ici.

Nvidia App : une gestion plus sereine de sa carte graphique

Minimachines.net en partenariat avec Geekbuying.com
Lancement officiel de Nvidia App qui sort de sa phase beta © MiniMachines.net. 2024.

41 000 000 de chiffres : c’est le plus grand nombre premier jamais découvert à ce jour

23 octobre 2024 à 15:16

C'est un petit évènement dans le monde des mathématiques. Un nouveau nombre premier a été découvert et il s'agit du plus grand à ce jour, avec plus de 41 millions de chiffres. Il a aussi une particularité : c'est un nombre de Mersenne.

25 ans de GeForce : 3 anecdotes perso sur l’épopée de Nvidia

11 octobre 2024 à 16:25

Il y a 25 ans, Nvidia lançait ses premières GeForce 256. Un petit évènement à l’époque mais qui, je me rend compte, n’a pas cessé de m’accompagner depuis.

Nvidia a publié un article de blog pour retracer cette aventure dans le monde du jeu vidéo et de la création. Au passage la marque a enjoint ses contacts a publier, si ils le désiraient, un papier concernant d’éventuelles anecdotes au sujet de ce long périple. J’en ai retenu trois parmi les plus marquantes dans ma « carrière » informatique. Et la toute première concerne justement cette fameuse carte GeForce 256.

La GeForce 256

En fin d’année 1999 sort la GeForce 256, la première carte graphique de cette gamme chez Nvidia. La presse informatique ne frétille pas spécialement d’impatience pour cette carte et seuls les magazines spécialisés, orientés jeu vidéo, s’y intéressent un peu. Le 11 octobre 1999 les commandes ne sont pas spécialement formidables. A l’époque je suis le webmaster/monteur/rédacteur/testeur/conseiller multitâche de feu l’enseigne Eurisko. Nous assemblons des PC et vendons des pièces détachées avec mon collègue et ami Valentin. Nous sommes dans les années 3DFX. La Voodoo première du nom est sortie en 1996, la Voodoo 2 en 1998. Ces cartes d’extension graphique font alors concurrence aux rares autres modèles du marché comme les Matrox Millenium et Mystique mais également des ATI Rage et des Nvidia NV1 et RIVA 128 (aka la NV3). Je me souviens bien de ces cartes car elles étaient alors embarquées dans une course débile à qui aurait la boite la plus grosse. A l’époque les cartes graphiques étaient exposées dans les rayons des magasins spécialisés qui existaient encore dans les villes. Il fallait donc qu’on les voie de loin et les constructeurs avaient fini par leur fabriquer des boites en carton tapageuses, plus grandes que celles des cartes mères. Pour nous qui ne disposions que d’un petit entrepôt et qui faisions beaucoup de VPC, c’était un vrai casse tête a stocker.

voodoo1

3DFX PCI

Le marché est compliqué pour toutes les marques à cette époque. Si les 3DFX avaient bien fonctionné, si les Matrox avaient également rencontré pas mal de succès, c’était toujours des cartes très entrée de gamme qui faisaient le gros des ventes. Les grossistes nous pressaient de vendre plutôt des « S3 Virge » qu’autre chose, ces cartes basiques et vraiment pas chères permettaient de construire des PC abordables. Cela valait mieux plutôt que de nous obstiner a proposer des stations de jeu deux fois plus chères et donc dix fois plus difficiles a vendre. Mais notre truc à l’époque c’était pas de faire du volume mais plutôt de monter des stations qui nous plaisaient. Alors on s’intéressait surtout aux cartes graphiques les plus chères même si les jeux réellement en 3D étaient encore rares. Même si les spécifications vraiment techniques n’intéressaient toujours pas grand monde. On avait un petit public de geeks techniciens, on écumait les forums US et on sentait bien vibrer un truc autour des annonces de cette fin 1999 avec les GeForce.

L’échelle de la boite est correcte par rapport à la carte

A cette époque cela ne va pas très fort pour Nvidia. Face à une concurrence difficile et surtout parce que les joueurs ne voient pas bien l’intérêt des cartes précédentes, la marque n’est pas en très grande forme. Les échos que l’on a par l’entremise de nos partenaires – marques et grossistes – font a peu près le même constat pour toutes les marques mais chez Nvidia c’est particulièrement tendu parait t-il. On apprendra plus tard qu’en 1997 Nvidia, qui avait du licencier une partie de son équipe l’année précédente, naviguait à vue avec très peu de cash pour fonctionner. En fait, pendant que la marque était en train d’inventer la GeForce 256, elle n’avait plus par moment que de quoi payer un mois de salaire à ses employés. La boite pensait que le couperet allait tomber.

De notre côté nous avions des échos très intéressants concernant cette nouvelle GeForce. Trois éléments nous alignaient des signaux positifs. D’abord un excellent materiel avec une bonne bande passante pour l’époque. Ensuite un gros travail d’optimisation pour les logiciels et enfin une véritable ambition de communication. 

La démo Bubble de 1999 présentait les avancées proposées par la GeForce 256

Côté materiel, la GeForce 256 était annoncée comme une puce très gourmande en bande passante. Extrêmement gourmande. Tellement gourmande que Nvidia proposait deux type de mémoire vive associée à sa carte. De la SDRAM classique, utilisée par toute la concurrence alors. Mais également de la DDRAM avec le double de bande passante. La DDR était alors une technologie toute nouvelle et peu de gens en comprenaient les effets. J’y reviendrais.

La partie Transform et Lightning ou T&L était également mise en avant par Nvidia. Il s’agissait alors de proposer une gestion materielle de fonctionnalités impossibles a prendre en charge auparavant ou alors passant par une solution logicielle vraiment beaucoup plus lente. Cela n’était alors tout simplement pas exploitable en jeu. Le Transfom Engine modifiait en temps réel les polygones qui constituaient les objets en 3D à l’écran. Cela permettait de modifier un objet pour afficher une déformation de perspective, d’adapter des mises à l’échelle et autres évolutions graphiques. La robustesse du GeForce 256 permettait de le faire vite et bien pour l’époque. Comprenez par là qu’associé à un Pentium III, une bonne carte mère et assez de mémoire vive on pouvait alors jouer à Quake III en 60 images par seconde en 1024 x 768 et en 32 bits. La concurrence restait scotchée à 30 images par seconde dans les mêmes conditions. En 16 bits on atteignait les 40 images par seconde en 1600 x 1200 pixels. Un miracle.

Ajoutez a cela un Lightning Engine qui permettait de gérer finement – pour l’époque – les éclairages dynamiques. Une évolution qui offrait des jeux plus vivants et plus surprenant avec un éclairage plus réaliste par rapport aux cartes habituelles. Nous mettions souvent alors en démonstration des machines avec les GeForce en action et l’effet produit était indiscutable sur nos visiteurs. Des jeux comme Halo prenaient le parti d’exploiter ces fonctionnalités.

Le reste des capacités était tout aussi intéressant mais moins impactant : on retrouvait la division de polygones avec le Setup Engine et la gestion des textures avec un moteur de rendu adapté. Mais ces fonctions étaient déjà présentes depuis la première 3DFX. Ce qui a surtout bien fonctionné avec la 256 c’était la justesse d’analyse de mon camarade Valentin. A l’époque c’était lui qui construisait les machines que l’on envoyait en test à la presse informatique. PC Expert, PC Direct et autres étaient friands de machines d’assembleurs et ne perdaient pas une occasion de tester des ordinateurs que l’on montait pour eux sur mesures. 

Et là où nous avons su tirer parti de la GeForce 256 a l’époque cela a été de comprendre comment allaient réagir nos confrères concurrents monteurs. Pas tous mais ceux qui se prêtaient au jeu de ce type de test. Pour être très clair, entre une GeForce 256 Creative Labs en SDR et une Asus V6800 en DDR, la différence de prix était de 380 francs de l’époque, soit, compte tenu de l’inflation, environ 90€ aujourd’hui. Et notre pari a été d’envoyer un PC en test avec une carte DDR en rognant sur d’autres postes de manière a rester compétitif sur le prix global. Je ne sais plus la combine qui avait été employée alors, probablement une licence Windows en option ou une carte son de moins bonne facture. En 1999 quand nous décidions d’envoyer un PC à la presse il fallait tout leur fournir, clavier, souris et enceintes. Il est fort possible que ayons décidé de ne pas leur envoyer un kit audio haut de gamme pour faire la différence.

Une vieille pub Eurisko

Et cela a marché à la perfection. Nous nous sommes retrouvé face à des concurrents qui avaient proposé des cartes SDR sans en comprendre l’enjeu en tests avec une bande passante divisée par deux qui castrait les possibilités du circuit GeForce 256. Ajoutez à cela un léger overclocking du processeur embarqué et nous explosions tous nos concurrents en terme de vitesse pour un prix équivalent. Les retombées ont été fantastiques et notre « FunSation GeForce 256 » s’est admirablement bien vendue cette année là.

La fameuse présentation GPU Vs CPU de Nvidia

Autre anecdote GeForce, bien plus tardive, la découverte des fonctions CUDA pour le montage vidéo. Avec l’arrivée des GeForce 8, ces fonctionnalités qui permettent de piloter des calculs en parrallèle, changent totalement certains aspects créatifs du monde PC. je découvre véritablement en pratique les fonctions CUDA en 2009 si mes souvenirs sont bons. Et c’est un véritable changement de paradigme. Les possibilités offertes par les capacités de calcul des cartes graphique pour des usages créatifs font des miracles. Il faudra encore un peu de temps pour que tout cela se peaufine mais c’est vraiment un choc  à ce moment là de voir le potentiel de traitement qui se dégage de cette possibilité.

La démocratisation des SSD et de la mémoire vive qui suivra ainsi que les possibilités de calculs complémentaires offertes par les processeurs ainsi que l’évolution des logiciels vont rendre le montage vidéo autrement plus simple que par le passé. Je me souviens d’avoir monté des configurations combinant des disques SCSI 10 000 tours en RAID juste pour tenter de monter des petits bouts de vidéo sur PC pour des clients. Assemblé des machines en parrallèle pour effectuer des calculs pour d’autres. Des solutions qui coutaient véritablement des fortunes et qui sont aujourd’hui disponibles à des prix finalement très abordables dans des portables grand public.

Les premiers serveurs Nvidia GRID

Dernier truc qui m’a marqué dans les 25 années de l’aventure GeForce. Le GRID, ou plutôt ce que nous appelons aujourd’hui GeForce Now. Lorsque j’ai découvert le projet au CES 2013, j’ai immédiatement compris son immense potentiel. Les ingénieurs de Nvidia présents à l’époque expliquaient alors comment ils avaient pensé les nouvelles générations de leurs puces graphiques pour qu’elles soient aussi bien capables de diriger le flux de leurs calculs vers un affichage que vers un réseau.

J’ai pu ensuite voir ensuite Nvidia placer ses pions et avancer pas à pas pour dessiner l’offre GeForce Now que l’on connait aujourd’hui. Une offre qui permet de jouer sur quasiment n’importe quelle machine avec une carte graphique déportée sur un serveur externe et qui fait que mon PC Core i5-9600KF équipé d’une GeForce RTX 2080 peut lancer tout type de jeux ultra exigeant aujourd’hui sans qu’il ne fasse un bruit de fusée au décollage. Mais aussi parce que cela me permet de jouer avec des MiniPC aussi bien qu’avec une configuration haut de gamme, avec des portables ultrabasiques ou des ConsolesPC et cela sans trop craindre pour leur autonomie. Cette idée d’un usage déporté des performances par un outil que l’on peut ajouter à n’importe quel type de minimachine a évidemment tout pour me plaire.

Pour le futur Nvidia parle d’IA, comme tout le monde. Rappelant au passage que son architecture a été un des piliers qui a permis aux différents chercheurs et scientifiques de mettre au point la structure d’énormément de services qu’on voit aboutir actuellement. Un effort qui a été récompensé par une explosion de la valeur de la marque qui reste le premier fournisseur de solutions de calcul pour les différents serveurs de ces services.

Avec les circuits RTX, Nvidia a intégré des fonctionnalités d’IA dans les PC depuis 2018. Les outils comme le DLSS ont fait leur apparition et ont offert à de nombreux joueurs la possibilité de toucher du doigt des jeux dans de bonnes conditions. Pour le futur la marque s’intéresse à d’autres possibilités avec l’IA. Avec le jeu et l’ouverture de dialogues générés par un moteur afin d’adapter la narration et les scénarios. Mais Nvidia pourrait également ouvrir la voie à des usages alternatifs au même titre que le CUDA a permis aux créatifs de se lancer dans des tâches lourdes avec des PC classiques. Les possibilités de calcul des futures GeForce RTX en terme d’IA sans sans doute loin devant ce que les NPU intégrés dans les processeurs actuels promettent. Une GeForce RTX 4090 propose l’équivalent de plus de 1300 TOPS, un chiffre différents des 50 TOPS de NPU réclamés par Microsoft pour que l’utilisation des fonctions Copilot de Windows 11.

Si demain les GeForce offrent le même impact d’usage en IA qu’elles en on eu avec les logiciels créatifs et en jeu vidéo, le futur nous réserve peut être de plus belles surprises que ce que nous fait miroiter le marché aujourd’hui.

Minimachines.net en partenariat avec Geekbuying.com
25 ans de GeForce : 3 anecdotes perso sur l’épopée de Nvidia © MiniMachines.net. 2024.

Nvidia Shield TV, une nouvelle mise à jour se déploie

11 octobre 2024 à 11:46

Les Nvidia Shield TV et Shield TV Pro vont recevoir une nouvelle mise à jour. La dernière date un peu mais c’est assez logique, la marque est arrivée depuis longtemps à la fin des optimisations possibles de sa solution Android. Aujourd’hui, elle se consacre surtout à des correctifs de bugs plus qu’à des ajouts de nouveautés techniques.

2019-10-17 23_46_34-minimachines.net

La première Shield TV est sortie en 2015, elle a été remplacée en 2017 par une version optimisée avant d’être renouvelée en 2019 avec un modèle Pro en forme de tube plus discret. De 2015 à aujourd’hui Nvidia a proposé 9 années de mise à jour. Un fait extrêmement rare pour un système Android puisque en général ces engins sont abandonnés par les marques quelques années après leur commercialisation. La Shield a bénéficié d’un soin particulier de la part de Nvidia parce qu’il s’agit d’un engin dont la durée de vie est importante. La puce Tegra embarquée a été conceptualisée il y a plus de 10 ans et fonctionne encore sans problèmes majeurs, la robustesse d’un format de salon et le prix plus élevé demandé par Nvidia que la majorité de ses concurrents explique sans doute la longévité du produit. Quand les sous marques vendaient des engins Android TV plus ou moins frelatés avec zéro support à 30€, Nvidia exigeait 200€ pour sa TV-Box. Assez pour assurer un vrai service après vente 9 ans après la sortie du produit et ainsi éviter de jeter littéralement 30€ à la poubelle tous les 6 à 12 mois.

2019-10-17 23_43_36-minimachines.net

Aujourd’hui donc, même si le correctif n’a pas encore été déployé en France, la Shield a droit à une mise à jour technique. Au menu des corrections assez variées qui ont été remontées au service de développement de Nvidia.

On retrouve ainsi des corrections logicielles de bugs divers, des ajustements matériels pour des scénarios rencontrés par les utilisateurs avec la gestion des casques, des formats HDMI, des formats d’affichage plus ou moins exotiques, le pilotage USB de différents accessoires de stockage. Une meilleure gestion également  des DRM. La liste complète est proposée un peu plus bas. 

Un point important est l’apparition d’un outil Match Frame Rate qui est en beta. C’est important pour deux raisons. D’abord parce que Nvidia qui ajoute une fonction Beta à sa Shield laisse sous entendre que des versions finales pourraient y être ajoutées par la suite et que par conséquent la Shield n’a pas ici droit à sa dernière mise à jour. Le travail d’optimisation, de services et de correction continue. Ensuite parce que le Match Frame Rate pourrait bien aider certains propriétaires de téléviseurs à prendre mieux en charge leurs contenus. L’idée est de proposer un ajustement en temps réel des contenus pour qu’ils soient adaptés aux limitations de votre affichage. Cette fonction est activable dans vos préférences. La version 33.2.0.252 n’étant pas encore disponible en France je n’ai pas pu l’essayer.

Il est probable que la mise à jour locale se fasse après vérification auprès des différents acteurs locaux de streaming qu’elle ne pose pas de soucis techniques, pour éviter d’interrompre la diffusion de vos programmes suite à un bug de gestion de DRM par exemple.

Second HotFix (33.2.0.252) deployed 10/8/2024:

Match Frame Rate (beta) enhancement
Resolves issue with SHIELD drive filling up
Fixes the issue of No audio heard when headset is connected to controller and DAP is on
Resolves issue of Geforce now crash after launch
Ability to clear HDMI 1.4 flag via factory reset
Fixed video distortion on « RGB 8-bit Rec.709 » display mode
Resolved USB HDD/Flash drive showing corrupted after hotplug
NAS folder info shows 0 B and not the actual capacity
Mounted storages aren’t listed after upgrade
Fixes occasional crashes in DRM apps

Minimachines.net en partenariat avec Geekbuying.com
Nvidia Shield TV, une nouvelle mise à jour se déploie © MiniMachines.net. 2024.

La première « vraie » carte graphique a 25 ans et c’était une révolution

Par : Hugo Bernard
11 octobre 2024 à 08:24

Le 11 octobre 1999, le petit monde des cartes graphiques connaissait un bouleversement : la Nvidia GeForce 256. Le début d'une révolution pour l'industrie de l'informatique grand public, mais pas seulement. Entre jeux vidéo, cryptomonnaies et setups puissants, rétrospective sur le point de départ d'une série iconique : les GeForce.

Nvidia GeForce RTX 2050 : le chaînon manquant

25 septembre 2024 à 08:05

Mise à jour du 25/09/2024 : Le PC Skillkorp sous RTX 2050 est désormais disponible à 699€ chez Boulanger.

Billet original du 18/09/2024 : Il y a quelques temps, j’ai commencé à chercher une machine équipée d’une puce GeForce RTX 2050. La longévité de cette offre m’intriguait. J’ai donc contacté plusieurs marques qui proposaient la puce dans leurs portables pour essayer de mettre la main sur une de ces machines.

Le Skillkorp P17R2050

Peine perdue, les constructeurs n’ont pas ce type d’engin dans leur parc de prêt. Ils préfèrent miser sur le haut de gamme et les machines les plus standard. Le GeForce RTX 2050 ne semble pas être leur principale préoccupation et on peut les comprendre. On m’a proposé des engins en RTX 40×0 sans soucis mais impossible de trouver la carte qui m’intéressait. Et puis, il y a quelques temps, Nvidia m’a proposé un portable équipé de ce circuit. Un engin assez particulier puisqu’il s’agit d’une machine construite par Asus mais vendue sous la signature de Skillkorp. Une marque qui appartient à la chaine de magasins Boulanger. Peu importe, mon intérêt était toujours là et je voulais comprendre pourquoi le RTX 2050 était encore présent sur le paysage actuel.

Il faut dire que la puce parait un peu anachronique en 2024. Pourquoi Nvidia persiste à proposer ce circuit graphique quand il dispose dans son arsenal des RTX 3050 et autres RTX 4050 ainsi que tous leurs dérivés. On peut légitimement se poser la question de la pertinence de ce choix technique. J’ai fini par comprendre le pourquoi de cette puce en manipulant la machine. Au final, l’existence de ce RTX 2050 est devenu une évidence.

Le RTX 2050 est un croisement entre deux gammes, un positionnement clairement étrange d’un point de vue technique mais qui a du sens quand on prend un peu de recul. Annoncée à la fin de l’année 2021, la puce de Nvidia est arrivée en magasin au printemps 2022 avec de premiers portables à l’employer sur des solutions milieu de gamme. C’est une construction assez étrange, on aurait pu s’attendre à une architecture Turing comme pour le reste des RTX 20 mais il n’en est rien, c’est bien une solution de la génération Ampère qui est au coeur de ces cartes. La génération des puces intégrées aux RTX 30. Problème pour Nvidia alors à l’époque, avec un RTX 2050 et un RTX 3050 basés sur la même architecture, il existait un gros risque de doublon.

La solution trouvée a été simple, si la puce de base est la même, un GA107, les 2050 sont équipées de 2048 cœurs CUDA seulement. Les RTX 3050 sont, suivant les modèles, livrées avec de 2304 à 2560 cœurs de ce type. La fréquence de boost est identique à celle de la RTX 3050 de base, 1477 MHz. Mais Nvidia a également choisi de sabrer d’autres éléments de son dispositif. Et pas n’importe lesquels, les plus sensibles à un usage vidéoludique.

Le bus mémoire est laissé à 64 bits, contre des solutions de 96 à 128 bits suivant les modèles de RTX 3050. On se retrouve donc avec une bande passante de 112 Go/s au mieux pour 4 Go de GDDR6. Les 3050 sont proposées en 6 ou 8 Go de GDDR6. Pour résumer l’état des lieux, la GeForce RTX 2050 est une GeForce RTX 3050 à l’interface mémoire sabrée et dont le GPU affiche une fréquence moins élevée mais établie autour de la même architecture. Est-ce que cela a du sens ? Oui et non, cela dépend grandement de comment vous regardez la solution.

RTX 2050 : le nouvel entrée de gamme mobile de Nvidia

Le problème rencontré par la puce graphique vient de son nom. L’adage dit que quand on réfléchit comme un marteau, on a tendance à voir tous les problèmes comme des clous. Et les trois lettres RTX font voir à la majorité des utilisateurs la puce comme une solution de « gaming » pur et dur et donc à la juger comme telle. C’est à mon avis une erreur. Si on regarde la RTX 2050 comme une solution orientée jeu, elle n’a pas de sens. On sera forcément déçu de ses performances par rapport à des puces comme une RTX 3060 ou une encore plus récente RTX 4050. La puissance embarquée est limitée par les choix fait par Nvidia qui ne considère pas à mon avis cette solution vraiment dans une orientation purement ludique.

Cela ne veut pas dire qu’on ne pourra pas jouer avec, elle est même tout à fait capable de lancer des jeux. Simplement, elle n’a pas été pensée pour cela. Son objectif est différent. L’idée pour Nvidia est de trouver une cohérence technique et marketing dans sa gamme. Difficile pour la marque de mettre en avant ses technologies maison sans pouvoir les adresser à toute leur gamme de processeurs graphiques.

La RTX 2050 n’est pas une puce dédiée au jeu, c’est une solution entrée de gamme qui ouvre une porte sur les usages d’une machine moderne. Elle propose des fonctions CUDA qui seront exploitables pour des programmes créatifs, la possibilité d’exploiter des fonctions de décompression vidéo avancées, des capacités DLSS pour améliorer la fluidité de certains jeux, du Raytracing pour en augmenter la qualité d’image et des possibilités d’affichage vidéo haut de gamme. Bref de quoi transformer un ordinateur basique avec un circuit graphique embarqué en une solution ayant de plus grandes possibilités.

Cela ne vous rappelle rien ? C’était le credo pendant très longtemps des circuits MX de Nvidia. Des puces entrée de gamme qui proposaient un peu plus de performances que les circuits graphiques des processeurs AMD et Intel de l’époque. Ces MX450, MX550 et autres MX570 ont quasiment disparu, justement parce que le public ne comprenait plus leur intérêt face à la montée en puissance des performances des solutions embarquées dans les nouveaux circuits d’AMD et d’Intel. 

Le RTX 2050 est en quelque sorte le nouveau circuit MX. Une solution qui propose un peu plus que l’offre de base mais qui permet surtout à Nvidia de pouvoir communiquer de manière cohérente sur les nouveaux services de sa gamme. Comment expliquer à ses clients que ses cœurs CUDA sont si importants si son entrée de gamme n’en possède pas ? Comment vanter les mérites du Raytracing ou du DLSS en omettant cette fonction sur certaines puces ? Au final cette solution graphique permet a Nvidia de considérer sa gamme comme un tout et d’avancer ses pions sans risquer la critique. Même avec une RTX 2050, on peut monter des vidéos confortablement, lancer un programme de retouche d’image accéléré matériellement et jouer correctement en 2D comme en 3D. Bien sûr, ce ne sera pas au niveau des autres cartes de la gamme et les RTX 3050, RTX 4050 et supérieures écraseront rapidement les prétentions de la RTX 2050 en jeu. Mais ça sera possible. Et même assez confortable.

RTX, des lettres de noblesse qui mènent à une situation paradoxale

Evidemment le défaut de cette stratégie est qu’il est difficile de ne pas considérer le « RTX » de l’offre comme un indice d’orientation « Gamer ». Nvidia en est d’ailleurs responsable puisqu’il a communiqué largement sur le côté performance de sa gamme GeForce. Et de fait, si la 2050 peut jouer, et encore une fois elle n’est pas du tout incompétente sur ce poste, ce sera sans commune mesure avec ce que proposent des engins sous 4060 aujourd’hui. J’aurais même tendance à dire qu’embarquer dans un portable estampillé « Gamer » un RTX 2050 n’est pas forcément très sérieux de la part des fabricants. Ces engins peuvent lancer énormément de jeux dans de bonnes confitions mais je suppose que leur principal intérêt c’est surtout de pouvoir tout faire très correctement : bureautique, création, média, surf tout en permettant de jouer pour un budget restreint.

Comme vous le verrez plus bas avec le Skillkorp, il est tout à fait possible de jouer confortablement avec une RTX 2050 et cela reste vraiment au dessus des performances que l’on va demander à un portable sans circuit spécialisé aujourd’hui. Mais est-ce logique d’appeller un PC sous ce circuit graphique un PC « Gamer » ? Ca l’est si on se place face aux solutions sans circuit graphique spécialisé. Mais ca l’est beaucoup moins quand on voit le reste du marché actuel autour des RTX 40xx.

J’ai tendance à voir l’offre des cartes graphiques comme une salle de concert. Tout le monde vient voir le même spectacle mais les billets les plus chers permettent d’approcher la scène au plus près. Les billets les moins chers vous donnent une vision et un son indirect ou lointain. On transforme un spectacle avec des humains identifiables sur scène en quelques points qui se déplacent au loin.

C’est un peu la même chose pour le jeu vidéo et les cartes graphiques. Des artistes mettent en scène un jeu avec des tonnes de détails, des animations, des textures, des ombres et des effets variés pour créer une épaisseur graphique, une ambiance globale dans le jeu. Le possesseur d’une carte graphique haut de gamme profitera de l’entièreté du spectacle en haute définition de manière fluide. Avec une carte plus entrée de gamme, on aura droit au même jeu mais en plus basse définition, avec des textures moins subtiles, un ombrage absent et moins de détails d’environnement. C’est le même spectacle mais pas les mêmes sensations. Les deux répondent à des envies et des budgets différents. La RTX se situe sur l’entrée de gamme « joueur ». Les circuits graphiques embarqués d’Intel, AMD et Qualcomm se positionnent souvent en dessous.

Le problème est que cette entrée de gamme est devenu invisible, il a totalement disparu des radars. Cette situation vient d’un marché d’excellence porté autant par les studios de développement que les concepteurs de puces, les fabricants et les médias. Comme aucun constructeur ne veut prêter de machine entrée de gamme équipée de circuit comme la RTX 2050. Le regard du public sur les portables à destination des joueurs vient uniquement de l’autre côté du spectre. Les machines équipées de RTX 4060 et RTX 4070, par exemple, sont souvent étudiées. Des modèles très haut de gamme sous RTX 4090 sont également régulièrement testés. Leurs résultats définissent un marché pourtant totalement inaccessible à la plupart des bourses. Et ce faisant, ils décalent l’appréciation du marché de manière particulière.

Le haut du podium est trusté par des engins à plus de 3000 euros pour atteindre des 4000, 5000 et même plus de 6000 euros. Ces portables d’exception ont du sens, ils sont rapides, efficaces, généralement extrêmement bien construits et sans fausse note technique si ce n’est un look parfois tapageur. Leur niveau de performance efface les configurations beaucoup plus accessibles des radars et les acheteurs de solutions plus petites le font souvent par dépit. Parce qu’il ne serait pas raisonnable d’investir un tel budget dans un PC. La fenêtre d’observation des performances que l’on estime alors normale pour un PC de jeu est donc située dans un espace compris aujourd’hui entre le RTX 4070 et le RTX 4090, les modèles en dessous ne sont pas analysés. Au final, tout le monde juge le marché à partir de données hors marché.

Le RTX 2050 a également été une cible facile pour de nombreux influenceurs qui ne payent généralement pas leurs machines

On n’imaginerait pas juger le prix moyen d’un repas quotidien en se basant sur un tarif se situant entre la bonne brasserie et le restaurant étoilé. Chez soi, on ne dépense pas entre 30 et 150€ par personne à chaque repas. C’est pourtant cette vision du marché portable qui est dessinée par les tests. Les machines qui servent d’étalon pour juger l’ensemble du secteur n’ont rien à voir avec ce que peuvent s’offrir la majorité des clients. Il y a une énorme dissonance entre le budget des acheteurs et la mise en avant proposée par les marques. Ce n’est clairement pas nouveau mais ces dernières années cela a pris des proportions de plus en plus extravagantes avec la hausse globale des tarifs des circuits graphiques.

Et si je constate que ce portable Skillkorp est tout à fait compétent dans un usage de jeu classique et familial, je n’arrive pourtant pas à trouver de commentaires élogieux autour d’une machine sous RTX 2050. Ces puces ne sont clairement pas en lice pour devenir des solutions de portables haut de gamme mais elles ont toutes leur place dans un univers familial. Alors qu’est-ce qui cloche ?

Les joueurs équipés de grosses cartes n’aiment pas l’entrée de gamme

Je ne suis pas un sociologue du marché informatique mais j’ai pu constater à de nombreuses reprises un mépris très clair pour les composants jugés comme « entrée de gamme ». D’abord dans mes rencontres avec des lecteurs, en discutant avec des journalistes spécialisés, des vendeurs ou de simples clients. Les gens n’aiment pas les processeurs ou les puces graphiques entrée de gamme. Et très souvent ils en parlent en se basant sur un a priori très fort plus que sur une expérience vécue.

Les puces MX450 ou MX550 de Nvidia ou les processeurs Intel Celeron, par exemple, ont étés catalogués comme inutilisables par des utilisateurs qui n’en possédaient pas et qui ne les avaient jamais vus en action. Tous les jugeaient impropres pour leur usage alors que ces puces correspondaient en fait très souvent à leurs besoins.

Des cartes comme les RTX 2050 ou RTX 3050 sont mises de côté comme un entrée de gamme presque infâmant pour un utilisateur « qui se respecte » ai-je pu entendre dans la bouche d’un client de grande surface. Pourtant son profil était parfaitement dans l’axe de ces puces graphiques : joueur très occasionnel et usage surtout bureautique de sa machine. Il allait partir sur une carte autrement plus onéreuse pour satisfaire une idée de puissance informatique qu’il fantasmait au vu de ses jeux préférés. Avec un argument toujours très fort de se dire qu’il achetait pour que ça « dure longtemps ». 

Je crois sincèrement qu’il y a une détestation des RTX xx50 du simple fait de leur appartenance au même groupe « RTX » que les cartes plus haut de gamme. Comme si cela créait une certaine porosité entre les puces. Le circuit 4050 est jugé comme presque infâmant. Le 4060 commence a être quelque chose et avec une dizaine de plus, le 4070 est enfin assez « loin » du 50 pour que l’acheteur se sente rassuré. Vu les investissements en jeu avec des prix de plus en plus élevés, on ressent un discours assez fort sur la peur des clients de voir leur circuit graphique déclassé au simple gré d’une mise à jour. Comme si le niveau de performance d’une carte était un élément de positionnement social au même titre qu’une voiture ou un habit. Et de fait, en ligne, personne ne va vous juger sur votre manière de vous habiller. Par contre si on vous demande quel matériel vous utilisez, alors vous aurez des réactions plus ou moins gênées de la part des moins bien lotis.

Certains groupes de joueurs en équipe n’acceptent pas les personnes n’ayant pas un niveau de performances minimal avec leur PC. D’autres vont charrier un joueur qui débarque avec une « 50 » ou un circuit graphique intégré à son processeur en jeu. Et ce joueur de s’excuser presque en promettant de « mettre sa config’ à jour » quand il pourra. Ces réactions sont assez évocatrices du désamour de ces puces et cela même si le jeu est finalement parfaitement possible avec une configuration parfois trois fois moins chère que d’autres joueurs en ligne. 

Les internautes « experts » aiment détester les RTX xx50 parce que cela leur permet de se positionner au dessus. Et cela même si finalement les puces sont parfaitement adaptées à la majorité des scénarios du quotidien des gens qu’ils vont mal conseiller.

Le RTX 2050 apporte des solutions invisibles aux utilisateurs

J’ai pu lire dans les commentaires de Minimachines des intervenants estimer que les MX450 ou MX550 n’avaient aucun sens pour des portables. Parce qu’ils n’étaient pas beaucoup plus performants que les circuit intégrés dans des puces modernes. Et c’est vrai, du moins en partie. Si on les considérait que sous l’angle des performances brutes en jeu en face du haut de gamme de l’époque – Le Ryzen 5900HS alors – le gain proposé par le MX550 n’était pas formidable. Et si les autres aspects proposés par la puce comme les accélérations matérielles des applications vidéo et graphiques n’étaient pas prise en compte, alors on ne voyait pas vraiment leur intérêt. En oubliant au passage que les Ryzen capables de rivaliser avec les MX550 n’étaient évidemment pas vendus seuls mais le plus souvent dans des configurations moyennes et haut de gamme avec un circuit graphique secondaire et qui explosaient le plafond du prix des machines équipées de Nvidia MX.

Ce même internaute – d’après son pseudo – a jugé quelques années plus tard ne pas comprendre l’intérêt des RTX 2050 pour les mêmes raisons. Et cela même si le circuit embarqué proposait alors de bien meilleures performances en 3D et toujours plus de fonctionnalités annexes pour la créativité, les usages vidéo et autres. La morale de cette vision est claire, l’entrée de gamme ne plait pas parce qu’une catégorie d’internautes ne voit pas pourquoi on achèterait pas un PC sans un niveau de performances suffisant pour lancer le dernier jeu triple A à la mode dans les meilleures conditions possibles. Même si le but de la machine est tout autre.

Du coup, comment faire pour que Nvidia, AMD ou Intel puissent proposer des circuits entrée de gamme sans se faire pousser dans les cordes par des gens qui vont juger leurs produits sans les connaitre ? Alors même qu’ils ne s’adressent pas à eux ? C’est une autre des particularités des internautes spécialistes, ils adorent critiquer des produits en se basant uniquement sur leur approche du marché. Et on voit très souvent survenir sur les réseaux sociaux un « expert » sorti de nulle part expliquer que sa configuration à cinq fois le budget demandé, est meilleure.

Il y a pourtant d’énormes différences d’usages potentiels entre une machine AMD, Intel ou Qualcomm avec un circuit graphique intégré au processeur et une autre avec un circuit graphique comme la RTX 2050. Les cœurs CUDA de ces cartes Nvidia permettent énormément de choses en plus : outre le DLSS et le RTX pour le jeu, il y a tous les usages créatifs qui entrent en scène pour la vidéo, la photo et le développement d’images. En désactivant les fonctions CUDA sur ce type de portable, on ne retrouve absolument plus la même machine en usage graphique. Les fonctions annexes comme le profilage des jeux et le réglage automatique des paramètres qui va permettre de profiter au mieux des titres suivant son matériel est un vrai service. Et bien entendu, la fonction Optimus qui offre à l’utilisateur un saut invisible entre le circuit graphique du processeur et le circuit embarqué Nvidia pour choisir le meilleur ratio de performances et d’autonomie est un gros avantage technique.

Il y a enfin qu’une puce comme la RTX 2050 embarque sa propre mémoire vive et ne dépend donc pas de celle du système pour fonctionner. Et quand on doit charger des informations spécifiques à un jeu sur un système avec 8 ou 16 Go de mémoire vive, qu’on fonctionne sous Windows et qu’on gère d’autres tâches en prime, cela fait une énorme différence. Passer de 8 Go à 6 pour le système qui va faire tourner le jeu parce que 2 Go seront requis pour des textures n’est pas confortable. Désengorger la mémoire en utilisant de la GDDR6 très rapide sur un circuit externe indépendant est évidemment un avantage.

Une situation complexe pour les constructeurs

Je n’ai aucune solution miracle pour que les marques puissent mieux communiquer sur leur entrée de gamme afin de mettre en valeur ce genre de puces, je ne suis même pas sûr qu’ils en aient envie, mais j’ai peut être quelques conseils. D’abord une volonté d’encourager les marques à prêter plus de machines de ce type. Simplement pour que la fenêtre d’observation du marché ne soit pas coincée entre le moyen de gamme et le très haut de gamme. Cela permettra de relativiser les performances et donc les usages. Si le grand public pense qu’en dessous de 100 images par seconde tous détails à fond en 1440P, un jeu n’est pas jouable, vous truquez vous même le marché.

Communiquer sur les solutions entrée de gamme, comme le RTX 2050, avec autre chose que des arguments « Gamer » serait aussi une bonne idée. Les puces proposées sont capables d’énormément de choses mais ne font pas forcément le poids sur le jeu pur. Changer d’angle permet de sortir de l’ornière de la comparaison la plus facile, celle d’un benchmark idiot qui va analyser le nombre d’images par seconde de chaque carte et oublier tout le reste. En intégrant ce même PC Skillkorp dans un châssis plus classique, vous ne séduirez peut pas les joueurs mais vous répondrez aux filtres familiaux. Les joueurs acharnés ne jugeront de toutes façons pas la solution comme satisfaisante pour leur loisir.

Que conclure sur cette première partie bien trop longue ? Que le RTX 2050 est un processeur graphique d’entrée de gamme tout comme il en existe chez AMD et  Intel. Que l’entrée de gamme d’aujourd’hui n’est plus celui d’il y a seulement 5 ans. Que ces puces sont capables de faire énormément de choses et qu’il faut apprendre à les mettre en valeur. Ce ne sont pas des circuits à vocation de jeu trop intense mais qui apportent un vrai confort d’usage au quotidien pour un prix bien plus acceptable que des configurations de jeu classiques.

Venons en au portable Skillkorp P17R2050

Le P17R2050 n’est pas vraiment une minimachine mais c’est donc le seul engin que j’ai pu prendre en main avec ce type de configuration. Et pour commencer je tiens à souligner le confort qu’il propose. C’est un portable de 17.3 pouces de diagonale avec une dalle assez classique. Il s’agit d’une solution de type IPS aux larges angles de vision avec une définition de 1920 x 1080 pixels. Cela donne un affichage très lisible et confortable pour tous les usages. Le rafraichissement est élevé avec 144 Hz. De quoi donner souvent l’impression d’avoir sous les yeux plus une image imprimée qu’un écran de PC. Ce confort de l’affichage est une donnée importante de l’équation posée par le P17R2050. C’est avant tout un ordinateur familial capable de lancer des jeux plus qu’un PC gamer pur et dur. Et avec ce type d’écran tout le monde peut se servir de la machine sans soucis, quel que soit son âge et ses éventuels problèmes de vue.

L’écran n’est pas des plus lumineux avec 250 nits seulement quand des ultraportables récents affichent entre 500 et 600 nits. Mais cela correspond au profil de cette machine qui n’est pas vraiment pensée pour être sortie à une terrasse de café ou posée sur un plateau de siège de TGV. Pas besoin de lutter contre la luminosité ambiante donc, en intérieur les 250 nits suffisent dans la majorité des cas. La colorimétrie est également assez basique avec un maigre 62.5 % de la gamme sRGB et moins de 50% de la gamme Adobe RGB. Ce n’est pas fameux mais encore une fois on n’est pas sur un engin destinés au créatifs pour du développement photo pro ou du montage vidéo calibré. Les tons sont corrects, l’image est bien contrastée, cela répond au cahier des charges voulu par la marque.

La protection anti reflet et le rendu global sont agréables et pour un usage classique de l’engin, cela donne une image reposante et fiable. Le fait que l’affichage soit enserré dans des bordures très fines est un aspect très appréciable de la proposition puisque cela place l’écran 17.3″ dans un châssis de 15.6″ plus classique.

La machine ne mesure pas tout à fait 40 cm de large pour 26.9 cm de profondeur et 2.48 cm d’épaisseur à son point le plus élevé. Elle pèse 2.6 Kilos. C’est à n’en pas douter plus un transportable qu’un portable mais on peut sans soucis la balader d’un lieu à un autre dans une sacoche et d’une pièce à l’autre en la gardant en main. Là encore on est sur une machine familiale qui servira a faire sa comptabilité ou rédiger des courriers dans un bureau, faire ses devoirs et jouer dans une chambre avant de regagner le salon pour choisir ses vacances en famille sur le net ou afficher un film sur le téléviseur. 

La configuration technique est très correcte avec un Ryzen 5 7535HS composé de 6 cœurs zen 3+ pour 12 Threads. Cette puce fonctionne de 3.3 à 4.55 GHz et propose 16 Mo de mémoire cache L3. Elle tourne de 35 à 54 watts et embarque un circuit graphique Radeon 660M composé de 6 cœurs à 1.9 Ghz. Cette puce graphique travaillera donc en coordination avec le circuit graphique GeForce RTX 2050 grâce à la fonction Optimus de Nvidia. L’idée ici est de laisser le circuit graphique AMD intégré au processeur fonctionner dans les usages les moins exigeants et n’enclencher les capacités de la puce Nvidia qu’au moment opportun : pour du jeu, de la restitution vidéo très haute définition, des calculs 3D lourds ou de l’accélération graphique. 

La problématique posée par la partie RTX 2050 vient de sa gourmandise en énergie. Avec 70 Watts de TDP, la puce graphique va plus que doubler la consommation du processeur de base et faire appel à cette extension pourra mettre en péril l’autonomie de l’engin sur batterie tout en augmentant le besoin de refroidissement de l’ensemble. Le fait que le système jongle automatiquement entre les deux circuits graphiques apporte donc un certain confort. A la fois d’usage avec des performances ajustées mais également d’autonomie et de nuisance sonore. Le 17″ sait rester très calme niveau bruit lorsque l’on ne le sollicite pas au maximum. Son autonomie en usage mixte n’excède pas les 3H, c’est souvent le cas des portables avec un écran de cette taille.

La carte graphique Nvidia embarque 4 Go de mémoire GDDR6 qui lui est propre, le système quant à lui se base sur un double port SODIMM équipé de deux barrettes de DDR5-5600 pour un total de 16 Go de mémoire vive double canal. Il sera possible de le faire évoluer facilement en 32 Go de mémoire vive même si cela n’est pas forcément utile au vu du profil de cet engin. Le stockage est monté sur un SSD M.2 2280 de 512 Go au format NVMe PCIe 4.0 x4 aux performances très confortables. A noter qu’un second port M.2 2280 NVMe PCIe libre est disponible sur la machine. L’accès à ces composants n’est pas compliqué, quelques vis à retirer au dos du portable.

La connectique est classique avec, pour commencer, un module M.2 2230 en Wi-Fi6 et Bluetooth 5.3 pour des débits sans fils rapides. En pratique l’accroche est excellente et les débits mesurés tout autant. L’installation de jeux via Steam ou Epic comme la mise à jour de Windows 11 se sont déroulés de manière très efficace. Si le passage par l’Ethernet Gigabit était plus rapide c’est surtout à cause d’un certain encombrement de mes réseaux sans fil. Je suppose que les antennes Wi-Fi profitent à plein de l’écartement disponible sur les angles de l’écran 17.3″. Un détail qui fait toute la différence par rapport aux MiniPC qui me passent entre mes mains d’habitude et dont les débits sont bien plus faibles. Bref, un poste de connexion sans fil très efficace lié à la taille de la machine.

Le reste comprend donc un Ethernet Gigabit, un USB 3.2 Gen 2 Type-C avec prise en charge du DisplayPort, trois ports USB 3.2 Gen 1 Type-A, une sortie vidéo HDMI 2.1 et un jack audio combo 3.5 mm. un port antivol type Kensington Lock est présent et l’alimentation se fait via un port jack propriétaire. Le bloc secteur est un modèle 150 watts en 20 volts et 7.5 Ampères.

Il est assez massif et propose un câble secteur fixe que l’on ne pourra pas retirer. Encore une fois, on est plus sur un transportable qu’une solution plus souple avec un câble secteur détachable. C’est tout de même un détail qui pourrait être corrigé. Devoir trimballer la prise d’alimentation avec le bloc et le portable alourdit encore un peu plus l’ensemble.

La partie ergonomique est bonne, on retrouve un clavier complet, rétro éclairé RGB une zone avec un touché chiclet agréable et sans flexion du support. La lisibilité des touches est excellente. Un point trop souvent oublié par les constructeurs qui pensent à la joliesse du dispositif avant son usage. Ce n’est pas le cas ici et on distinguera aisément lettres et chiffres pour une prise en main très rapide.

L’espace disponible sur le 17.3 pouces permet de proposer un pavé numérique complet. Les touches fléchées sont séparées du reste du châssis et les touches utiles comme le majuscule droite, la touche entrée ou le retour sont de bonne taille. On note également le léger décrochement en hauteur de la barre espace, correspondant au pouce de la main gauche. Celle qui appuiera sur les touches blanches rétroéclairées. Ce léger recul permettra de conserver une position de la main détendue pour un adulte, sans avoir à remonter le pouce constamment. Les raccourcis et touches de fonctions sont plus tassés mais restent accessibles et on remarque un changement avec des touches « blanches » à deux endroits. Le premier est lié à l’usage des touches ZQSD pour le jeu. Le second est un clin d’oeil au K de Skillkorp. La lettre est présente à plusieurs emplacements du châssis avec un rappel sur le pavé tactile et la coque. 

Pavé tactile qui semble un peu étroit, perdu dans le large et profond repose poignet de la machine, reste de bonne taille. Le P17R2050 est vraiment imposant et c’est plus une impression d’étroitesse qu’un véritable constat. Les boutons sont facilement accessibles et leur clic est silencieux. Petit détail tout de même, la coque est entièrement réalisée en ABS, point de métal ici. Si elle est assez épaisse et ne sonne pas en creux, le traitement de surface avec ses angles et son aspect brossé ne doivent pas laisser d’illusion sur les matériaux employés.

La partie audio est classique avec un module d’enceintes stéréo proposant une spatialisation de base. Le sticker DTS n’est plus vraiment une indication de haute qualité et le recours à un système d’enceintes Bluetooth ou un casque sera apprécié. On note sur ce point que la sortie jack 3.5 mm est au format Hi-Res et délivre un signal très correct sans parasites. La webcam est classique, 720P, elle profite des fonctionnalités Broadcast de Nvidia pour débruiter le signal vidéo si vous vous filmez dans une pièce sombre, permet d’améliorer le son des micros embarqués et offre des effets de changement de fond ou de floutage de l’arrière plan en temps réel. Tout cela grâce aux fonctions intégrées dans la carte graphique RTX. Le micro embarqué est juste passable, là encore le recours à un casque micro arrange la donne.

D’un point de vue confort d’utilisation, on note également un gros effort sur la ventilation dans tous les modes. L’engin ne se fait que rarement entendre. Il faut vraiment le pousser dans ses retranchements dans la durée pour avoir droit à une montée en puissance de la ventilation et donc du bruit généré. 

Pour parvenir à ce résultat, ce Skillkorp combine plusieurs éléments entre eux. Il y a d’abord l’espace disponible. Le 17.3 pouces est large et épais. Cela permet de proposer une aération conséquente des composants.

Il y a plusieurs aspirations d’air frais qui se combinent pour générer un flux important. Au dessus du châssis mais également en dessous avec des ouvertures juste à la perpendiculaire des aspirations de ventilateurs. Trois espaces d’ailettes permettent de repousser la chaleur en dehors de l’engin. Sur le côté droit mais aussi sur l’arrière. Au final, on note un usage assez calme du dispositif, même en jeu. Non seulement il ne monte pas trop dans les tours mais le bruit généré est stable et ne part pas dans les aigus.

Quels usages avec ce type de machine ?

Boulanger met en avant la gamme TUF d’Asus dont est issu cet engin pour le vendre comme un portable Gamer. Le design particulier, les finitions, l’esthétique et les ajouts comme le rétroéclairage RGB de la machine vont dans ce sens. Pourtant, encore une fois, ce n’est pas à mon avis la vocation pure de cet engin. On pourra jouer avec ce P17R2050 mais ce n’est pas vraiment son réel domaine d’expertise. A vrai dire cet engin n’a pas ce type de luxe. Ce n’est pas une solution de jeu ni une machine créative. C’est un engin familial plutôt classique destiné à remplir tout type de tâches du quotidien de manière très correcte.

La gestion du RGB AURA avec les touches fléchées

Pour autant, le trio Ryzen 5 7535HS, 16 Go de mémoire vive et RTX 2050 donnent de bons résultats dans de nombreuses tâches. Je ne m’appesantirai pas sur les travaux bureautiques ou le multimédia qui sont bien entendu pilotés sans faiblesses. Le surf en ligne est également très confortable avec cette machine.

Les usages créatifs en création et retouche d’image sous Affinity Photo 2 avec l’OpenCL ou Adobe Photoshop et la prise en charge des cœurs CUDA ou en développement d’image avec DXO Photolab se passent sans problème. L’accélération materielle CUDA sous DaVinci Resolve est parfaitement opérationnelle et permet des enchainements de montage avec une prévisualisation en temps réel très confortable en FullHD. Le rendu est également pris en compte par le duo processeur et circuit graphique pour des traitements accélérés. L’ajout d’un second moniteur est parfaitement possible en HDMI ou DisplayPort et ouvre des usages créatifs complets et confortables.

Sous Fusion360 la réalisation d’un objet 3D pour impression tout comme sa préparation sous Orca Slicer se passent sans aucun souci. Les temps de découpage de l’objet créé ne sont pas des plus rapides par rapport à des solutions plus musclées évidemment, mais tout fonctionne. La lecture de vidéos UltraHD via Displayport ou HDMI sur un écran déporté, ou FullHD sur l’écran de la machine sont parfaitement gérés dans les codecs les plus exigeants.

D’un point de vue jeu, avec des concessions de qualité faites sur le rendu, la machine se débrouille fort correctement. 

Des exemples obtenus avec le portable SkillKorp ? J’ai pu tester une liste assez classique de jeux plus ou moins gourmands avec la machine et tout est jouable en FullHD. Parfois avec plus ou moins de confort mais toujours assez correctement. CyberPunk 2077 par exemple sort à 35 images par seconde avec des détails moyens. Ce n’est pas  merveilleux, ce n’est pas au niveau d’une solution du type RTX 4060 ou supérieure mais cela reste parfaitement exploitable. GTA V, plus tout jeune, tourne entre 90 et 100 images par seconde avec des détails sur haut. Warzone 2.0 atteint les 65/70 IPS en détails moyens avec le DLSS activé en mode qualité. C’est un des autres avantages de ce type de cartes graphique, pouvoir profiter de fonctionnalités comme le DLSS pour améliorer les performances en jeu.

Elden Ring, en détail moyens, fonctionne à 50 images par seconde. Genshin Impact 2 est à 60 IPS en détails haut. Forza Horizon 5 dépasse les 90 images avec de rares baisses à 85 toujours pour du 1080P en détails moyens. Horizon Zero Dawn en DLSS réglé sur Qualité offre 50 à 55 images / seconde en détails moyens. Parmi les plus récalcitrants, Red Dead Redemption II est à 55-60 IPS en 1090P en mode équilibré et DLSS activé en réglage Qualité.

Ce ne sont pas des scores de PC « Gamer » dans le sens où ces titres sont largement au dessus de 60 images par seconde en détail haut sur des ordinateurs portables avec un circuit graphique plus performant. Mais cela permet de répondre à la question de la jouabilité proposée par la RTX 2050 et l’intérêt de celle-ci sur des machines équipées d’un circuit graphique intégré au processeur.

Au final, c’est une bonne machine d’un point de vue performances et robustesse, toujours dans une optique familiale. Peut être que son plus gros défaut est un bas de caisse est un peu mou. La partie arrière du PC qui protège la carte mère a en effet tendance à s’enfoncer un peu trop quand on appuie dessus. Probable conséquence du nombre de ses ouvertures. Pour autant cela reste un engin solide. 

Du Skillkorp P17R2050 en particulier

Ce portable est proposé par Boulanger à un prix que j’ai débord jugé assez mal positionné. Affiché à 799€ au moment où j’écris ces lignes, je trouvais l’appareil bien trop cher face à la concurrence. Avant que je la regarde plus en détail, cette concurrence. Ma première idée était qu’un ordinateur équipé d’une RTX 2050 ne pouvait pas couter ce prix là. Preuve que moi même je peux tomber dans des idées préconçues autour de ce type de cartes graphiques. Au final, je n’ai rien trouvé d’équivalent sur le marché. Je ne dis pas que c’est le prix le plus adapté ni celui que j’espérais mais c’est un prix logique si l’on regarde les offres concurrentes.

Je ne sais pas comment Boulanger fonctionne dans ce schéma en mettant Asus dans la boucle comme fabricant. Quelles marges sont réalisées par chacun des intervenants. Je sais par contre que la distribution locale de Boulanger via sa chaine de magasins l’oblige à une distribution plus particulière que ses concurrents.

A 799€ en ligne comme en magasin, cet engin n’est pas un mauvais placement en soi, c’est juste qu’en regardant autour sur le marché, un connaisseur va trouver autre chose de mieux équipé pour un budget identique. Avec toutefois une petite différence, l’absence de système d’exploitation. Sans Windows embarqué on peut trouver des machines plus performantes assez facilement. Mais le public de Boulanger n’a pas forcément les connaissances nécessaires pour installer un Windows, pire, il ne sait peut être pas comment acheter une licence à part pour moins cher, ni utiliser un système Linux. Le prix du Skillkorp se justifie donc ainsi.

On peut par exemple trouver chez CDiscount un PC Erazer 15.6″ FullHD avec un Core i5-12450H, 16 Go de mémoire vive et 512 Go de stockage et une GeForce RTX 4060 qui sera plus rapide que la RTX 2050. Ou alors sur Amazon, pour 749.99€, un Portable Lenovo 15.6″ Core i5-12450H, 16/512 Go également, avec une RTX 4050, toujours sans système. D’autres choix, d’autres équipements.

Que conclure ? La machine est bonne, bien construite, avec des composants bien choisis. La mode est aux « PC Gaming », un segment qui connait des taux de croissance des ventes assez motivant pour pousser ce Skillkorp à tester cette aventure. Il m’est avis que sous un design classique, l’engin serait invisible dans l’offre actuelle malgré son efficacité. Reste que c’est avant tout une machine familiale et efficace pour un budget relativement serré.

 

Minimachines.net en partenariat avec Geekbuying.com
Nvidia GeForce RTX 2050 : le chaînon manquant © MiniMachines.net. 2024.

❌
❌