Vue normale

À partir d’avant-hierFlux principal

Pourquoi et comment recycler sa batterie de véhicule électrique

22 octobre 2024 à 16:43

Recycler sa batterie est déjà devenu un sujet important aujourd’hui mais cela risque de devenir un problème majeur dans les années à venir. Avec la mode des NVMe et des vélos électriques, énormément de véhicules qui commencent à prendre de la bouteille, vont rencontrer un problème de durée de vie de cet élément.

Une batterie de vélo amovible

Une batterie c’est une petite usine chimique portable. Elle a une durée de vie limitée en nombre de cycles. Qu’elle que soit la technologie employée, au bout de ce nombre de cycles, avec une petite tolérance de plus ou de moins, elle va commencer a donner des signes de faiblesses et a ne plus assurer le travail demandé. Sur un vélo électrique ou une trottinette cela se traduit en général par une baisse de l’autonomie. Suivant les modèles, au bout d’un nombre entre 500 et 700 cycles, votre batterie ne fera plus que 80% de son autonomie du départ. Ensuite en général cela va assez vite, l’engin a du mal a tenir 50% de son autonomie initiale avant de ne plus avoir de reprise et a se trainer à faible vitesse.

Cela correspond en général à une période allant de 3 à 5 ans d’autonomie correcte pour l’entrée de gamme et jusqu’à 10 ans pour les modèles les plus haut de gamme.  Cela étant évidemment très différente entre un long usage journalier par tout les temps sur une trottinette premier prix et une balade de temps en temps de 5 Km le Week-End avec un vélo haut de gamme. C’est aussi pour cela qu’il faut éviter les mauvaises pratiques avec les batteries comme les décharges profondes ou la charge systématique sur certains modèles qui ne bénéficient pas d’une électronique de contrôle. Charger la première fois sa batterie à fond, éviter une surcharge, stocker la batterie entre 10 et 25°C et la conserver propre et sèche tout en évitant absolument de la faire tomber.

Recycler sa batterie deviendra un problème tôt ou tard

Si votre véhicule électrique commence a donner de larges signes de faiblesses, il y a plusieurs choix possibles. Si vous l’avez acheté dans un magasin classique, vous pouvez alors y retourner pour vous renseigner sur l’achat d’une batterie de remplacement. Il est également possible de chercher une batterie de remplacement en ligne. Le prix est souvent élevé mais cela fera durer d’autant votre véhicule et cela peut donc avoir du sens autant écologiquement qu’économiquement.

Lorsque votre vélo ou votre NVMe dispose d’une batterie amovible, c’est assez simple. Il suffit de l’ôter et de la remplacer. Cela se fait sans trop de soucis et les informations techniques présentes sur l’étiquette de votre produit devraient suffire a vous indiquer un modèle de remplacement. Il existe des batteries officielles comme des clones pour les engins les plus populaires, à vous de choisir ce qui vous convient le mieux. Avec un véhicule qui ne dispose pas d’une batterie amovible, le mieux est de contacter un professionnel. Lui pourra la démonter et la changer sans risque. Cela vous coutera sans doute quelques euros, encore que l’on puisse sans doute demander un geste commercial si on achète la nouvelle batterie chez lui, mais c’est beaucoup plus sur que d’effectuer l’opération soit même. Si vous ne souhaitez pas garder le véhicule parce que trop abîmé, l’idéal sera de le ramener en déchèterie pour qu’il soit démantelé et que la batterie soit prise en charge par l’organisme qui assurera sa reprise.

Les trottinettes ont souvent des batteries encastrées sous le plateau, inaccessibles

Dans tous les cas n’essayez pas de manipuler une batterie qui serait abîmée, percée ou d’ouvrir la coque d’un appareil présentant des défauts d’étanchéité à son niveau. Il y a un vrai danger d’explosion et d’incendie. Les professionnels ont le materiel et l’expérience nécessaire pour assumer ce risque.

Certains lecteurs me posent également la question suite aux inondations de ces derniers trimestres en France. Les véhicules de ce type sont souvent stockés dans une cave ou un rez-de-chaussée et l’eau peut venir les immerger pendant plusieurs heures. Même si ils sont qualifiés d’étanches, ils n’ont pas été prévus pour cela. Si vous avez été victime d’une inondation et que votre véhicule est hors service, contactez votre assureur pour connaitre la prise en charge possible. Si la batterie est amovible, stockez là à part dans un récipient métallique et si possible couverte de sable sec. 

Comment recycler sa batterie de vélo électrique ou de trottinette ?

Si vous avez acheté une nouvelle batterie amovible, ne stockez pas l’ancienne chez vous. Ne la jetez pas non plus à la poubelle classique ou de recyclage, cela pourrait être extrêmement dangereux pour le personnel qui ramasse les déchets en plus d’être potentiellement très polluant. De nombreux feux de poubelles mais aussi de stockage ou de camion poubelle démarrent à cause de ce genre de pratiques.

L’idéal est d’abord de protéger les connecteurs électriques de la batterie avec du ruban adhésif afin d’éviter tout court circuit. Puis  de transporter la batterie vers votre déchetterie locale, si tant est qu’elle prenne en charge ce type d’appareil. Le mieux est de vous renseigner au préalable en appelant le numéro indiqué par votre mairie. Certaines déchetterie n’ont pas le circuit de gestion adapté. L’autre solution est alors de contacter un vendeur de batterie. Entendez par là un vendeur de vélo électrique, de trottinette électrique ou de tout engin de ce type. La loi impose à tous les vendeurs de ces appareils de reprendre gratuitement les batteries usagées.

Le décret n°2009-1139 du 22 septembre 2009 impose aux producteurs de prendre en charge ces éléments qu’ils soient issus de leurs ventes ou non. La loi entend par « producteur » toute entreprise qui fabrique, produit ou importe des batteries. C’est pour cela que des groupes industriels et des chaines commerciales sont légalement tenues de reprendre votre batterie que vous ayez ou non acheté celle-ci ou votre véhicule chez eux. Et cela sans avoir a acheter quelque chose en retour.

La loi est très claire la dessus. La reprise des batteries est obligatoire pour tout professionnel qui distribue ce type d’engin. Et il suffit de vendre une référence de vélo électrique, de trottinette ou autre NVMe pour être considéré comme tel. Cette reprise doit être gratuite et sans obligation d’achat

En pratique les « producteurs » ont rarement1 la chaine logistique nécessaire pour prendre en charge la gestion de votre batterie. La très très grande majorité passe par un organisme tiers, certifié par l’état, qui va prendre en charge ces batteries. Et il faut bien comprendre une chose, leur participation à ce programme n’est pas liée au volume des batteries qui leurs sont confiées par magasin. C’est absolument sans conséquence pour eux, tout est pris en charge par un organisme agrémenté qui va valoriser les batteries tout en étant en partie financé par l’état. Qu’une enseigne ait a gérer 5, 10 ou 20 batteries ne change rien pour eux.

Fût de stockage, sac et vermiculite anti incendie et ramassage régulier des batteries sont fournis par les organismes

Par contre il peut arriver que certaines enseignes qui ont pourtant l’obligation de reprendre ces batteries parce qu’ils sont considérés comme producteurs, ne veuillent pas le faire car cela leur occasionne du travail supplémentaire. Ce n’est pas votre soucis en tant que client mais c’est évidemment toujours problématique. Il peut arriver par exemple qu’un supermarché qui vend ponctuellement des trottinettes électrique n’ait pas mis en place ce type de collecte (alors qu’ils collectent les piles classiques). Le mieux est donc d’aller vers les chaines spécialisées vélo et mobilité électrique. Là il y a généralement un local de stockage avec les fûts proposés par les organismes de collecte et de traitement. Le personnel a la formation nécessaire pour prendre en charge les batteries usagées dans de bonnes conditions et la collecte  des éléments de stockage plein est régulière.

Une recherche sur le site Corepile me montre que ce magasin Intersport permet de recycler sa batterie

Le plus simple pour recycler sa batterie est donc de passer directement par les principaux organismes de gestion agréés par l’état qui sont Corepile et Screlec. La page d’accueil de Corepile permet d’identifier un lieu de collecte à partir de votre code postal. Cela permet de géolocaliser les stations les plus proches de chez vous. Suivant les villes, ces points de prise en charge peuvent être plus ou moins distants mais dans l’ensemble vous pouvez vous dire que toute enseigne de votre région qui propose des vélos électriques se doit de recycler ces éléments. La majorité de ces acteurs passent par Corepile ou Screlec pour les gérer. 

Certains constructeurs, vendeurs ou assureurs peuvent vous demander une lettre de décharge pour la reprise de votre batterie. Ce n’est pas une pratique courante mais cela arrive notamment dans le cas où un problème a été identifié sur une série de modèle avec un « rappel » produit de la batterie. Comme il est compliqué, couteux et pas vraiment nécessaire de faire transiter la batterie par une société de transport, le mieux est de la confier directement à un détaillant. Cependant la lettre est nécessaire pour recevoir une batterie de remplacement ou un dédommagement. Rien ne vous empêche de rédiger sur papier à entête un texte indiquant que vous avez fait reprendre votre batterie par un professionnel dans un réseau de recyclage certifié. En précisant le modèle, le numéro de série et autres informations sur le document. Et de demander une signature et un cachet lors de la reprise par le professionnel.

  

Au final votre batterie sera recyclée dans une filière spécialisée ce qui évite des pollutions importantes des sols et de l’eau mais permet également de recycler des métaux précieux comme le Cobalt et le Nickel ainsi que des éléments comme le Lithium. Les métaux sont également recyclés en partie, le reste est incinéré ou enfouis pour le moment, faute de filière encore adaptée.

Dans tous les cas ce recyclage est un geste important pour votre sécurité actuelle mais aussi la préservation de votre environnement futur. N’oubliez pas que si cela a un coût pour les entreprises qui pratiquent le recyclage, il est reporté sur vos achats dans leurs magasins. N’ayez donc pas de scrupule a vous décharger sur eux, ils en ont la responsabilité légale.

Bien entendu je suppose que la majorité des personnels des enseignes sont au courant et vont vous accompagner dans cette démarche. Inutile donc de vous présenter de manière péremptoire en réclamant haut et fort la reprise de votre appareil. Même si l’obligation légale vous donne raison, la personne en face de vous à l’accueil ou au SAV n’est pas forcément au courant ni enchantée de devoir gérer une tâche supplémentaire au milieu des autres qu’elle doit gérer.

Mon conseil est donc toujours le même, soyez polis et souriant. Que vous soyez face à du personnel dans une déchetterie, chez un artisan du vélo ou devant le responsable au SAV d’une chaîne de magasin, votre interlocuteur n’en sera que plus aimable et efficace.

Minimachines.net en partenariat avec Geekbuying.com
Pourquoi et comment recycler sa batterie de véhicule électrique © MiniMachines.net. 2024.

Notre sélection de démos pour le Steam Néo Fest

16 octobre 2024 à 22:17

Steam Néo Fest, l’événement quadrimestriel qui propose de nombreuses démos plus ou moins bien, fait son grand retour. Cette fois-ci, on a pu en tester un paquet, et on vous indique comme à notre habitude si ça en vaut la chandelle. On a même mis de jolis pictogrammes pour être sûrs que vous ayez bien compris.

Si lire un article plus long que votre CV vous rebute, vous pouvez au moins tester Hail to the Rainbow, Neverlooted Dungeon ou encore VOIN.


BloodshedThermofragV3 mini temp CHAUD 3

Genre : Rétro Roguelite survivors

Bloodshed, un rétro-FPS plutôt sympa avec des mécaniques de rogue-lite et une direction artistique qui nous rappelle Cultic. Ça fait évidemment penser à Vampire Hunters, en plus inspiré niveau direction artistique, mais moins fun au niveau des armes. Il faut survire à des vagues infinies d’ennemis pendant un temps limité. Vous avez le choix entre différentes armes plus ou moins efficaces, mais quasiment toutes avec un feeling plutôt sympa. Il y a également plusieurs personnages, ce qui fait un peu varier l’expérience de jeu. Le gameplay est assez basique, mais nerveux.

Bloodshed sur NoFrag // Steam

ThermofragV3 mini temp tiedeCop Bastard

Genre : Rétro-FPS

Un rétro-FPS qui se déroule dans le Japon des année 90. Hormis quelques améliorations graphiques, on n’a pas remarqué d’énormes changements depuis la démo disponible en avril dernier. Vous jouez un détective qui devra éliminer des Yakuza à coup de cartouches de fusils à pompe et de rafales de d’Uzi dans la tronche. C’est sympa, mais sans plus. Les ennemis sont particulièrement cons.

Cop Bastard sur NoFrag // Steam

ThermofragV3 mini temp glacialBlood Peace

Genre : Fast-FPS rogue-lite

Mon Dieu que c’est moche. Et ça pèse 27 putain de gigaoctets. Merci à l’Unreal Engine 5 de permettre à de petits développeurs de nous proposer un festival d’assets gratuits dans des niveaux générés procéduralement, garantis sans aucune direction artistique. Mais les mouvements ont l’air nerveux en vidéo.

Blood Peace sur Steam

ThermofragV3 mini temp BouillantHail to the Rainbow

Genre : Walking sim, combat & horreur

Dotée d’une direction artistique très réussie, et d’un univers post-apocalyptique emprunt de nostalgie, la démo de Hail to The Rainbow nous propose plusieurs types de gameplay. Tout d’abord, on a une séquence proche du walking sim, avec un peu d’exploration, et même un peu de combat au corps à corps. Une seconde partie, un peu différente, nous propose un jeu de cache-cache dans des placards pour éviter de se faire dépecer par un robot. Tous les membres de la rédaction n’ont pas franchement accroché à ce passage, résolument tourné vers l’horreur. Mais dans tous les cas, la réalisation est très bonne et l’ambiance vraiment chouette.

Hail to the Rainbow sur NoFrag // Steam

ThermofragV3 mini temp CHAUD 3KARMA: The Dark World

Genre : Walking sim horrifique

KARMA: The Dark World propose une qualité de réalisation au-dessus de la moyenne : c’est très beau, les doublages sont chouettes, et il semble raconter une histoire un minimum originale. Il plaira à coup sûr aux fans de jeux d’horreur. Dommage que ce soit limité à 60 FPS.

KARMA: The Dark World sur NoFrag // Steam

ThermofragV3 mini temp glacialLast Frontier

Genre : Coopératif horrifique

Ah ah ah. Non.

Last Frontier Steam

ThermofragV3 mini temp BouillantNeverlooted Dungeon

Genre : immersive sim médiéval humoristique

Impossible de ne pas évoquer Neverlooted Dungeon lors d’un Steam Néo Fest, c’est l’un des jeux les plus attendus de la rédaction. Comme à son habitude, le développeur solo profite de l’événement pour mettre à jour sa démo, en attendant la sortie du jeu à la fin de l’année ou au début de l’année prochaine. Pour rappel, on vous propose de piller un donjon rempli de pièges mécaniques à déjouer de la manière que l’on souhaite. Il y a aussi des ennemis, que vous pouvez combattre avec vos armes, ou grâce à l’environnement. Et en plus, il y a pas mal d’humour. Si vous ne l’avez pas encore testée, allez-y, c’est super bien.

Neverlooted Dungeon sur NoFrag // Steam

ThermofragV3 mini temp tiedeLiminalcore

Genre : Walking sim

Rien de très original pour ce walking sim dans des environnements liminaux, mais la direction artistique est plutôt chouette. Ça doit tout de même être très chiant.

jeu sur NoFrag // Steam

ThermofragV3 mini temp froidFractured Mind

Genre : Bodycam FPS d’objets cachés

Prenez l’Unreal 5, ajoutez-y des assets tout faits, saupoudrez d’un effet bodycam, puis assaisonnez avec des contrôles bien pourraves. Vous obtenez une bonne base de merde pour un jeu sans aucune originalité. Réglez l’optimisation sur 0° pendant 15 minutes, puis préparez la boucle de gameplay : surtout, n’allez pas imaginer quelque chose, reprenez ce qui existe déjà ! Un soupçon de SCP pour faire boucler une rame de métro tant qu’on n’a pas trouvé une lettre cachée, par exemple, vous assurera une saveur d’une parfaite neutralité.

Fractured Mind sur NoFrag // Steam

ThermofragV3 mini temp CHAUD 3Gravelord

Genre : Rétro fast-FPS rogue-lite

Alors qu’il semblait tout mou dans sa vidéo de présentation, il s’avère finalement très nerveux et assez sympa à jouer. On débloque régulièrement des modificateurs qui modifient un peu de gameplay. Une très bonne surprise.

Gravelord sur NoFrag // Steam

ThermofragV3 mini temp froidSecond Sun

Genre : RPG

Avec une direction artistique correcte, Second Sun semble nous emporter dans un univers magique, où les images par seconde disparaissent mystérieusement sans aucune raison. On suppose que la quête ultime de ce RPG à la Skyrim est de récupérer la puissance de son PC pour le faire tourner correctement. Malgré le côté très clunky et amateur du titre, le gunfeel du pistolet est plutôt réussi, contrairement à l’arbalète, qui est une purge.

Second Sun sur NoFrag // Steam

ThermofragV3 mini temp tiedeIrreversible

Genre : VR

Quand on n’a pas d’idée, on regarde ce que font les copains et on copie en changeant un truc ou deux. C’est sans doute ce que ses sont dit les développeurs d’Irreversible, qui repompent sans vergogne The Invincible, que ce soit pour l’ambiance générale ou les éléments scénaristiques, allant même jusqu’à proposer un jaquette Steam dans le même ton. Mais c’est en VR, évidemment beaucoup moins beau et il y a un flingue, donc ça n’a rien à voir. D’ailleurs, le jeu a l’air globalement sympa, mais les combats, eux, paraissent vraiment désagréables dans la vidéo de présentation.

Irreversible sur NoFrag // Steam

ThermofragV3 mini temp CHAUD 3

Delta Force

Genre : Battelfield-like & extraction shooter

Delta Force a beau être un free-to-play chinois, ce qu’il nous a montré en août dernier nous avait épaté. Le mode à la Battlefield était très agréable à jouer, et on avait bien apprécié la synergie des différents personnages. La modification des armes nous avait également bien plu, tout comme le feeling, franchement sympa. On avait un peu moins aimé la partie extraction shooter, calquée sur DMZ de Call Of, mais plus pour une question de goût qu’à cause de vrais soucis. On n’a pas relancé pour ce Steam Néo Fest, mais vu les retours, on peut raisonnablement vous conseiller de le tester, si c’est votre genre de jeu.

Delta Force sur NoFrag // Steam

ThermofragV3 mini temp tiedeWorld of Unlit

Genre : Echo Point Nova du pauvre

C’est Echo Point Nova en moche, sans destruction, avec uniquement le grappin, des contrôles moins biens, et une démo qui pèse plus lourd que le jeu complet de Greylock Studio. Ce n’est pas nul pour autant, mais il y a du boulot à faire pour arriver à quelque chose d’intéressant.

World of Unlit sur NoFrag // Steam

ThermofragV3 mini temp glacialSlipgate

Genre : Rétro-FPS

Un rétro-FPS qui avec une direction artistique qui semble s’inspirer de DOOM 3 et Warhammer, mais avec des graphismes de la génération précédente. Et le gameplay aussi, on ne va pas se mentir. Sauf qu’ils ont pris comme modèle une sombre merde. Du coup, c’est complètement naze. On s’y est mis à deux pour être sûrs.

Slipgate sur NoFrag // Steam

ThermofragV3 mini temp froidThe Axis Unseen

Genre : Rogue-lite de chasse

On n’était déjà pas chauds avant de le lancer, mais c’est encore pire clavier et souris en main. Certes, on voit qu’il y a eu pas mal de boulot du côté de la direction artistique, mais le reste est très compliqué : l’optimisation est inexistante et les animations sont risibles. Côté gameplay, c’est du rogue-lite plutôt classique, mais avec un feeling pas ouf.

The Axis Unseen sur NoFrag // Steam

ThermofragV3 mini temp CHAUD 3Butcher’s Creek

Genre : Rétro-Condemned-like

Le prochain jeu de David Szymanski (Dusk, Gloomwood). Le gameplay est plutôt simpliste, mais efficace, et l’ambiance est très réussie. Malgré un setup qui pourrait faire croire à un pur jeu d’horreur, le côté humoristique est très présent, notamment avec la paraphilie embarrassante du personnage principal. Prévu pour début 2025, ce ne sera sans doute pas le jeu de l’année, mais une petite expérience sympathique.

Butcher’s Creek sur NoFrag // Steam

ThermofragV3 mini temp froidMohrta

Genre : rétro-FPS

Faire un rétro-FPS sous GZDoom avec une direction artistique originale n’est pas une garantie pour que ce soit un bon jeu. La preuve par l’exemple.

Mohrta sur Steam

ThermofragV3 mini temp froidHoly Shoot

Genre : FPS rogue-lite

Un rogue-lite style Bordel land Borderlands pour son côté cel-shading avec un gameplay et des mécaniques quasiment identiques au très bon Roboquest, sauf qu’ici, c’est pas si bon. Double saut, dash, compétences, tout y est, pourtant. Mais les armes manquent cruellement de patate, rendant les combats peu amusants. Même si on apprécie la bonne grosse musique de bourrin dans les oreilles, elle masque un sound-design qui a du mal à convaincre.

Holy Shoot sur NoFrag // Steam

ThermofragV3 mini temp froid

Codename TCT

Genre : FPS au ralenti

On sent que le développeur aime les FPS comme F.E.A.R., mais avoir de la bonne volonté ne suffit pas toujours. Les contrôles sont étonnamment assez peu précis et pas franchement agréables. La mise en joue sur certaines armes est même vraiment à chier, ce qui complique le combat contre la mauvaise optimisation du jeu. Les ennemis, quant à eux, ne réagissent qu’une fois sur deux, et sont cons comme des ballons.

Codename TCT sur NoFrag // Steam

ThermofragV3 mini temp glacialExfil

Genre : Extraction shooter

La particularité de cet extraction shooter, c’est qu’avec votre équipe de quatre militaires, vous devez récupérer un disque dur dans un hélicoptère crashé sur la map, puis vous devrez vous extraire sur un point aléatoire. Comment ? Quoi ? Ah oui pardon, c’est exactement comme tous les autres extraction shooter. Sauf qu’ici, la réalisation est affreuse : direction artistique inexistante, des animations très rigides, un gunfeel pas ouf, et un sound design risible. Bon courage au dev solo pour en faire quelque chose d’intéressant.

Exfil sur NoFrag // Steam

ThermofragV3 mini temp glacial

Project: Mist

Genre : Survie / horreur (parce que c’est moche)

Une des plus belles illustration de la phrase « Unreal Engine est le nouveau FPS Creator ».

Project: Mist sur Steam

ThermofragV3 mini temp tiede

Juice

Genre : WTF

Parfois, laisser son jeu au stade de concept est une bonne idée.

Juice sur Steam

ThermofragV3 mini temp CHAUD 3

Future Breach 64

Genre : Tactique solo

Il ne paye pas de mine, avec ses graphismes style Nintendo 64, mais ce petit jeu tactique solo est bien sympathique. On part en mission avec quelques coéquipiers pour capturer des « ouvrier ennemis » ou des ressources, afin de faire prospérer notre camp. La partie tactique est légère, mais déjà très amusante, avec la possibilité de donner des ordres à son équipe, menotter les otages, ou utiliser ses différentes grenades. À tester.

Future Breach 64 sur NoFrag // Steam

ThermofragV3 mini temp CHAUD 3

Sulfur

Genre : Rogue-lite

Très bon petit rogue-lite avec des graphismes minimalistes. Les sensations sont bonnes, et la boucle de gameplay est cool. Le jeu complet devrait sortir le 28 octobre.

Sulfur sur NoFrag // Steam

ThermofragV3 mini temp froid

ASCENDANT

Genre : Hero shooter

Une très grosse production value pour un concept éculé. On n’a pas réussi à rejoindre une seule partie. Peut-être parce que personne n’a envie de jouer à un énième hero shooter, fusse-t-il coloré et commenté avec une voie super enjouée ?

ASCENDANT sur NoFrag // Steam

ThermofragV3 mini temp glacial

Sand

Genre : Survie sur des robots géants

C’est tellement mauvais qu’ils sont supprimé la page dédiée à la démo, sur laquelle on pouvait mettre des avis. Que dire de plus ?

Sand sur NoFrag // Steam

ThermofragV3 mini temp froid

SWAT Commander

Genre : Ready Or Not wish

Auparavant appelé Tactical Squad, puis Tactical Squad: SWAT Stories, SWAT Commander n’en est pas moins toujours aussi nul. C’est vraiment comme Ready Or Not, mais en moins bien à tous niveaux. La dernière fois qu’on avait testé, le gunfeel était vraiment à chier, et les animations, risibles. On n’a pas eu le courage de retenter pour l’instant.

SWAT Commander sur NoFrag // Steam

ThermofragV3 mini temp Bouillant

VOIN

Genre : First Person Slasher rogue-lite

On avait déjà testé la démo de VOIN, et on avait trouvé ça bien. Ça n’a pas changé : c’est toujours aussi viscéral, nerveux et la direction artistique est vraiment sympa. Sans doute l’une des meilleures démos de ce Steam Néo Fest.

VOIN sur NoFrag // Steam

La liste n’est évidemment pas exhaustive, n’hésitez pas à parler des démo qui vous ont plu en commentaires !

25 ans de GeForce : 3 anecdotes perso sur l’épopée de Nvidia

11 octobre 2024 à 16:25

Il y a 25 ans, Nvidia lançait ses premières GeForce 256. Un petit évènement à l’époque mais qui, je me rend compte, n’a pas cessé de m’accompagner depuis.

Nvidia a publié un article de blog pour retracer cette aventure dans le monde du jeu vidéo et de la création. Au passage la marque a enjoint ses contacts a publier, si ils le désiraient, un papier concernant d’éventuelles anecdotes au sujet de ce long périple. J’en ai retenu trois parmi les plus marquantes dans ma « carrière » informatique. Et la toute première concerne justement cette fameuse carte GeForce 256.

La GeForce 256

En fin d’année 1999 sort la GeForce 256, la première carte graphique de cette gamme chez Nvidia. La presse informatique ne frétille pas spécialement d’impatience pour cette carte et seuls les magazines spécialisés, orientés jeu vidéo, s’y intéressent un peu. Le 11 octobre 1999 les commandes ne sont pas spécialement formidables. A l’époque je suis le webmaster/monteur/rédacteur/testeur/conseiller multitâche de feu l’enseigne Eurisko. Nous assemblons des PC et vendons des pièces détachées avec mon collègue et ami Valentin. Nous sommes dans les années 3DFX. La Voodoo première du nom est sortie en 1996, la Voodoo 2 en 1998. Ces cartes d’extension graphique font alors concurrence aux rares autres modèles du marché comme les Matrox Millenium et Mystique mais également des ATI Rage et des Nvidia NV1 et RIVA 128 (aka la NV3). Je me souviens bien de ces cartes car elles étaient alors embarquées dans une course débile à qui aurait la boite la plus grosse. A l’époque les cartes graphiques étaient exposées dans les rayons des magasins spécialisés qui existaient encore dans les villes. Il fallait donc qu’on les voie de loin et les constructeurs avaient fini par leur fabriquer des boites en carton tapageuses, plus grandes que celles des cartes mères. Pour nous qui ne disposions que d’un petit entrepôt et qui faisions beaucoup de VPC, c’était un vrai casse tête a stocker.

voodoo1

3DFX PCI

Le marché est compliqué pour toutes les marques à cette époque. Si les 3DFX avaient bien fonctionné, si les Matrox avaient également rencontré pas mal de succès, c’était toujours des cartes très entrée de gamme qui faisaient le gros des ventes. Les grossistes nous pressaient de vendre plutôt des « S3 Virge » qu’autre chose, ces cartes basiques et vraiment pas chères permettaient de construire des PC abordables. Cela valait mieux plutôt que de nous obstiner a proposer des stations de jeu deux fois plus chères et donc dix fois plus difficiles a vendre. Mais notre truc à l’époque c’était pas de faire du volume mais plutôt de monter des stations qui nous plaisaient. Alors on s’intéressait surtout aux cartes graphiques les plus chères même si les jeux réellement en 3D étaient encore rares. Même si les spécifications vraiment techniques n’intéressaient toujours pas grand monde. On avait un petit public de geeks techniciens, on écumait les forums US et on sentait bien vibrer un truc autour des annonces de cette fin 1999 avec les GeForce.

L’échelle de la boite est correcte par rapport à la carte

A cette époque cela ne va pas très fort pour Nvidia. Face à une concurrence difficile et surtout parce que les joueurs ne voient pas bien l’intérêt des cartes précédentes, la marque n’est pas en très grande forme. Les échos que l’on a par l’entremise de nos partenaires – marques et grossistes – font a peu près le même constat pour toutes les marques mais chez Nvidia c’est particulièrement tendu parait t-il. On apprendra plus tard qu’en 1997 Nvidia, qui avait du licencier une partie de son équipe l’année précédente, naviguait à vue avec très peu de cash pour fonctionner. En fait, pendant que la marque était en train d’inventer la GeForce 256, elle n’avait plus par moment que de quoi payer un mois de salaire à ses employés. La boite pensait que le couperet allait tomber.

De notre côté nous avions des échos très intéressants concernant cette nouvelle GeForce. Trois éléments nous alignaient des signaux positifs. D’abord un excellent materiel avec une bonne bande passante pour l’époque. Ensuite un gros travail d’optimisation pour les logiciels et enfin une véritable ambition de communication. 

La démo Bubble de 1999 présentait les avancées proposées par la GeForce 256

Côté materiel, la GeForce 256 était annoncée comme une puce très gourmande en bande passante. Extrêmement gourmande. Tellement gourmande que Nvidia proposait deux type de mémoire vive associée à sa carte. De la SDRAM classique, utilisée par toute la concurrence alors. Mais également de la DDRAM avec le double de bande passante. La DDR était alors une technologie toute nouvelle et peu de gens en comprenaient les effets. J’y reviendrais.

La partie Transform et Lightning ou T&L était également mise en avant par Nvidia. Il s’agissait alors de proposer une gestion materielle de fonctionnalités impossibles a prendre en charge auparavant ou alors passant par une solution logicielle vraiment beaucoup plus lente. Cela n’était alors tout simplement pas exploitable en jeu. Le Transfom Engine modifiait en temps réel les polygones qui constituaient les objets en 3D à l’écran. Cela permettait de modifier un objet pour afficher une déformation de perspective, d’adapter des mises à l’échelle et autres évolutions graphiques. La robustesse du GeForce 256 permettait de le faire vite et bien pour l’époque. Comprenez par là qu’associé à un Pentium III, une bonne carte mère et assez de mémoire vive on pouvait alors jouer à Quake III en 60 images par seconde en 1024 x 768 et en 32 bits. La concurrence restait scotchée à 30 images par seconde dans les mêmes conditions. En 16 bits on atteignait les 40 images par seconde en 1600 x 1200 pixels. Un miracle.

Ajoutez a cela un Lightning Engine qui permettait de gérer finement – pour l’époque – les éclairages dynamiques. Une évolution qui offrait des jeux plus vivants et plus surprenant avec un éclairage plus réaliste par rapport aux cartes habituelles. Nous mettions souvent alors en démonstration des machines avec les GeForce en action et l’effet produit était indiscutable sur nos visiteurs. Des jeux comme Halo prenaient le parti d’exploiter ces fonctionnalités.

Le reste des capacités était tout aussi intéressant mais moins impactant : on retrouvait la division de polygones avec le Setup Engine et la gestion des textures avec un moteur de rendu adapté. Mais ces fonctions étaient déjà présentes depuis la première 3DFX. Ce qui a surtout bien fonctionné avec la 256 c’était la justesse d’analyse de mon camarade Valentin. A l’époque c’était lui qui construisait les machines que l’on envoyait en test à la presse informatique. PC Expert, PC Direct et autres étaient friands de machines d’assembleurs et ne perdaient pas une occasion de tester des ordinateurs que l’on montait pour eux sur mesures. 

Et là où nous avons su tirer parti de la GeForce 256 a l’époque cela a été de comprendre comment allaient réagir nos confrères concurrents monteurs. Pas tous mais ceux qui se prêtaient au jeu de ce type de test. Pour être très clair, entre une GeForce 256 Creative Labs en SDR et une Asus V6800 en DDR, la différence de prix était de 380 francs de l’époque, soit, compte tenu de l’inflation, environ 90€ aujourd’hui. Et notre pari a été d’envoyer un PC en test avec une carte DDR en rognant sur d’autres postes de manière a rester compétitif sur le prix global. Je ne sais plus la combine qui avait été employée alors, probablement une licence Windows en option ou une carte son de moins bonne facture. En 1999 quand nous décidions d’envoyer un PC à la presse il fallait tout leur fournir, clavier, souris et enceintes. Il est fort possible que ayons décidé de ne pas leur envoyer un kit audio haut de gamme pour faire la différence.

Une vieille pub Eurisko

Et cela a marché à la perfection. Nous nous sommes retrouvé face à des concurrents qui avaient proposé des cartes SDR sans en comprendre l’enjeu en tests avec une bande passante divisée par deux qui castrait les possibilités du circuit GeForce 256. Ajoutez à cela un léger overclocking du processeur embarqué et nous explosions tous nos concurrents en terme de vitesse pour un prix équivalent. Les retombées ont été fantastiques et notre « FunSation GeForce 256 » s’est admirablement bien vendue cette année là.

La fameuse présentation GPU Vs CPU de Nvidia

Autre anecdote GeForce, bien plus tardive, la découverte des fonctions CUDA pour le montage vidéo. Avec l’arrivée des GeForce 8, ces fonctionnalités qui permettent de piloter des calculs en parrallèle, changent totalement certains aspects créatifs du monde PC. je découvre véritablement en pratique les fonctions CUDA en 2009 si mes souvenirs sont bons. Et c’est un véritable changement de paradigme. Les possibilités offertes par les capacités de calcul des cartes graphique pour des usages créatifs font des miracles. Il faudra encore un peu de temps pour que tout cela se peaufine mais c’est vraiment un choc  à ce moment là de voir le potentiel de traitement qui se dégage de cette possibilité.

La démocratisation des SSD et de la mémoire vive qui suivra ainsi que les possibilités de calculs complémentaires offertes par les processeurs ainsi que l’évolution des logiciels vont rendre le montage vidéo autrement plus simple que par le passé. Je me souviens d’avoir monté des configurations combinant des disques SCSI 10 000 tours en RAID juste pour tenter de monter des petits bouts de vidéo sur PC pour des clients. Assemblé des machines en parrallèle pour effectuer des calculs pour d’autres. Des solutions qui coutaient véritablement des fortunes et qui sont aujourd’hui disponibles à des prix finalement très abordables dans des portables grand public.

Les premiers serveurs Nvidia GRID

Dernier truc qui m’a marqué dans les 25 années de l’aventure GeForce. Le GRID, ou plutôt ce que nous appelons aujourd’hui GeForce Now. Lorsque j’ai découvert le projet au CES 2013, j’ai immédiatement compris son immense potentiel. Les ingénieurs de Nvidia présents à l’époque expliquaient alors comment ils avaient pensé les nouvelles générations de leurs puces graphiques pour qu’elles soient aussi bien capables de diriger le flux de leurs calculs vers un affichage que vers un réseau.

J’ai pu ensuite voir ensuite Nvidia placer ses pions et avancer pas à pas pour dessiner l’offre GeForce Now que l’on connait aujourd’hui. Une offre qui permet de jouer sur quasiment n’importe quelle machine avec une carte graphique déportée sur un serveur externe et qui fait que mon PC Core i5-9600KF équipé d’une GeForce RTX 2080 peut lancer tout type de jeux ultra exigeant aujourd’hui sans qu’il ne fasse un bruit de fusée au décollage. Mais aussi parce que cela me permet de jouer avec des MiniPC aussi bien qu’avec une configuration haut de gamme, avec des portables ultrabasiques ou des ConsolesPC et cela sans trop craindre pour leur autonomie. Cette idée d’un usage déporté des performances par un outil que l’on peut ajouter à n’importe quel type de minimachine a évidemment tout pour me plaire.

Pour le futur Nvidia parle d’IA, comme tout le monde. Rappelant au passage que son architecture a été un des piliers qui a permis aux différents chercheurs et scientifiques de mettre au point la structure d’énormément de services qu’on voit aboutir actuellement. Un effort qui a été récompensé par une explosion de la valeur de la marque qui reste le premier fournisseur de solutions de calcul pour les différents serveurs de ces services.

Avec les circuits RTX, Nvidia a intégré des fonctionnalités d’IA dans les PC depuis 2018. Les outils comme le DLSS ont fait leur apparition et ont offert à de nombreux joueurs la possibilité de toucher du doigt des jeux dans de bonnes conditions. Pour le futur la marque s’intéresse à d’autres possibilités avec l’IA. Avec le jeu et l’ouverture de dialogues générés par un moteur afin d’adapter la narration et les scénarios. Mais Nvidia pourrait également ouvrir la voie à des usages alternatifs au même titre que le CUDA a permis aux créatifs de se lancer dans des tâches lourdes avec des PC classiques. Les possibilités de calcul des futures GeForce RTX en terme d’IA sans sans doute loin devant ce que les NPU intégrés dans les processeurs actuels promettent. Une GeForce RTX 4090 propose l’équivalent de plus de 1300 TOPS, un chiffre différents des 50 TOPS de NPU réclamés par Microsoft pour que l’utilisation des fonctions Copilot de Windows 11.

Si demain les GeForce offrent le même impact d’usage en IA qu’elles en on eu avec les logiciels créatifs et en jeu vidéo, le futur nous réserve peut être de plus belles surprises que ce que nous fait miroiter le marché aujourd’hui.

Minimachines.net en partenariat avec Geekbuying.com
25 ans de GeForce : 3 anecdotes perso sur l’épopée de Nvidia © MiniMachines.net. 2024.

Quick Insert : une touche d’intelligence sur les Chromebooks ?

2 octobre 2024 à 12:07

J’ai trouvé l’arrivée de la touche Copilot vraiment plus à l’avantage de Microsoft qu’à celle des utilisateurs de Windows. Je ne suis pas loin de penser la même chose pour Quick Insert et Google.

Mamie va croire que c’est la touche « plus »

Cette touche Quick Insert est intégrée à la touche Caps-Lock, celle qui permet de basculer le clavier en majuscule. Un appui dessus lancera l’IA de Google. Les nouveaux propriétaires de Chromebooks Plus – et Chromebooks Plus seulement, pas les anciens Chromebooks – sont en effet abonnés de facto pendant un an aux services d’Intelligence Artificielle maison « Google One AI Premium ». Les Chromebooks classiques ont droit à trois mois offerts lors de l’achat. Un service qui sera facturé 21.99€ par mois dans tous les cas après cette première période. 

Un appui sur cette touche permettra donc d’appeller les services de cette offre qui vont de la génération d’images de fond pendant vos vidéoconférences jusqu’à l’aide à l’écriture en passant par de l’édition de photo par IA. Plus précisément, la touche Quick Insert vous permettra de faire appel à Gemini pour vous aider à écrire dans n’importe quelle interface textuelle. Par exemple, traduire un texte dans une autre langue dans une fenêtre de chat. Mais également d’intégrer un Emoji ou un Gif dans ces textes1.

L’IA permettra de rappeler des liens vers les derniers sites consultés facilement mais également de faire des recherche depuis vos fichiers Google Drive sans quitter votre interface de rédaction. On pourra donc, par exemple, après quelques minutes de recherche sur un sujet, lancer la rédaction d’un texte et y insérer des images sauvegardées dans son drive ou d’autres documents sous forme de fichiers. On pourra également avoir de l’aide dans l’écriture pour trouver des tournures de phrases. Enfin la petite touche vous offrira la possibilité d’ajouter facilement une date précise, d’effectuer des calculs et même de convertir devises ou unités en quelques instants.

Cette touche sera également ouverte aux usages prévus pour le futur par Google. Le moteur prévoit de nombreux outils pour bientôt : de la traduction en temps réel sous titrée pour les vidéos, les streams en direct et même les appels en visio conférence. Le moteur de recherche annonce un support d’une centaine de langues pour commencer. 

Une fonction de résumé de contenus textuels sera également proposée : elle offrira la possibilité de scanner un document texte, des articles, des sites et des fichiers type .doc ou .pdf afin d’en tirer une fiche de lecture plus rapide à lire. Cette solution permettra dès l’année prochaine d’interagir avec le résumé en demandant plus d’informations sur un terme ou un passage, de poser des questions et de recevoir des réponses sur une idée spécifique soulevée par le texte. Sans jamais avoir à lire le document original dans son entièreté.

Une fonction de transcription est également prévue à terme pour récupérer un texte à l’issue d’un appel vidéo. On pourra enregistrer le dialogue de son ou ses interlocuteurs avec une identification de ceux-ci et en tirer un dialogue textuel pour pouvoir s’y référer ensuite. L’IA permettra d’en récupérer un résumé plus accessible en quelques instants.

Des améliorations du signal pendant les passages d’appels vidéo sont également prévus : très classiques, ils modifieront la qualité de l’image en jouant sur la luminosité et le contraste, mais aussi sur le son. Google annonce un système d’IA permettant de transformer un microphone basique de webcam en une solution « studio ». Des corrections de distorsions, une amélioration de la voix et la suppression des bruits ambiants laissant passer un timbre de voix magnifique vers ses interlocuteurs.

Pas de touche Quick Insert ? Pas de problèmes.

Des outils IA génériques vont également être intégrés sur tous les Chromebooks. Pour y accéder sans cette fameuse touche Quick Insert, rien de plus simple, une pression sur la combinaison touche Google puis sur la touche F réveillera le même ensemble de services.

Le premier sera le Recap, un outil qui vous aidera à vous remémorer ce que vous étiez en train de faire avec votre Chromebook quand vous l’avez éteint ou mis en veille. Recap permettra de voir également ce que vous faisiez la dernière fois que vous étiez connecté à votre compte Google. Autrement dit, cet outil nécessitera impérativement l’installation d’un service de protection de compte sécurisé. Car, sinon, un tiers pourrait voir ce que vous faisiez avec votre machine ou votre smartphone la session précédente : rendez-vous à venir, fenêtres et applications en route, pages web, alarmes et autres.

Un mode Focus permettra d’empêcher la machine de vous distraire en coupant les diverses notifications pour une période donnée. Votre profil sera également mis en mode ne pas déranger et vous pourrez même lancer une liste Youtube Music prédéfinie pour vous accompagner. Vous pourriez également vous mettre en mode avion mais évidemment  à ce moment là vous perdez le côté Cloud et IA de votre machine…

Le capitaine Kirk et son « communicateur » dans la série Star Trek 

L’IA magique et la calculatrice

Evidemment, il faut prendre ces annonces de services avec circonspection. Le meilleur moyen de se rendre compte du problème nous est servi sur un plateau par Google lui même avec son annonce d’une fonction d’amélioration du signal audio d’enregistrement. Prétendre pouvoir transformer un micro de webcam de portable en micro qualité studio est une assez bonne illustration de la capacité alchimique du marketing aujourd’hui. Les alchimistes étaient ceux qui prétendaient pouvoir transformer le plomb en or pour vivre aux crochets des puissants de leurs époques : rois, empereurs et tyrans. Les spécialistes du marketing font exactement la même chose mais au profit des puissants d’aujourd’hui : les multinationales et les GAFAM.

Des micros MEMS sur une pièce de 1 cent.

Transformer un microphone MEMS en solution de studio par l’IA n’a aucun sens, on pourra effectivement corriger des défauts de base de ces microphones en rajoutant des éléments que l’on sait manquer à cause des faiblesses de ce type de capteur. Mais il manquera tout ce qui fait la force et le charme d’un micro de studio : la finesse de la capture.

Un micro studio à plusieurs milliers d’euros.

Et c’est un point à garder en tête la finesse. Parce que si il y aura évidemment toujours un fossé entre votre timbre de voix manipulé par l’IA et celui que vous obtiendrez avec un microphone de studio qui coute une petite fortune, il risque bien de manquer la même finesse dans tout le reste de ce qui est proposé par les IA. Et c’est un problème.

Si votre résumé textuel d’un PDF manque de finesse, votre appréciation de ce résumé le reflètera. Si votre traduction automatique d’un texte dans une autre langue manque de finesse, votre compréhension se fera à gros traits. Si le filtre de votre machine vous reflète un monde entier qui manque de finesse parce que vous confiez à une IA le soin de vous « faciliter la vie » et que vous ne prenez plus jamais le soin de vérifier ce qui est résumé, traduit, prémâché pour vous. Alors vous n’aurez plus le contenu original de ce que vous consultez mais une version grossière de la pensée des autres. Et la facilité proposée par ces outils risque bien de vous entrainer vers la pente classique des humains qui est la paresse. Je n’ai rien contre la paresse en soi, mais pas faite au détriment des idées des autres.  

Le Communicateur de Star Trek

La calculatrice est un excellent exemple de cette pente de la paresse. Avant l’arrivée de la calculatrice, on apprenait le calcul mental à l’école et on l’exerçait en permanence dans la vie de tous les jours. C’était l’évidence, on devait savoir compter vite et bien des opérations simples de la vie quotidienne. Additionner, soustraire, multiplier et diviser de petits nombres. Quand la calculatrice de poche est apparue on a trouvé que ce n’était plus si indispensable. Quand le smartphone a glissé une calculatrice dans toutes les poches, ces capacités de calcul mental sont devenues presque contre productives pour beaucoup. Aujourd’hui on regarde quelqu’un qui sait multiplier de tête deux nombres à trois chiffres comme un prodige alors que la plupart de nos aînés savaient tous le faire en ayant leur fameux certificat d’études. Aujourd’hui on juge tous, moi le premier, que ce calcul mental n’est plus si nécessaire puisque toutes sortes de machines peuvent l’effectuer pour nous. Mon télémètre laser peut calculer la surface et le volume d’une pièce avant même que je me pose la question de comment poser l’opération. Je n’ai qu’a appuyer sur un bouton, Je sais toujours le faire mais je comprends facilement qu’un enfant né avec cette technologie dans les mains n’éprouve plus le besoin d’apprendre à faire ce calcul.

Aujourd’hui l’arrivée des IA dans les smartphones et les ordinateurs me fait penser au fameux communicateur de la série Star trek. Une sorte de smartphone permettant de dialoguer avec l’équipage mais également d’interroger l’ordinateur de bord du vaisseau spatial. Sorte de grande machine omnisciente et bardée de capteur pouvant répondre sans problème à tout type de questions si cela permet d’aider le scénario de la série. Le docteur McCoy dans la série dispose également d’un capteur d’un autre type permettant d’effectuer un diagnostic. Autrement dit, ni le capitaine ni le docteur de l’USS Entreprise n’a besoin de jamais lire quoi que ce soit sur un sujet, d’apprendre une autre langue ou de potasser son anatomie pour prendre des décision. Les différents communicateurs qu’ils utilisent permettent de traduire, analyser et diagnostiquer en une pression sur un bouton. La série ne se pose pas la question de la malignité ou de la compétence de l’ordinateur central. De la perspicacité de ses capteurs. Le résultat est toujours automatiquement bon et le remède à une maladie comme la réponse proposée à des créatures dont on ne comprend pas le langage est parfait. A tel point qu’on se demande même pourquoi le docteur est docteur puisque le cantinier muni du même appareil d’analyse pourrait arriver aux mêmes posologies.

Je ne veux pas passer pour un vieux con et dire que tout était mieux avant mais je vois déjà l’impact des IA sur les salles de classes. Les profs d’anglais qui se rendent compte que la qualité des devoirs à la maison est en baisse quand l’IA de traduction en ligne la plus populaire est en maintenance quelques jours. Un prof en université qui me confie que c’est la première foi qu’un étudiant lui rend un travail de fin d’année que personne n’a jamais lu. Pas même celui qui l’a rendu puisque, interrogé par le prof qui se doute que le texte a été généré par une IA, l’étudiant ne sait pas répondre aux questions posées par le texte qu’il a lui même proposé. Le travail est sorti directement d’une IA vers l’imprimante sans même être relu par le principal intéressé.

La pente de la paresse me fait penser que l’ensemble de ces services d’IA va pousser l’utilisateur dans un désapprentissage. Plus besoin d’apprendre à lire et parler une langue étrangère, plus besoin de rédiger un texte correctement plus besoin de lire un document en entier. Avec le risque de perdre de sa liberté puisqu’il sera alors nécessaire de sortir sa machine pour comprendre de quoi on parle. De passer par le filtre d’une société tierce pour s’exprimer et comprendre. Et, bien entendu, le risque de croire que la traduction ou l’interprétation d’un texte dans toute sa finesse et sa nuance pourra être parfaitement gérée par une IA.

Si le marketing de Google est assez serein pour vous expliquer que le micro de type MEMS de votre Chromebook, qui doit couter bien moins d’un dollar à l’achat, est au niveau des microphones mille fois plus gros et plus chers que l’on trouve dans un studio, tout cela grâce à une IA, c’est qu’ils ne vont pas tarder à vous expliquer que leur Gemini c’est Honoré de Balzac et qu’il est au niveau d’un traducteur diplomatique dans une centaine de langues. 

Et ce n’est pas vrai. Les IA de ce type ne transforment pas le plomb en or, elle ne font que baisser votre niveau d’appréciation en jouant sur la pente de votre paresse. Et cela dans un but déjà bien visible, vous demander au minimum 21.99€ par mois ensuite. Et pour tout le reste de votre vie.

Minimachines.net en partenariat avec Geekbuying.com
Quick Insert : une touche d’intelligence sur les Chromebooks ? © MiniMachines.net. 2024.

Microsoft Recall revient et montre patte blanche

2 octobre 2024 à 09:38

Microsoft Recall est une fonction liée à Windows qui fait partie de la galaxie d’outils IA de Copilot+. Présenté en mai, l’outil a provoqué pas mal de remous chez les spécialistes en sécurité ainsi que chez tout utilisateur un peu soucieux de sa vie privée.

Pour faire simple, l’idée de Recall est de proposer un scan permanent de votre activité sous Windows et d’archiver les résultats. Votre système passe à la moulinette tout ce que vous faites en permanence et l’analyse grâce à une IA pour en faire une synthèse. Tout est alors stocké dans des petites « fiches » qui pourront ensuite être appelées au besoin. L’intérêt est dans la gestion totale de votre système, qu’il s’agisse d’un PDF ouvert sur une clé USB, une pièce jointe ou un email, ou même un document que vous écrivez, si vous cherchez les bons mots clés et qu’ils sont dans ces documents, tout sera accessible en quelques clics. L’idée est bonne et on imagine l’intérêt dans une gestion de fichiers lourde de pouvoir trouver rapidement tout ce qui a trait à un sujet.

Microsoft Recoil

Mais si l’idée est bonne sur le papier, la réalisation a été… compliquée. Le souci de cette idée c’est qu’elle archive toutes les actions de l’utilisateur mais pas uniquement pour l’utilisateur. Les captures d’écran qui sont générées servent à l’IA pour trier ces informations. Aussi, lorsqu’un utilisateur se sert de sa carte de crédit sur un site de paiement, raconte à son conjoint ses peines de cœur ou explique à son médecin ses soucis de santé, cela rend cette base de données très sensible. Comme il suffira de quelques mots clés pour rappeler ces captures d’écran et les afficher, on comprend vite où le bât blesse.

Stockée de manière lisible, accessible depuis d’autres comptes sur la même machine, suffisamment attrayante pour que des malandrins se décident à développer des outils sur mesures pour les lire, la solution Recall était qualifiée de passoire par les plus polis des analystes en sécurité informatique. L’outil démontrait avec beaucoup de brio ce qu’il se passe quand on confie les rennes d’un projet à des ingénieurs techniques sans aucune supervision d’autres intervenants. Le moindre utilisateur non impliqué dans le développement aurait posé les questions de base : qu’est-ce qui arrive si mon employeur a accès à ma machine et peut aller fouiller mon Recall ? Que se passe t-il si un internaute arrive à se connecter de manière invisible à ma machine et cherche ma base de données. Que faire si mon poste est partagé comme un ordinateur familial ?

Devant la levée de bouclier générée et en particulier celle posée par les entreprises pas forcément ravies de cette fonctionnalité, Microsoft a annoncé retirer Recall de son offre Copilot+ pour la retravailler. 

La recherche dans Recall

Recall back

Sur son blog, Microsoft propose de jeter un oeil sur les améliorations portées à la sécurité de sa nouvelle mouture de Recall. Un ensemble de points remaniés pour faire face à la critique des experts en sécurité et rassurer ses clients.

Le pivot central est dans l’architecture de la protection des données traitées. Les captures d’écran et le traitement comme le stockage des données issues de celles-ci sont désormais totalement étanchéifiés. Le système construit une machine virtuelle, indépendante et sécurisée par un chiffrement assuré par une solution matérielle. La fameuse puce TPM que Microsoft a réclamé à ses utilisateurs pour pouvoir installer Windows 11 est ici prise en charge pour assurer une solution chiffrée sécurisée. Cette première étape élimine le plus gros risque d’une atteinte à des données privées par des tiers classiques ayant simplement accès à la machine. Si cela ne garantit pas une étanchéité parfaite pour un hackeur malveillant et compétent, cela demande des ressources qu’un employeur ou un conjoint lambda n’a généralement pas.

Pour acceder aux données il faudra néanmoins assez peu de choses, une simple authentification de la session. Soit avec un mot de passe, un code PIN ou une protection biométrique. Certaines de ces méthodes sont assez peu fiables et l’usage d’un code PIN sur un lieu de travail peut facilement être intercépté. C’est dans tous les cas beaucoup plus sécurisant que la porte ouverte aux données proposée par la première version.

Chaque capture d’écran, chaque information de la base de donnée sera ainsi authentifiée et chiffrée, liée à un utilisateur précis de la machine. Impossible pour un autre utilisateur d’y avoir accès l’autorisation de son propriétaire. Autorisation qui peut cela dit être volontaire ou forcée. Microsoft en profite pour lier la fonction Recall à d’autres sous des prétextes de sécurité : la mise en place d’un TPM 2.0, le chiffrement, la fonction BitLocker, la vérification du démarrage de la machine et l’intégrité du système. En cas d’anomalie au démarrage ou dans le système, il sera impossible de récupérer ses données Recall. En cas de vol d’un stockage ou à la perte d’un portable par exemple, il y a fort peu de chances que l’on puisse explorer votre historique internet ou vider vos comptes en banque.

Installation optionnelle et sessions privées

Microsoft a bien senti que son public d’utilisateur était pas forcément enchanté de la fonction. Aussi l’éditeur prévoit que celle-ci soit installée que si l’utilisateur en fait la demande pendant la configuration liée au premier démarrage de Windows 11. Si l’utilisateur ne souhaite pas « profiter » de cette fonction, alors elle ne sera pas active. Evidemment cela suppose que les utilisateurs aient droit à ce premier démarrage ce qui n’est pas toujours le cas en entreprise. C’est également estimer que l’ensemble des utilisateurs de Windows qui achètent un nouvel ordinateur savent de quoi il s’agit. Et si aucun choix ne sera fait de la part de Microsoft qui ne sélectionnera aucune option à l’avance, j’imagine assez mal qu’il présenteront la fonction Recall avec un angle mettant en en avant d’éventuels soucis de sécurité.

Il est également intéressant de noter qu’il sera possible de désinstaller Recall après installation, cela permettra même de détruire la base de données et les recherches associés générées par l’IA embarquée.

Exclure un site web des enregistrements Recall sera possible

Autre argument de Microsoft, la gestion des sessions de navigation privée. Windows 11 saura reconnaitre une sessions classique d’une session privée et n’enregistrera donc pas les données naviguées en privé. Cela signifie que pour aller visiter votre banque, consulter vos informations médicales ou tout autre activité que vous ne voulez pas voir analyser par Recall, il faudra ouvrir une page privée avec votre navigateur. On peut également sortir des applications ou des sites web de la surveillance de l’IA afin qu’ils ne soient pas répertoriés par le système. Enfin, la fonction Recall signalera son activité de capture dans la barre de tâche, un clic permettra de mettre en pause la fonction avant d’ouvrir le site de votre banque.

Enfin, Recall permettra de mieux gérer ses archives. On pourra déterminer la date de péremption de ses données pour faire en sorte que les captures les plus anciennes soient détruites. L’espace disque nécessaire au stockage de ces éléments pourra également être limité… ce qui enlève quelque peut l’intérêt à l’entièreté de la fonction mais passons.. 

Exclure un programme également

La gestion des contenus les plus problématiques d’un point de vue sécurité sera également analysée avec un peu plus de contraste qu’auparavant. Les mots de passe, les numéros de carte de crédit et autres éléments du même type comme votre N° de sécurité sociale ou autre identifiant fiscal sera laissé de côté. Comme un gros tamis qui ignorerait vos frappes en analysant celles-ci en temps réel. Attention cependant, comme tous les tamis, il est possible que quelques éléments passent entre les mailles. Microsoft annonce bien un filtrage de vos données pour diminuer la fréquence de relevé de ces informations. Recall laissera passer des éléments de ce type et posera donc toujours le problème de leur archivage et de leur exploitation.

Quelques petites remarques personnelles sur ce Recall 2.0

D’abord et avant tout, l’ampleur des « corrections » apportées par cette remise à plat montre bien à quel point la version de base était problématique. A quel point c’était passée au dessus de ses équipes de développement. L’éditeur s’en défend en expliquant que cette première mouture était une étape intermédiaire de leur production classique. Une avant première de ce que l’IA allait apporter dans les machines personnelles et que la sécurité était toujours à l’esprit de ses équipes. En laissant un moyen d’éplucher la vie de l’utilisateurs sur de mois et avec un système de recherche sans aucune restriction sur l’ensemble de ses navigation, cela parait difficile a croire. 

Second point, cette nouvelle mouture fait le pari de la compétence de l’utilisateur qui saura se préserver, faire les bons choix et corriger d’éventuelles erreurs sur son installation. C’est un pari audacieux. Si je crois intimement que tout le monde est capable d’apprendre l’informatique et de devenir un expert (J’ai assez vu de personnes s’y mettre sur le tard et devenir des gens tout à fait compétents sur plein de domaines en informatique, en autodidactes et sans formation de base.) je reste persuadé que cela représente un effort que beaucoup ne vont pas faire. Etanchéifier la présence de Recall à l’installation de son système supposerait que la présentation de celui-ci se fasse avec de explications techniques qui seront bien entendue trop longues. Un marketing avantageux prendra le relais. Je suis persuadé que Recall sera installé en masse par défaut comme restent installés pendant des années des pop-up de bloatwares pénibles rappelant l’expiration d’une offre anti-virus installée par le constructeur. L’utilisateur lambda va laisser Recall archiver sa vie numérique sans même le comprendre parce qu’il jugera trop complexe de faire autrement. Ou plus reposant.

Quand aux options de protection a postériori qui exigent de passer par les paramètres de Windows pour aller designer tel site ou telle application, je n’y crois pas trop non plus. Des réglages plus simples passent au dessus de la tête de nombreux utilisateurs et beaucoup d’autres en entreprise n’ont absolument pas la main sur ces fonctionnalités. Résultat, Recall restera un outil séduisant mais très dangereux pour l’utilisateur inconscient de son potentiel. Et cela d’autant plus que prendre la main sur une machine ainsi équipée deviendra vite un enjeu très intéressant pour des hackeurs à la recherche de données confidentielles mal sécurisée.

Le bon vieux scam téléphonique qui consiste a prendre la main sur une machine distante en demandant à l’utilisateur d’installer un logiciel ouvrira alors de belles promesses.

Microsoft annonce Copilot+, une IA intimement mêlée à Windows

Minimachines.net en partenariat avec Geekbuying.com
Microsoft Recall revient et montre patte blanche © MiniMachines.net. 2024.

Nvidia GeForce RTX 2050 : le chaînon manquant

25 septembre 2024 à 08:05

Mise à jour du 25/09/2024 : Le PC Skillkorp sous RTX 2050 est désormais disponible à 699€ chez Boulanger.

Billet original du 18/09/2024 : Il y a quelques temps, j’ai commencé à chercher une machine équipée d’une puce GeForce RTX 2050. La longévité de cette offre m’intriguait. J’ai donc contacté plusieurs marques qui proposaient la puce dans leurs portables pour essayer de mettre la main sur une de ces machines.

Le Skillkorp P17R2050

Peine perdue, les constructeurs n’ont pas ce type d’engin dans leur parc de prêt. Ils préfèrent miser sur le haut de gamme et les machines les plus standard. Le GeForce RTX 2050 ne semble pas être leur principale préoccupation et on peut les comprendre. On m’a proposé des engins en RTX 40×0 sans soucis mais impossible de trouver la carte qui m’intéressait. Et puis, il y a quelques temps, Nvidia m’a proposé un portable équipé de ce circuit. Un engin assez particulier puisqu’il s’agit d’une machine construite par Asus mais vendue sous la signature de Skillkorp. Une marque qui appartient à la chaine de magasins Boulanger. Peu importe, mon intérêt était toujours là et je voulais comprendre pourquoi le RTX 2050 était encore présent sur le paysage actuel.

Il faut dire que la puce parait un peu anachronique en 2024. Pourquoi Nvidia persiste à proposer ce circuit graphique quand il dispose dans son arsenal des RTX 3050 et autres RTX 4050 ainsi que tous leurs dérivés. On peut légitimement se poser la question de la pertinence de ce choix technique. J’ai fini par comprendre le pourquoi de cette puce en manipulant la machine. Au final, l’existence de ce RTX 2050 est devenu une évidence.

Le RTX 2050 est un croisement entre deux gammes, un positionnement clairement étrange d’un point de vue technique mais qui a du sens quand on prend un peu de recul. Annoncée à la fin de l’année 2021, la puce de Nvidia est arrivée en magasin au printemps 2022 avec de premiers portables à l’employer sur des solutions milieu de gamme. C’est une construction assez étrange, on aurait pu s’attendre à une architecture Turing comme pour le reste des RTX 20 mais il n’en est rien, c’est bien une solution de la génération Ampère qui est au coeur de ces cartes. La génération des puces intégrées aux RTX 30. Problème pour Nvidia alors à l’époque, avec un RTX 2050 et un RTX 3050 basés sur la même architecture, il existait un gros risque de doublon.

La solution trouvée a été simple, si la puce de base est la même, un GA107, les 2050 sont équipées de 2048 cœurs CUDA seulement. Les RTX 3050 sont, suivant les modèles, livrées avec de 2304 à 2560 cœurs de ce type. La fréquence de boost est identique à celle de la RTX 3050 de base, 1477 MHz. Mais Nvidia a également choisi de sabrer d’autres éléments de son dispositif. Et pas n’importe lesquels, les plus sensibles à un usage vidéoludique.

Le bus mémoire est laissé à 64 bits, contre des solutions de 96 à 128 bits suivant les modèles de RTX 3050. On se retrouve donc avec une bande passante de 112 Go/s au mieux pour 4 Go de GDDR6. Les 3050 sont proposées en 6 ou 8 Go de GDDR6. Pour résumer l’état des lieux, la GeForce RTX 2050 est une GeForce RTX 3050 à l’interface mémoire sabrée et dont le GPU affiche une fréquence moins élevée mais établie autour de la même architecture. Est-ce que cela a du sens ? Oui et non, cela dépend grandement de comment vous regardez la solution.

RTX 2050 : le nouvel entrée de gamme mobile de Nvidia

Le problème rencontré par la puce graphique vient de son nom. L’adage dit que quand on réfléchit comme un marteau, on a tendance à voir tous les problèmes comme des clous. Et les trois lettres RTX font voir à la majorité des utilisateurs la puce comme une solution de « gaming » pur et dur et donc à la juger comme telle. C’est à mon avis une erreur. Si on regarde la RTX 2050 comme une solution orientée jeu, elle n’a pas de sens. On sera forcément déçu de ses performances par rapport à des puces comme une RTX 3060 ou une encore plus récente RTX 4050. La puissance embarquée est limitée par les choix fait par Nvidia qui ne considère pas à mon avis cette solution vraiment dans une orientation purement ludique.

Cela ne veut pas dire qu’on ne pourra pas jouer avec, elle est même tout à fait capable de lancer des jeux. Simplement, elle n’a pas été pensée pour cela. Son objectif est différent. L’idée pour Nvidia est de trouver une cohérence technique et marketing dans sa gamme. Difficile pour la marque de mettre en avant ses technologies maison sans pouvoir les adresser à toute leur gamme de processeurs graphiques.

La RTX 2050 n’est pas une puce dédiée au jeu, c’est une solution entrée de gamme qui ouvre une porte sur les usages d’une machine moderne. Elle propose des fonctions CUDA qui seront exploitables pour des programmes créatifs, la possibilité d’exploiter des fonctions de décompression vidéo avancées, des capacités DLSS pour améliorer la fluidité de certains jeux, du Raytracing pour en augmenter la qualité d’image et des possibilités d’affichage vidéo haut de gamme. Bref de quoi transformer un ordinateur basique avec un circuit graphique embarqué en une solution ayant de plus grandes possibilités.

Cela ne vous rappelle rien ? C’était le credo pendant très longtemps des circuits MX de Nvidia. Des puces entrée de gamme qui proposaient un peu plus de performances que les circuits graphiques des processeurs AMD et Intel de l’époque. Ces MX450, MX550 et autres MX570 ont quasiment disparu, justement parce que le public ne comprenait plus leur intérêt face à la montée en puissance des performances des solutions embarquées dans les nouveaux circuits d’AMD et d’Intel. 

Le RTX 2050 est en quelque sorte le nouveau circuit MX. Une solution qui propose un peu plus que l’offre de base mais qui permet surtout à Nvidia de pouvoir communiquer de manière cohérente sur les nouveaux services de sa gamme. Comment expliquer à ses clients que ses cœurs CUDA sont si importants si son entrée de gamme n’en possède pas ? Comment vanter les mérites du Raytracing ou du DLSS en omettant cette fonction sur certaines puces ? Au final cette solution graphique permet a Nvidia de considérer sa gamme comme un tout et d’avancer ses pions sans risquer la critique. Même avec une RTX 2050, on peut monter des vidéos confortablement, lancer un programme de retouche d’image accéléré matériellement et jouer correctement en 2D comme en 3D. Bien sûr, ce ne sera pas au niveau des autres cartes de la gamme et les RTX 3050, RTX 4050 et supérieures écraseront rapidement les prétentions de la RTX 2050 en jeu. Mais ça sera possible. Et même assez confortable.

RTX, des lettres de noblesse qui mènent à une situation paradoxale

Evidemment le défaut de cette stratégie est qu’il est difficile de ne pas considérer le « RTX » de l’offre comme un indice d’orientation « Gamer ». Nvidia en est d’ailleurs responsable puisqu’il a communiqué largement sur le côté performance de sa gamme GeForce. Et de fait, si la 2050 peut jouer, et encore une fois elle n’est pas du tout incompétente sur ce poste, ce sera sans commune mesure avec ce que proposent des engins sous 4060 aujourd’hui. J’aurais même tendance à dire qu’embarquer dans un portable estampillé « Gamer » un RTX 2050 n’est pas forcément très sérieux de la part des fabricants. Ces engins peuvent lancer énormément de jeux dans de bonnes confitions mais je suppose que leur principal intérêt c’est surtout de pouvoir tout faire très correctement : bureautique, création, média, surf tout en permettant de jouer pour un budget restreint.

Comme vous le verrez plus bas avec le Skillkorp, il est tout à fait possible de jouer confortablement avec une RTX 2050 et cela reste vraiment au dessus des performances que l’on va demander à un portable sans circuit spécialisé aujourd’hui. Mais est-ce logique d’appeller un PC sous ce circuit graphique un PC « Gamer » ? Ca l’est si on se place face aux solutions sans circuit graphique spécialisé. Mais ca l’est beaucoup moins quand on voit le reste du marché actuel autour des RTX 40xx.

J’ai tendance à voir l’offre des cartes graphiques comme une salle de concert. Tout le monde vient voir le même spectacle mais les billets les plus chers permettent d’approcher la scène au plus près. Les billets les moins chers vous donnent une vision et un son indirect ou lointain. On transforme un spectacle avec des humains identifiables sur scène en quelques points qui se déplacent au loin.

C’est un peu la même chose pour le jeu vidéo et les cartes graphiques. Des artistes mettent en scène un jeu avec des tonnes de détails, des animations, des textures, des ombres et des effets variés pour créer une épaisseur graphique, une ambiance globale dans le jeu. Le possesseur d’une carte graphique haut de gamme profitera de l’entièreté du spectacle en haute définition de manière fluide. Avec une carte plus entrée de gamme, on aura droit au même jeu mais en plus basse définition, avec des textures moins subtiles, un ombrage absent et moins de détails d’environnement. C’est le même spectacle mais pas les mêmes sensations. Les deux répondent à des envies et des budgets différents. La RTX se situe sur l’entrée de gamme « joueur ». Les circuits graphiques embarqués d’Intel, AMD et Qualcomm se positionnent souvent en dessous.

Le problème est que cette entrée de gamme est devenu invisible, il a totalement disparu des radars. Cette situation vient d’un marché d’excellence porté autant par les studios de développement que les concepteurs de puces, les fabricants et les médias. Comme aucun constructeur ne veut prêter de machine entrée de gamme équipée de circuit comme la RTX 2050. Le regard du public sur les portables à destination des joueurs vient uniquement de l’autre côté du spectre. Les machines équipées de RTX 4060 et RTX 4070, par exemple, sont souvent étudiées. Des modèles très haut de gamme sous RTX 4090 sont également régulièrement testés. Leurs résultats définissent un marché pourtant totalement inaccessible à la plupart des bourses. Et ce faisant, ils décalent l’appréciation du marché de manière particulière.

Le haut du podium est trusté par des engins à plus de 3000 euros pour atteindre des 4000, 5000 et même plus de 6000 euros. Ces portables d’exception ont du sens, ils sont rapides, efficaces, généralement extrêmement bien construits et sans fausse note technique si ce n’est un look parfois tapageur. Leur niveau de performance efface les configurations beaucoup plus accessibles des radars et les acheteurs de solutions plus petites le font souvent par dépit. Parce qu’il ne serait pas raisonnable d’investir un tel budget dans un PC. La fenêtre d’observation des performances que l’on estime alors normale pour un PC de jeu est donc située dans un espace compris aujourd’hui entre le RTX 4070 et le RTX 4090, les modèles en dessous ne sont pas analysés. Au final, tout le monde juge le marché à partir de données hors marché.

Le RTX 2050 a également été une cible facile pour de nombreux influenceurs qui ne payent généralement pas leurs machines

On n’imaginerait pas juger le prix moyen d’un repas quotidien en se basant sur un tarif se situant entre la bonne brasserie et le restaurant étoilé. Chez soi, on ne dépense pas entre 30 et 150€ par personne à chaque repas. C’est pourtant cette vision du marché portable qui est dessinée par les tests. Les machines qui servent d’étalon pour juger l’ensemble du secteur n’ont rien à voir avec ce que peuvent s’offrir la majorité des clients. Il y a une énorme dissonance entre le budget des acheteurs et la mise en avant proposée par les marques. Ce n’est clairement pas nouveau mais ces dernières années cela a pris des proportions de plus en plus extravagantes avec la hausse globale des tarifs des circuits graphiques.

Et si je constate que ce portable Skillkorp est tout à fait compétent dans un usage de jeu classique et familial, je n’arrive pourtant pas à trouver de commentaires élogieux autour d’une machine sous RTX 2050. Ces puces ne sont clairement pas en lice pour devenir des solutions de portables haut de gamme mais elles ont toutes leur place dans un univers familial. Alors qu’est-ce qui cloche ?

Les joueurs équipés de grosses cartes n’aiment pas l’entrée de gamme

Je ne suis pas un sociologue du marché informatique mais j’ai pu constater à de nombreuses reprises un mépris très clair pour les composants jugés comme « entrée de gamme ». D’abord dans mes rencontres avec des lecteurs, en discutant avec des journalistes spécialisés, des vendeurs ou de simples clients. Les gens n’aiment pas les processeurs ou les puces graphiques entrée de gamme. Et très souvent ils en parlent en se basant sur un a priori très fort plus que sur une expérience vécue.

Les puces MX450 ou MX550 de Nvidia ou les processeurs Intel Celeron, par exemple, ont étés catalogués comme inutilisables par des utilisateurs qui n’en possédaient pas et qui ne les avaient jamais vus en action. Tous les jugeaient impropres pour leur usage alors que ces puces correspondaient en fait très souvent à leurs besoins.

Des cartes comme les RTX 2050 ou RTX 3050 sont mises de côté comme un entrée de gamme presque infâmant pour un utilisateur « qui se respecte » ai-je pu entendre dans la bouche d’un client de grande surface. Pourtant son profil était parfaitement dans l’axe de ces puces graphiques : joueur très occasionnel et usage surtout bureautique de sa machine. Il allait partir sur une carte autrement plus onéreuse pour satisfaire une idée de puissance informatique qu’il fantasmait au vu de ses jeux préférés. Avec un argument toujours très fort de se dire qu’il achetait pour que ça « dure longtemps ». 

Je crois sincèrement qu’il y a une détestation des RTX xx50 du simple fait de leur appartenance au même groupe « RTX » que les cartes plus haut de gamme. Comme si cela créait une certaine porosité entre les puces. Le circuit 4050 est jugé comme presque infâmant. Le 4060 commence a être quelque chose et avec une dizaine de plus, le 4070 est enfin assez « loin » du 50 pour que l’acheteur se sente rassuré. Vu les investissements en jeu avec des prix de plus en plus élevés, on ressent un discours assez fort sur la peur des clients de voir leur circuit graphique déclassé au simple gré d’une mise à jour. Comme si le niveau de performance d’une carte était un élément de positionnement social au même titre qu’une voiture ou un habit. Et de fait, en ligne, personne ne va vous juger sur votre manière de vous habiller. Par contre si on vous demande quel matériel vous utilisez, alors vous aurez des réactions plus ou moins gênées de la part des moins bien lotis.

Certains groupes de joueurs en équipe n’acceptent pas les personnes n’ayant pas un niveau de performances minimal avec leur PC. D’autres vont charrier un joueur qui débarque avec une « 50 » ou un circuit graphique intégré à son processeur en jeu. Et ce joueur de s’excuser presque en promettant de « mettre sa config’ à jour » quand il pourra. Ces réactions sont assez évocatrices du désamour de ces puces et cela même si le jeu est finalement parfaitement possible avec une configuration parfois trois fois moins chère que d’autres joueurs en ligne. 

Les internautes « experts » aiment détester les RTX xx50 parce que cela leur permet de se positionner au dessus. Et cela même si finalement les puces sont parfaitement adaptées à la majorité des scénarios du quotidien des gens qu’ils vont mal conseiller.

Le RTX 2050 apporte des solutions invisibles aux utilisateurs

J’ai pu lire dans les commentaires de Minimachines des intervenants estimer que les MX450 ou MX550 n’avaient aucun sens pour des portables. Parce qu’ils n’étaient pas beaucoup plus performants que les circuit intégrés dans des puces modernes. Et c’est vrai, du moins en partie. Si on les considérait que sous l’angle des performances brutes en jeu en face du haut de gamme de l’époque – Le Ryzen 5900HS alors – le gain proposé par le MX550 n’était pas formidable. Et si les autres aspects proposés par la puce comme les accélérations matérielles des applications vidéo et graphiques n’étaient pas prise en compte, alors on ne voyait pas vraiment leur intérêt. En oubliant au passage que les Ryzen capables de rivaliser avec les MX550 n’étaient évidemment pas vendus seuls mais le plus souvent dans des configurations moyennes et haut de gamme avec un circuit graphique secondaire et qui explosaient le plafond du prix des machines équipées de Nvidia MX.

Ce même internaute – d’après son pseudo – a jugé quelques années plus tard ne pas comprendre l’intérêt des RTX 2050 pour les mêmes raisons. Et cela même si le circuit embarqué proposait alors de bien meilleures performances en 3D et toujours plus de fonctionnalités annexes pour la créativité, les usages vidéo et autres. La morale de cette vision est claire, l’entrée de gamme ne plait pas parce qu’une catégorie d’internautes ne voit pas pourquoi on achèterait pas un PC sans un niveau de performances suffisant pour lancer le dernier jeu triple A à la mode dans les meilleures conditions possibles. Même si le but de la machine est tout autre.

Du coup, comment faire pour que Nvidia, AMD ou Intel puissent proposer des circuits entrée de gamme sans se faire pousser dans les cordes par des gens qui vont juger leurs produits sans les connaitre ? Alors même qu’ils ne s’adressent pas à eux ? C’est une autre des particularités des internautes spécialistes, ils adorent critiquer des produits en se basant uniquement sur leur approche du marché. Et on voit très souvent survenir sur les réseaux sociaux un « expert » sorti de nulle part expliquer que sa configuration à cinq fois le budget demandé, est meilleure.

Il y a pourtant d’énormes différences d’usages potentiels entre une machine AMD, Intel ou Qualcomm avec un circuit graphique intégré au processeur et une autre avec un circuit graphique comme la RTX 2050. Les cœurs CUDA de ces cartes Nvidia permettent énormément de choses en plus : outre le DLSS et le RTX pour le jeu, il y a tous les usages créatifs qui entrent en scène pour la vidéo, la photo et le développement d’images. En désactivant les fonctions CUDA sur ce type de portable, on ne retrouve absolument plus la même machine en usage graphique. Les fonctions annexes comme le profilage des jeux et le réglage automatique des paramètres qui va permettre de profiter au mieux des titres suivant son matériel est un vrai service. Et bien entendu, la fonction Optimus qui offre à l’utilisateur un saut invisible entre le circuit graphique du processeur et le circuit embarqué Nvidia pour choisir le meilleur ratio de performances et d’autonomie est un gros avantage technique.

Il y a enfin qu’une puce comme la RTX 2050 embarque sa propre mémoire vive et ne dépend donc pas de celle du système pour fonctionner. Et quand on doit charger des informations spécifiques à un jeu sur un système avec 8 ou 16 Go de mémoire vive, qu’on fonctionne sous Windows et qu’on gère d’autres tâches en prime, cela fait une énorme différence. Passer de 8 Go à 6 pour le système qui va faire tourner le jeu parce que 2 Go seront requis pour des textures n’est pas confortable. Désengorger la mémoire en utilisant de la GDDR6 très rapide sur un circuit externe indépendant est évidemment un avantage.

Une situation complexe pour les constructeurs

Je n’ai aucune solution miracle pour que les marques puissent mieux communiquer sur leur entrée de gamme afin de mettre en valeur ce genre de puces, je ne suis même pas sûr qu’ils en aient envie, mais j’ai peut être quelques conseils. D’abord une volonté d’encourager les marques à prêter plus de machines de ce type. Simplement pour que la fenêtre d’observation du marché ne soit pas coincée entre le moyen de gamme et le très haut de gamme. Cela permettra de relativiser les performances et donc les usages. Si le grand public pense qu’en dessous de 100 images par seconde tous détails à fond en 1440P, un jeu n’est pas jouable, vous truquez vous même le marché.

Communiquer sur les solutions entrée de gamme, comme le RTX 2050, avec autre chose que des arguments « Gamer » serait aussi une bonne idée. Les puces proposées sont capables d’énormément de choses mais ne font pas forcément le poids sur le jeu pur. Changer d’angle permet de sortir de l’ornière de la comparaison la plus facile, celle d’un benchmark idiot qui va analyser le nombre d’images par seconde de chaque carte et oublier tout le reste. En intégrant ce même PC Skillkorp dans un châssis plus classique, vous ne séduirez peut pas les joueurs mais vous répondrez aux filtres familiaux. Les joueurs acharnés ne jugeront de toutes façons pas la solution comme satisfaisante pour leur loisir.

Que conclure sur cette première partie bien trop longue ? Que le RTX 2050 est un processeur graphique d’entrée de gamme tout comme il en existe chez AMD et  Intel. Que l’entrée de gamme d’aujourd’hui n’est plus celui d’il y a seulement 5 ans. Que ces puces sont capables de faire énormément de choses et qu’il faut apprendre à les mettre en valeur. Ce ne sont pas des circuits à vocation de jeu trop intense mais qui apportent un vrai confort d’usage au quotidien pour un prix bien plus acceptable que des configurations de jeu classiques.

Venons en au portable Skillkorp P17R2050

Le P17R2050 n’est pas vraiment une minimachine mais c’est donc le seul engin que j’ai pu prendre en main avec ce type de configuration. Et pour commencer je tiens à souligner le confort qu’il propose. C’est un portable de 17.3 pouces de diagonale avec une dalle assez classique. Il s’agit d’une solution de type IPS aux larges angles de vision avec une définition de 1920 x 1080 pixels. Cela donne un affichage très lisible et confortable pour tous les usages. Le rafraichissement est élevé avec 144 Hz. De quoi donner souvent l’impression d’avoir sous les yeux plus une image imprimée qu’un écran de PC. Ce confort de l’affichage est une donnée importante de l’équation posée par le P17R2050. C’est avant tout un ordinateur familial capable de lancer des jeux plus qu’un PC gamer pur et dur. Et avec ce type d’écran tout le monde peut se servir de la machine sans soucis, quel que soit son âge et ses éventuels problèmes de vue.

L’écran n’est pas des plus lumineux avec 250 nits seulement quand des ultraportables récents affichent entre 500 et 600 nits. Mais cela correspond au profil de cette machine qui n’est pas vraiment pensée pour être sortie à une terrasse de café ou posée sur un plateau de siège de TGV. Pas besoin de lutter contre la luminosité ambiante donc, en intérieur les 250 nits suffisent dans la majorité des cas. La colorimétrie est également assez basique avec un maigre 62.5 % de la gamme sRGB et moins de 50% de la gamme Adobe RGB. Ce n’est pas fameux mais encore une fois on n’est pas sur un engin destinés au créatifs pour du développement photo pro ou du montage vidéo calibré. Les tons sont corrects, l’image est bien contrastée, cela répond au cahier des charges voulu par la marque.

La protection anti reflet et le rendu global sont agréables et pour un usage classique de l’engin, cela donne une image reposante et fiable. Le fait que l’affichage soit enserré dans des bordures très fines est un aspect très appréciable de la proposition puisque cela place l’écran 17.3″ dans un châssis de 15.6″ plus classique.

La machine ne mesure pas tout à fait 40 cm de large pour 26.9 cm de profondeur et 2.48 cm d’épaisseur à son point le plus élevé. Elle pèse 2.6 Kilos. C’est à n’en pas douter plus un transportable qu’un portable mais on peut sans soucis la balader d’un lieu à un autre dans une sacoche et d’une pièce à l’autre en la gardant en main. Là encore on est sur une machine familiale qui servira a faire sa comptabilité ou rédiger des courriers dans un bureau, faire ses devoirs et jouer dans une chambre avant de regagner le salon pour choisir ses vacances en famille sur le net ou afficher un film sur le téléviseur. 

La configuration technique est très correcte avec un Ryzen 5 7535HS composé de 6 cœurs zen 3+ pour 12 Threads. Cette puce fonctionne de 3.3 à 4.55 GHz et propose 16 Mo de mémoire cache L3. Elle tourne de 35 à 54 watts et embarque un circuit graphique Radeon 660M composé de 6 cœurs à 1.9 Ghz. Cette puce graphique travaillera donc en coordination avec le circuit graphique GeForce RTX 2050 grâce à la fonction Optimus de Nvidia. L’idée ici est de laisser le circuit graphique AMD intégré au processeur fonctionner dans les usages les moins exigeants et n’enclencher les capacités de la puce Nvidia qu’au moment opportun : pour du jeu, de la restitution vidéo très haute définition, des calculs 3D lourds ou de l’accélération graphique. 

La problématique posée par la partie RTX 2050 vient de sa gourmandise en énergie. Avec 70 Watts de TDP, la puce graphique va plus que doubler la consommation du processeur de base et faire appel à cette extension pourra mettre en péril l’autonomie de l’engin sur batterie tout en augmentant le besoin de refroidissement de l’ensemble. Le fait que le système jongle automatiquement entre les deux circuits graphiques apporte donc un certain confort. A la fois d’usage avec des performances ajustées mais également d’autonomie et de nuisance sonore. Le 17″ sait rester très calme niveau bruit lorsque l’on ne le sollicite pas au maximum. Son autonomie en usage mixte n’excède pas les 3H, c’est souvent le cas des portables avec un écran de cette taille.

La carte graphique Nvidia embarque 4 Go de mémoire GDDR6 qui lui est propre, le système quant à lui se base sur un double port SODIMM équipé de deux barrettes de DDR5-5600 pour un total de 16 Go de mémoire vive double canal. Il sera possible de le faire évoluer facilement en 32 Go de mémoire vive même si cela n’est pas forcément utile au vu du profil de cet engin. Le stockage est monté sur un SSD M.2 2280 de 512 Go au format NVMe PCIe 4.0 x4 aux performances très confortables. A noter qu’un second port M.2 2280 NVMe PCIe libre est disponible sur la machine. L’accès à ces composants n’est pas compliqué, quelques vis à retirer au dos du portable.

La connectique est classique avec, pour commencer, un module M.2 2230 en Wi-Fi6 et Bluetooth 5.3 pour des débits sans fils rapides. En pratique l’accroche est excellente et les débits mesurés tout autant. L’installation de jeux via Steam ou Epic comme la mise à jour de Windows 11 se sont déroulés de manière très efficace. Si le passage par l’Ethernet Gigabit était plus rapide c’est surtout à cause d’un certain encombrement de mes réseaux sans fil. Je suppose que les antennes Wi-Fi profitent à plein de l’écartement disponible sur les angles de l’écran 17.3″. Un détail qui fait toute la différence par rapport aux MiniPC qui me passent entre mes mains d’habitude et dont les débits sont bien plus faibles. Bref, un poste de connexion sans fil très efficace lié à la taille de la machine.

Le reste comprend donc un Ethernet Gigabit, un USB 3.2 Gen 2 Type-C avec prise en charge du DisplayPort, trois ports USB 3.2 Gen 1 Type-A, une sortie vidéo HDMI 2.1 et un jack audio combo 3.5 mm. un port antivol type Kensington Lock est présent et l’alimentation se fait via un port jack propriétaire. Le bloc secteur est un modèle 150 watts en 20 volts et 7.5 Ampères.

Il est assez massif et propose un câble secteur fixe que l’on ne pourra pas retirer. Encore une fois, on est plus sur un transportable qu’une solution plus souple avec un câble secteur détachable. C’est tout de même un détail qui pourrait être corrigé. Devoir trimballer la prise d’alimentation avec le bloc et le portable alourdit encore un peu plus l’ensemble.

La partie ergonomique est bonne, on retrouve un clavier complet, rétro éclairé RGB une zone avec un touché chiclet agréable et sans flexion du support. La lisibilité des touches est excellente. Un point trop souvent oublié par les constructeurs qui pensent à la joliesse du dispositif avant son usage. Ce n’est pas le cas ici et on distinguera aisément lettres et chiffres pour une prise en main très rapide.

L’espace disponible sur le 17.3 pouces permet de proposer un pavé numérique complet. Les touches fléchées sont séparées du reste du châssis et les touches utiles comme le majuscule droite, la touche entrée ou le retour sont de bonne taille. On note également le léger décrochement en hauteur de la barre espace, correspondant au pouce de la main gauche. Celle qui appuiera sur les touches blanches rétroéclairées. Ce léger recul permettra de conserver une position de la main détendue pour un adulte, sans avoir à remonter le pouce constamment. Les raccourcis et touches de fonctions sont plus tassés mais restent accessibles et on remarque un changement avec des touches « blanches » à deux endroits. Le premier est lié à l’usage des touches ZQSD pour le jeu. Le second est un clin d’oeil au K de Skillkorp. La lettre est présente à plusieurs emplacements du châssis avec un rappel sur le pavé tactile et la coque. 

Pavé tactile qui semble un peu étroit, perdu dans le large et profond repose poignet de la machine, reste de bonne taille. Le P17R2050 est vraiment imposant et c’est plus une impression d’étroitesse qu’un véritable constat. Les boutons sont facilement accessibles et leur clic est silencieux. Petit détail tout de même, la coque est entièrement réalisée en ABS, point de métal ici. Si elle est assez épaisse et ne sonne pas en creux, le traitement de surface avec ses angles et son aspect brossé ne doivent pas laisser d’illusion sur les matériaux employés.

La partie audio est classique avec un module d’enceintes stéréo proposant une spatialisation de base. Le sticker DTS n’est plus vraiment une indication de haute qualité et le recours à un système d’enceintes Bluetooth ou un casque sera apprécié. On note sur ce point que la sortie jack 3.5 mm est au format Hi-Res et délivre un signal très correct sans parasites. La webcam est classique, 720P, elle profite des fonctionnalités Broadcast de Nvidia pour débruiter le signal vidéo si vous vous filmez dans une pièce sombre, permet d’améliorer le son des micros embarqués et offre des effets de changement de fond ou de floutage de l’arrière plan en temps réel. Tout cela grâce aux fonctions intégrées dans la carte graphique RTX. Le micro embarqué est juste passable, là encore le recours à un casque micro arrange la donne.

D’un point de vue confort d’utilisation, on note également un gros effort sur la ventilation dans tous les modes. L’engin ne se fait que rarement entendre. Il faut vraiment le pousser dans ses retranchements dans la durée pour avoir droit à une montée en puissance de la ventilation et donc du bruit généré. 

Pour parvenir à ce résultat, ce Skillkorp combine plusieurs éléments entre eux. Il y a d’abord l’espace disponible. Le 17.3 pouces est large et épais. Cela permet de proposer une aération conséquente des composants.

Il y a plusieurs aspirations d’air frais qui se combinent pour générer un flux important. Au dessus du châssis mais également en dessous avec des ouvertures juste à la perpendiculaire des aspirations de ventilateurs. Trois espaces d’ailettes permettent de repousser la chaleur en dehors de l’engin. Sur le côté droit mais aussi sur l’arrière. Au final, on note un usage assez calme du dispositif, même en jeu. Non seulement il ne monte pas trop dans les tours mais le bruit généré est stable et ne part pas dans les aigus.

Quels usages avec ce type de machine ?

Boulanger met en avant la gamme TUF d’Asus dont est issu cet engin pour le vendre comme un portable Gamer. Le design particulier, les finitions, l’esthétique et les ajouts comme le rétroéclairage RGB de la machine vont dans ce sens. Pourtant, encore une fois, ce n’est pas à mon avis la vocation pure de cet engin. On pourra jouer avec ce P17R2050 mais ce n’est pas vraiment son réel domaine d’expertise. A vrai dire cet engin n’a pas ce type de luxe. Ce n’est pas une solution de jeu ni une machine créative. C’est un engin familial plutôt classique destiné à remplir tout type de tâches du quotidien de manière très correcte.

La gestion du RGB AURA avec les touches fléchées

Pour autant, le trio Ryzen 5 7535HS, 16 Go de mémoire vive et RTX 2050 donnent de bons résultats dans de nombreuses tâches. Je ne m’appesantirai pas sur les travaux bureautiques ou le multimédia qui sont bien entendu pilotés sans faiblesses. Le surf en ligne est également très confortable avec cette machine.

Les usages créatifs en création et retouche d’image sous Affinity Photo 2 avec l’OpenCL ou Adobe Photoshop et la prise en charge des cœurs CUDA ou en développement d’image avec DXO Photolab se passent sans problème. L’accélération materielle CUDA sous DaVinci Resolve est parfaitement opérationnelle et permet des enchainements de montage avec une prévisualisation en temps réel très confortable en FullHD. Le rendu est également pris en compte par le duo processeur et circuit graphique pour des traitements accélérés. L’ajout d’un second moniteur est parfaitement possible en HDMI ou DisplayPort et ouvre des usages créatifs complets et confortables.

Sous Fusion360 la réalisation d’un objet 3D pour impression tout comme sa préparation sous Orca Slicer se passent sans aucun souci. Les temps de découpage de l’objet créé ne sont pas des plus rapides par rapport à des solutions plus musclées évidemment, mais tout fonctionne. La lecture de vidéos UltraHD via Displayport ou HDMI sur un écran déporté, ou FullHD sur l’écran de la machine sont parfaitement gérés dans les codecs les plus exigeants.

D’un point de vue jeu, avec des concessions de qualité faites sur le rendu, la machine se débrouille fort correctement. 

Des exemples obtenus avec le portable SkillKorp ? J’ai pu tester une liste assez classique de jeux plus ou moins gourmands avec la machine et tout est jouable en FullHD. Parfois avec plus ou moins de confort mais toujours assez correctement. CyberPunk 2077 par exemple sort à 35 images par seconde avec des détails moyens. Ce n’est pas  merveilleux, ce n’est pas au niveau d’une solution du type RTX 4060 ou supérieure mais cela reste parfaitement exploitable. GTA V, plus tout jeune, tourne entre 90 et 100 images par seconde avec des détails sur haut. Warzone 2.0 atteint les 65/70 IPS en détails moyens avec le DLSS activé en mode qualité. C’est un des autres avantages de ce type de cartes graphique, pouvoir profiter de fonctionnalités comme le DLSS pour améliorer les performances en jeu.

Elden Ring, en détail moyens, fonctionne à 50 images par seconde. Genshin Impact 2 est à 60 IPS en détails haut. Forza Horizon 5 dépasse les 90 images avec de rares baisses à 85 toujours pour du 1080P en détails moyens. Horizon Zero Dawn en DLSS réglé sur Qualité offre 50 à 55 images / seconde en détails moyens. Parmi les plus récalcitrants, Red Dead Redemption II est à 55-60 IPS en 1090P en mode équilibré et DLSS activé en réglage Qualité.

Ce ne sont pas des scores de PC « Gamer » dans le sens où ces titres sont largement au dessus de 60 images par seconde en détail haut sur des ordinateurs portables avec un circuit graphique plus performant. Mais cela permet de répondre à la question de la jouabilité proposée par la RTX 2050 et l’intérêt de celle-ci sur des machines équipées d’un circuit graphique intégré au processeur.

Au final, c’est une bonne machine d’un point de vue performances et robustesse, toujours dans une optique familiale. Peut être que son plus gros défaut est un bas de caisse est un peu mou. La partie arrière du PC qui protège la carte mère a en effet tendance à s’enfoncer un peu trop quand on appuie dessus. Probable conséquence du nombre de ses ouvertures. Pour autant cela reste un engin solide. 

Du Skillkorp P17R2050 en particulier

Ce portable est proposé par Boulanger à un prix que j’ai débord jugé assez mal positionné. Affiché à 799€ au moment où j’écris ces lignes, je trouvais l’appareil bien trop cher face à la concurrence. Avant que je la regarde plus en détail, cette concurrence. Ma première idée était qu’un ordinateur équipé d’une RTX 2050 ne pouvait pas couter ce prix là. Preuve que moi même je peux tomber dans des idées préconçues autour de ce type de cartes graphiques. Au final, je n’ai rien trouvé d’équivalent sur le marché. Je ne dis pas que c’est le prix le plus adapté ni celui que j’espérais mais c’est un prix logique si l’on regarde les offres concurrentes.

Je ne sais pas comment Boulanger fonctionne dans ce schéma en mettant Asus dans la boucle comme fabricant. Quelles marges sont réalisées par chacun des intervenants. Je sais par contre que la distribution locale de Boulanger via sa chaine de magasins l’oblige à une distribution plus particulière que ses concurrents.

A 799€ en ligne comme en magasin, cet engin n’est pas un mauvais placement en soi, c’est juste qu’en regardant autour sur le marché, un connaisseur va trouver autre chose de mieux équipé pour un budget identique. Avec toutefois une petite différence, l’absence de système d’exploitation. Sans Windows embarqué on peut trouver des machines plus performantes assez facilement. Mais le public de Boulanger n’a pas forcément les connaissances nécessaires pour installer un Windows, pire, il ne sait peut être pas comment acheter une licence à part pour moins cher, ni utiliser un système Linux. Le prix du Skillkorp se justifie donc ainsi.

On peut par exemple trouver chez CDiscount un PC Erazer 15.6″ FullHD avec un Core i5-12450H, 16 Go de mémoire vive et 512 Go de stockage et une GeForce RTX 4060 qui sera plus rapide que la RTX 2050. Ou alors sur Amazon, pour 749.99€, un Portable Lenovo 15.6″ Core i5-12450H, 16/512 Go également, avec une RTX 4050, toujours sans système. D’autres choix, d’autres équipements.

Que conclure ? La machine est bonne, bien construite, avec des composants bien choisis. La mode est aux « PC Gaming », un segment qui connait des taux de croissance des ventes assez motivant pour pousser ce Skillkorp à tester cette aventure. Il m’est avis que sous un design classique, l’engin serait invisible dans l’offre actuelle malgré son efficacité. Reste que c’est avant tout une machine familiale et efficace pour un budget relativement serré.

 

Minimachines.net en partenariat avec Geekbuying.com
Nvidia GeForce RTX 2050 : le chaînon manquant © MiniMachines.net. 2024.

Les stages de récupération de points : une bouée de sauvetage pour les conducteurs Français ?

Par : Patrick
6 septembre 2024 à 10:53

En France, le permis de conduire est un précieux sésame pour la liberté de mouvement. Cependant, avec les infractions routières qui peuvent survenir à tout moment...

Les stages de récupération de points : une bouée de sauvetage pour les conducteurs Français ? est un article de Blog-Moteur, le blog des passionnés d'automobile !

Crédit auto, extension de garantie et entretien : combo gagnant ?

Par : Patrick
18 août 2024 à 23:33

Acquérir un véhicule neuf ou d'occasion constitue souvent un investissement majeur. Face à la multitude d'options disponibles pour financer cet achat, il est impératif de bien s'informer.

Crédit auto, extension de garantie et entretien : combo gagnant ? est un article de Blog-Moteur, le blog des passionnés d'automobile !

Comment choisir un moteur d’occasion ?

Par : Patrick
2 juillet 2024 à 09:36

Opter pour un moteur d'occasion s’avère être une alternative économique, et toute aussi efficace pour les réparations. Vous êtes vigilants face à l’achat d’un moteur de seconde main ?

Comment choisir un moteur d’occasion ? est un article de Blog-Moteur, le blog des passionnés d'automobile !

Nous avons découvert les nouvelles Cupra Formentor et Léon (2024) : Plus épicées que jamais !

3 mai 2024 à 06:00

Nous sommes allés à Madrid, afin de découvrir les versions restylées des Cupra Formentor et Léon. On vous dit tout ce qu'il faut savoir à leur sujet !

Nous avons découvert les nouvelles Cupra Formentor et Léon (2024) : Plus épicées que jamais ! est un article de Blog-Moteur, le blog des passionnés d'automobile !

❌
❌