Vue normale

Reçu avant avant-hier

Guide : Installer un serveur sur MiniPC personnel

11 décembre 2025 à 07:08

Cela fait longtemps que j’ai envie de publier un guide détaillant étape par étape comment installer un serveur sur MiniPC. Kevin m’en offre l’opportunité avec une approche détaillée nourrie de son expérience.  Ce guide, rédigé à quatre mains, vous propose de profiter d’un serveur de données parfaitement fonctionnel, efficace et économique. 

Un MiniPC totalement passif, l'idéal pour ce genre de mission puisqu'il ne va générer aucun bruit.

Un MiniPC totalement passif, l’idéal pour ce genre de mission puisqu’il ne va générer aucun bruit.

 

Installer un serveur sur MiniPC c’est facile ? long ? Cher ?

Si les craintes sont toujours grandes devant les efforts à accomplir, il est en réalité devenu assez simple d’héberger son propre petit serveur chez soi. S’il reste des étapes intermédiaires impossibles à dépasser et qui exigeront des compétences techniques extérieures à ce guide : comme l’ouverture d’un port sur son routeur. Le reste ne demande que de suivre les instructions à la lettre. D’un point de vue matériel pur, la chose est devenue triviale. Dans un placard ou dans un garage, dans une gaine technique pas loin de sa box opérateur, il suffit d’un MiniPC. L’investissement est minimal, les minimachines sont abordables et ne consomment pas grand chose. En quelques heures de temps, dans le pire des cas, pour une facture électrique minimale, il est possible de remplacer de nombreux services externes avec un engin personnel. C’est donc assez simple, rapide et économique. En plus de cela, la démarche vous libère de frais récurrents qui vous lient à des services externes.

Guide : Installer un serveur sur MiniPC personnel

Principes de base, choix et installation du système

Les usages d’un serveur personnel sont multiples et peuvent se combiner entre eux. On pense d’abord à l’hébergement de ses propres pages web. Si ce n’est plus vraiment l’usage le plus répandu, ce fut longtemps le vrai moteur de cette pratique. L’auto-hébergement étant bien moins couteux pour de petites structures associatives ou des artisans locaux que de louer un serveur externe. Aujourd’hui, il est devenu facile de proposer une page personnelle ou un petit site web sur la toile avec un simple PC classique.

Le choix d’un serveur personnel offre bien d’autres avantages à l’utilisateur. Cela permet par exemple de faire disparaitre la publicité sur tous les appareils connectés sur votre réseau avec Adguard Home. Ordinateurs, tablettes, téléphones, télévisions connectées éviteront de subir ce fléau débilitant. L’installation de multiples services de manière très simple permettra en outre de piloter de nombreux outils. Diffusion de vidéos et de musiques centralisées sur tout son réseau, automatisation de tâches avec N8N, gestion de mots de passe avec Vaultwarden, téléchargement automatisé avec Radarr, gestion des finances avec ActualBudget… Et mille autres emplois véritablement à la carte proposés par ce type de solution.

Pour de multiples raisons, l’installation se fera autour de la distribution Linux Ubuntu Server LTS 24.04. Le choix de cette distribution est pragmatique. Ubuntu est gratuit, mature et accessible. Il dispose d’énormément de documentation et de ressources en ligne. De quoi vous permettre de poursuivre au-delà de ce guide en répondant facilement à vos propres demandes et même de vous dépanner en cas de souci technique spécifique.

La version « Server » désigne une orientation spécifique d’Ubuntu. Une solution plus légère que la version classique qui ne fournit pas d’environnement graphique comme un bureau par exemple. Tout se fait en ligne de commande avec l’avantage d’une grande vélocité même sur de petites configurations. L’indication LTS est un acronyme « Long Time Support » qui indique une durée de mises à jour de sécurité qui va jusqu’à 5 ans. L’indication « 24.04 » indique simplement le numéro de cette version d’avril 2024.

Le Beelink MINI-S13 est un bon compromis pour un Mini serveur.

Le Beelink MINI-S13 est un bon compromis pour un Mini serveur.

Un MiniPC basique comme petit serveur 

Le choix est très large puisque n’importe quel MiniPC moderne devrait faire l’affaire. Le minimum requis est un processeur pas trop gourmand, 4 Go de mémoire vive et 128 Go de stockage. Un bon compromis est une solution de type Intel N100/N150 avec 8 ou 16 Go de mémoire vive et 256 Go de stockage de type SSD. Ce choix permet d’avoir un engin performant, économe en énergie et peu bruyant. Plus votre minimachine aura de mémoire vive, plus elle pourra assurer de tâches en parallèle. Plus le stockage sera important, plus il sera possible de stocker des données (films, musique, téléchargements). Il sera bien sûr possible d’ajouter des stockages externes au besoin.  

Il est plutôt déconseillé d’utiliser un « vieux PC » classique ou même un PC de type serveur à recycler. Ces engins seront probablement plus puissants mais au détriment de leur consommation, de leur encombrement et de leur bruit. Pour les tâches à accomplir, une minimachine basique fera mieux l’affaire ne serait-ce que d’un point de vue facture électrique. Le Beelink S13 est typiquement un bon choix parce qu’il propose deux solutions de stockage, un port Ethernet 2.5 Gigabit, une construction robuste et qu’il affiche en plus des fonctions particulièrement appréciables comme la possibilité de redémarrer automatiquement à la reprise de son alimentation après une panne de courant.

Avec un processeur Intel N150 il coute environ 250€ en version 12/500 Go en ce moment.

 

Les éléments indispensables

Premier élément, on l’a vu, un MiniPC. Il doit être prêt à l’emploi. C’est-à-dire complet et fonctionnel, prêt à démarrer. Il doit également être connecté à votre réseau local et donc à Internet. Pour réaliser l’installation du serveur, il faudra temporairement lui ajouter un écran et un clavier.

Deuxième élément, une clé USB vierge pour accueillir le système Linux afin de l’installer sur le MiniPC. Une clé de 4 Go suffira, essayez d’en choisir une en USB 3.0 minimum pour une installation rapide. Pour ma part j’ai un faible pour les Sandisk en métal. Ce ne sont pas les plus rapides mais elles sont extrêmement robustes. N’achetez pas une clé « 4 Go » car une fois l’installation terminée, vous pourrez réemployer la clé à autre chose. Un modèle 64 Go à 11-12€ sera un meilleur investissement. Si vous avez déjà une clé « publicitaire » ou autre de 4 Go, même lente, elle fera bien l’affaire.

Il vous faudra par ailleurs vous renseigner auprès du fabricant de votre routeur ou du distributeur de votre BOX ADSL/Fibre pour rediriger un port. Cette démarche étant dépendante de chaque matériel, il est impossible de proposer un guide vraiment détaillé. Une recherche avec les mots clés adaptés « port forwarding marque du routeur référence » ou « redirection port box nom-de-l-operateur » devrait vous aiguiller pour parvenir à vos fins. Vous trouverez néanmoins plus bas toute l’aide disponible pour parvenir à vos fins.

Certains éléments seront tout à fait optionnels mais ajouteront des fonctionnalités supplémentaires, comme l’exploitation d’un nom de domaine ou d’un sous-domaine. Si vous avez acheté votre propre domaine, cela permettra de profiter d’une adresse plus simple à retenir. La possibilité d’avoir une IP fixe associée à votre machine est également importante. Là encore, une multitude de guides et d’informations sont disponibles au cas par cas et le guide vous donnera des clés.

Préparation de la clé USB

Le travail d’installation est toujours le même : il faut d’abord télécharger le système à installer, le déplacer vers une clé USB en suivant un protocole spécifique, puis glisser la clé dans la machine que l’on veut installer. Pour mener cette tâche à bien on va commencer par télécharger Ubuntu en suivant ce lien. La page https://ubuntu.com/download/server propose d’autres options de téléchargement, en torrent notamment. À la fin de ce téléchargement, vous allez récupérer une image « ubuntu-xx.xx.x-live-server-amd64.iso » sur votre machine.

Pour le transfert de cette image vers votre clé USB afin que l’installation se lance vous avez plusieurs méthodes. Si votre PC habituel est sous Linux vous pouvez utiliser l’utilitaire Gnome Disks que vous pourrez installer sous la plupart des distributions via le paquet gnome-disk-utility. Lancez le et suivez les instructions pas à pas. Si votre PC est sous Windows, vous pouvez utiliser l’utilitaire Rufus que nous avons déjà croisé. Téléchargez-le en version portable ou installable et lancez-le. Puis, insérez la clé USB qui servira à monter l’image d’Ubuntu dans votre machine, si possible sur un port USB 3.0.

Un écran de ce type apparait. Cliquez en 1 pour bien sélectionner la clé USB que vous venez d’insérer et sur laquelle seront poussés les fichiers d’Ubuntu. Attention à choisir la bonne cible, Rufus va choisir par défaut des périphériques USB mais vérifiez bien qu’il s’agit du bon pour ne pas effacer de données.  En 2 vous allez trouver l’image d’Ubuntu Server que vous avez téléchargée. Cliquez sur « sélection » et pointez vers le fichier « ubuntu-xx.xx.x-live-server-amd64.iso ». Cela affichera le même type de démarrage que sur l’image ci-dessus. En 5 vous avez d’ailleurs un rappel de l’image utilisée.

En 3 vous pouvez modifier le nom du volume, ce n’est absolument pas nécessaire mais cela peut vous aider à reconnaitre la clé. En Rufus vous indique si tout est prêt pour lancer l’opération : la clé est bien identifiée par le système, l’image d’Ubuntu est chargée, il vous suffit de cliquer sur démarrer et de patienter pendant le transfert des données. Cela va prendre plus ou moins de temps suivant la vitesse de votre clé USB. Une fois l’opération terminée, enlevez la clé de votre PC et insérez-la dans votre MiniPC/futur serveur. 

Pour que votre MiniPC choisisse de lancer la clé USB et non pas son propre stockage, il va falloir entrer dans son BIOS en pianotant frénétiquement sur une touche dès le tout début du démarrage de la machine. Là encore, pas de solution miracle, la documentation technique de votre machine devrait vous indiquer quelle touche choisir. En général il s’agit de F1, de Suppr ou de Echap.

Une fois dans le BIOS, allez dans l’onglet BOOT (ou toute variation parlant de BOOT ou de démarrage) comme en 1 et repérez l’ordre des priorités de démarrage. Choisissez l’USB en Boot Option #1 comme visible ici en 2. Il est fort possible que votre machine identifie la clé par son nom et indique dans la liste « Ubuntu Server » ce qui facilitera le réglage. Appuyez ensuite sur la touche indiquée en 3 pour sauvegarder. Dans cet exemple, il s’agit de la touche F4. Allez ensuite sur l’onglet « Exit » en général tout à droite sur la barre supérieure en 4. Puis cliquez sur la touche indiquée pour sauvegarder vos réglages et sortir du BIOS. La machine va redémarrer sur la clé et passer à la suite des opérations.

On installe Ubuntu Server !

Premier problème à résoudre pour installer un serveur sur MiniPC, il faut lui trouver un nom ! Cela parait anodin mais c’est une étape importante puisque c’est ce nom qu’il va falloir retenir et partager avec famille, amis et contacts. Évitez donc les noms barbares et complexes mais peut être également les choses crues. Vous ne voulez pas épeler au quotidien Pléistocène ni avouer que votre serveur s’appelle kékédu78. Vous aurez par ailleurs besoin de ce nom pour accéder à votre serveur depuis l’extérieur. Pensez-y donc dès maintenant. 

Pour réaliser ce guide, Kevin a choisi comme nom de serveur « garage » et comme sous-domaine « garage.kgaut.net ». kgaut.net étant un nom de domaine lui appartenant. Un service installé deviendra donc un sous-domaine de ce sous-domaine. Par exemple service.garage.kgaut.net. Cela reste simple et lisible, facile à retenir.

Installer un serveur sur MiniPC

Une fois le MiniPC démarré avec la clé contenant Ubuntu, celle-ci est lue et vous propose cet écran pour passer à la suite. Pressez simplement la touche Entrée de votre clavier, le système va démarrer sur Ubuntu, cela peut prendre quelques minutes puis vous devriez arriver sur l’écran suivant.

La navigation durant toute l’installation se fera uniquement au clavier. Avec la touche tabulation ⇥ à gauche de votre clavier pour passer d’un champ à l’autre. Les flèches serviront à naviguer entre les options. La touche espace permettra d’activer et de désactiver une case à cocher et la touche Entrée validera vos choix. Choisissez donc votre langue favorite et faites Entrée, vous arriverez sur le choix de la disposition du clavier.

La disposition French / French correspond aux claviers AZERTY « classiques » disponibles en France. à l’aide de la touche tabulation naviguez ensuite jusqu’à « Terminé » et faites Entrée pour basculer sur le choix du type d’installation.

Nous allons installer une configuration par défaut, il suffira donc de faire Entrée pour arriver à la partie configuration réseau.

Si vous êtes en Ethernet, si votre MiniPC est directement branché avec un câble réseau sur votre BOX opérateur par exemple, la configuration réseau devrait être automatique. C’est la solution la plus simple. Si vous avez un module sans fil Wi-Fi, c’est également ici que vous pourrez scanner les réseaux disponibles afin d’en choisir un pour vous y connecter.

Une fois la connexion établie, faites Entrée pour configurer un éventuel proxy. Pour simplifier les choses, nous allons partir du principe que vous n’en avez pas et continuer sur une configuration standard. Laissez donc l’option Proxy vide et choisissez de passer à la suite en faisant « Terminé ».

Vient l’étape du choix du miroir. Ce nom désigne le serveur d’où seront téléchargés les éléments nécessaires pour assurer l’installation du système. Normalement, celui par défaut convient parfaitement, vous pouvez presser Entrée pour la configuration suivante.

Il s’agit de la gestion du stockage sur la machine. A priori là encore les options par défaut sont parfaites. Cela permet au système d’employer la totalité du stockage en créant un « groupe LVM » c’est à dire un système de volume logique. Cela permettra de partitionner plus facilement le stockage existant. Il vaut mieux éviter de chiffrer sa partition avec l’option « Encrypt the LVM group with LUKS ». Le souci de cette option est que cela oblige de pianoter un mot de passe au démarrage du MiniPC. Or nous n’allons probablement pas garder de clavier attaché à celui-ci. 

L’étape suivante est un simple récapitulatif des choix faits pour le stockage. En cas d’erreur, vous pouvez retourner en arrière ou simplement choisir Terminé pour lancer l’installation.

Le système vous demandera alors votre nom d’utilisateur, le nom de votre serveur et autres mots de passe. Ce dernier doit être robuste car il sera nécessaire pour tous les réglages futurs de votre serveur Ubuntu. Pas question d’employer des classiques comme 1234, password ou Louvre par exemple.

L’étape suivante vous invite à activer Ubuntu pro, une option qui offre un support plus long avec 15 ans de mises à jour. Cette option est gratuite pour une utilisation non commerciale limitée à 5 postes et payante pour un usage pro. Elle n’est pas forcément nécessaire pour un serveur de ce type, on pourra faire évoluer la machine facilement vers d’autres versions d’Ubuntu manuellement. Vous pouvez donc l’ignorer ou l’activer suivant votre profil.

Vous voilà sur une partie cruciale du dispositif, sa configuration SSH. C’est par ce biais que vous pourrez prendre le contrôle de votre machine dans le futur. Installer un serveur sur MiniPC se fait en direct avec un écran et un clavier mais à terme, le MiniPC sera seul et sans interfaces. Il faudra alors le piloter via une autre machine grâce à cette configuration SSH. Cela permettra notamment d’utiliser des clés d’authentification plus pratiques que des mots de passe à rallonge.

Choisissez donc d’activer l’installation du serveur OpenSSH en cochant la case à l’aide de la touche Espace une fois que vous l’avez en mis en focus avec la touche tabulation1. L’interface nous propose d’ajouter immédiatement une clé SSH, ce n’est pas la peine. Il sera plus confortable de le faire plus tard. 

Passez donc à l’étape suivante en choisissant Terminé.

Le système propose ensuite d’installer des outils par défaut. Vous pouvez passer cette étape et aller à la suite.

Le système se déploie ensuite progressivement sur le stockage du MiniPC. Suivant votre port et votre clé USB cela peut prendre plus ou moins de temps.

Quand l’installation est terminée, le système vous invite à redémarrer le MiniPC. Choisissez cette option. La machine va vous demander de retirer la clé USB de votre MiniPC pour ne pas redémarrer dessus puis le système va ensuite se relancer. Cette fois-ci sous Ubuntu Serveur. Bravo, vous avez terminé cette première phase.

Le premier écran est… sobre. Le système vous demande simplement de vous identifier avec les éléments indiqués en amont : nom d’utilisateur et mot de passe. Une fois que vous aurez montré patte blanche, vous pourrez passer à la suite.

Prise en main du serveur

/!\ Il est possible de copier-coller les lignes de commande dans votre terminal avec la combinaison de touches Ctrl + Shift + v /!\

La première étape consiste à installer les éventuelles mises à jour de l’ensemble des paquets du système. Pour cela deux lignes de commandes très simples :

Pour le chargement des mises à jour disponibles, pianotez : sudo apt update
Pour le lancement de ces mises à jour : sudo apt upgrade

Cette fameuse commande sudo est une indication pour le système que vous voulez éxecuter quelque chose. Elle résume l’ordre « Super User DO » qui indique que vous avez le droit de le faire en tant qu’administrateur du serveur. C’est pour cette raison qu’Ubuntu va systématiquement vous demander votre mot de passe afin d’exécuter l’action. L’air de rien, vous pouvez déjà ajouter « Admin Linux » dans votre CV.

Le système liste ensuite les opérations qu’il va effectuer, vous demande de confirmer en appuyant sur O et entrée. Une fois cela fait, on peut passer à la suite.

Pour pouvoir piloter le MiniPC à distance, il va falloir tester sa connexion SSH. C’est seulement après cette étape qu’il sera possible de débrancher clavier et écran. La première chose à faire consiste donc à connaitre l’IP de la machine, c’est-à-dire son adresse sur votre réseau local. On utilise pour cela la commande ip -c a 

Celle-ci va révéler l’IP de la machine. Ici l’IP est 192.168.1.214, chez vous ce sera très probablement différent. Cela dépend de chaque réseau local. À ce stade, personne ne peut accéder à votre machine directement depuis internet.

Depuis un autre PC, ouvrez un terminal2 depuis une autre machine reliée au même réseau que votre nouveau serveur et tapez la commande : ssh USER@IP

Dans le cas présent cela donne : ssh kevin@192.168.1.214 

Il est possible que lors de votre première connexion vous ayez un avertissement car c’est la première fois que vous vous connecterez à cette machine en SSH. Validez puis entrez votre mot de passe et vous serez alors connecté. Vous pourrez ainsi exécuter exactement les mêmes actions que dans les premières étapes de ce guide. Mais en étant à distance depuis votre machine habituelle. C’est magique !

Définition d’une ip fixe

L’IP de votre serveur est attribuée d’office par votre routeur ou votre box internet. Cela pose un problème assez classique. Cette source peut décider de changer cette adresse après un redémarrage par exemple. Or, comme on l’a vu, elle est désormais nécessaire pour se connecter en SSH et prendre le contrôle du MiniPC. Il faut donc définir une IP et la « fixer ». Il est évidemment impossible de présenter une solution pour toutes les configurations de Box proposées par les opérateurs ou des routeurs de l’ensemble des fabricants. Le plus simple est donc de donner en pâture à votre moteur de recherche favori des mots clés choisis comme « assigner IP fixe [Modèle de Box] » pour trouver comment faire. De nombreux guides sont disponibles mais tous varient en général autour des mêmes thèmes. Il faut se connecter à sa Box via son navigateur internet. S’identifier, aller dans la gestion des réseaux et chercher les options DHCP / IP Fixe.

Un exemple de configuration dans un routeur

Un exemple de configuration dans un routeur

Pour ce qui est de l’adresse IP en elle-même, vous pouvez choisir ce que vous souhaitez si cela peut vous aider à la mémoriser. Le plus simple est tout de même de garder celle qui a été affectée automatiquement par le serveur.

Certains routeurs demandent d’affecter chaque adresse IP Fixe à une adresse MAC. Cette dernière est unique et sert de signature pour votre matériel. C’est une sorte de N° de série unique pour chaque produit. Là encore, des guides sont disponibles sur Internet pour trouver l’adresse MAC de votre MiniPC Serveur facilement en pianotant une ligne de commande. Avec ipconfig /all vous allez trouver son adresse MAC à la ligne Physical Adress. Cela ressemblera à quelque chose comme 5E:FF:56:A2:AF:15. En faisant pointer l’adresse IP Fixe de votre routeur vers l’adresse MAC vous lui expliquez ce qu’il doit faire du trafic qui pointe vers cette IP. 

Une fois cette étape passée, vous pouvez être fier de vous. Vous pourrez dire que vous savez installer un serveur sur MiniPC. Vous allez pouvoir débrancher le clavier et l’écran de la machine et la positionner où bon vous semble.

Un peu de sécurité pour la connexion SSH

L’emploi d’une connexion SSH est déjà sécurisé, c’est un protocole robuste. Mais pour améliorer les choses nous allons effectuer plusieurs réglages. Il est tout à fait possible de ne pas suivre à la lettre toutes ces recommandations. Elles sont indépendantes et facultatives, il est cependant recommandé de les effectuer. Ce n’est pas très long et bien plus sécurisant.

  •  Changement du port SSH par défaut.

Le port SSH classique est le port 22. C’est une règle d’installation commune sur la majorité des systèmes. Ce qui est un indice important pour toute personne cherchant à pénétrer votre réseau. En laissant ce port sur 22 par défaut, vous leur indiquez tout simplement la voie à suivre pour tenter de percer votre mot de passe. C’est par ce port par défaut que viendront la plupart des tentatives d’attaque. Il est donc très intéressant de le changer pour un port moins classique.

Pour l’exemple, nous allons basculer ce port 22 vers le port 21422. Pour cela on va modifier la configuration de openssh

Sur votre ligne de commande pianotez sudo vim /etc/ssh/sshd_config 
vim est un éditeur de texte disponible depuis le terminal qui va permettre de modifier ce fichier sshd_config de manière à lui indiquer un nouveau port. Ainsi, une fois ouvert, le fichier vous indique sur sa ligne 23 : #Port 22
Passez vim en mode insertion en appuyant sur la touche i, enlevez le # de la ligne pour activer l’ordre d’indiquer un port précis puis changez 22 par 21422

Vous aurez donc désormais à la place de #Port 22 une ligne qui se résume en Port 21422

Appuyez sur Echap pour arrêter l’édition du document, appuyez ensuite sur w pour écrire (write) le fichier et donc le sauvegarder. Puis sur q pour quitter vim.

Vérifiez que le nouveau port est correctement renseigné en pianotant cat /etc/ssh/sshd_config | grep "Port"

Si tout est correct, vous pouvez redémarrer le service SSH en indiquant sudo systemctl restart ssh

Ouvrez alors un second terminal sans fermer le premier, il est recommandé d’utiliser un autre terminal en plus de celui déjà connecté. Comme cela, en cas de souci de configuration, vous ne serez pas coincé en dehors de votre serveur. Après un redémarrage, votre prochaine connexion en SSH exigera la précision du nouveau port choisi puisque Ubuntu Server n’utilisera plus le port par défaut.

Dans notre exemple, au lieu de pianoter ssh kevin@192.168.1.214 il faudra ajouter le port dans votre demande de connexion avec ssh kevin@192.168.1.214 -p 21422. Le -p associé au numéro du port choisi fera ce travail.

  • Désactiver la connexion SSH du compte root

Le compte root est défini comme le « Super Administrateur » de votre serveur sous Linux. Ce compte a absolument tous les droits, même celui de faire des bêtises. Par mesure de sécurité, il est très fortement recommandé de désactiver la connexion SSH en mode root par défaut, surtout si votre serveur est un jour ouvert vers l’extérieur. S’il est vraiment nécessaire d’effectuer des actions d’administration qui demandent ce mode, il sera toujours possible d’utiliser l’instruction sudo, comme nous l’avons fait jusqu’à présent. Concrètement, avec ce type de serveur, l’utilisation du compte root est très rarement nécessaire.

Pour désactiver cette connexion root par défaut, il va falloir de nouveau modifier la configuration ssh via le fichier /etc/ssh/sshd_config. 

Vous pouvez donc pianoter à nouveau sudo vim /etc/ssh/sshd_config puis rechercher la ligne 42 :

#PermitRootLogin prohibit-password 

Vous devez modifier la ligne comme suit en appuyant sur i :

PermitRootLogin no

En pensant bien à enlever le # en début de ligne pour éviter que le système ignore votre commande. Appuyez sur Echap, w, q comme plus haut. Puis redémarrez le service SSH :

sudo systemctl restart ssh

  • Activer la connexion uniquement par clé SSH

Toujours dans le but d’accroitre la sécurité d’un serveur Linux directement exposé sur internet, il est possible de se connecter à celui-ci sans mot de passe. En utilisant uniquement une paire de « clés » beaucoup plus sécurisées. 

Dabord une clé privée qui doit absolument rester confidentielle et disponible uniquement sur la machine depuis laquelle vous vous connecterez au serveur.
Ensuite une clé publique qui sera une réponse à la première, présente sur les machines sur lesquelles vous souhaitez vous connecter et donc notre serveur.

Il est fortement recommandé que chaque clé privée ne soit attachée qu’à une seule et unique machine. Si vous voulez vous connecter avec un terminal de smartphone, un second PC ou autre, il faudra en générer de nouvelles. Votre clé publique peut quant à elle être présente sur plusieurs serveurs. Il est également tout à fait possible qu’un serveur dispose de plusieurs clés publiques afin d’autoriser la connexion depuis plusieurs machines différentes.

Pour générer cette paire de clés, la méthode est assez simple. Depuis le PC de connexion que vous voulez authentifier à votre serveur Ubuntu il va falloir pianoter quelques lignes de commande. Sous Linux c’est simple, un terminal suffira. Sous Windows vous devrez utiliser PowerShell3 que vous appellerez avec la commande touche Windows + Powershell.

ssh-keygen -t ed25519 -C "kevin@monpcfixe"

Le premier ordre demande la génération d’une clé SSH, le code ed25519 indique au système d’employer un chiffrement très résistant aux attaques. La partie entre guillemets est un commentaire supplémentaire. Il permet d’identifier plus facilement la clé. Cette syntaxe pseudo@nom_machine permet de faire un tri plus rapide sur ses serveurs et ainsi d’éventuellement révoquer des clés caduques.

Si le chemin par défaut vous convient, vous pouvez appuyer directement sur Entrée pour lancer l’opération. Sinon précisez simplement le chemin d’enregistrement de votre choix comme dans l’exemple ci-dessus. Le système va également vous demander d’écrire une passphrase. Un mot de passe qui vous sera demandé à chaque utilisation de la clé SSH. Cette dernière étape est optionnelle. Si vous ne souhaitez pas ajouter de passphrase, faites simplement Entrée.

Vous avez désormais les deux clés sur votre machine habituelle, rien sur le serveur distant sous Ubuntu pour le moment. Il va falloir y remédier.

Dans l’exemple ci dessus le fichier minimachine est la clé privée, à ne surtout pas diffuser et à garder sur la machine qui se connecte. Le fichier minimachine.pub est la clé publique que l’on pourra transmettre au serveur sur le MiniPC. Pour envoyer cette clé sur le serveur installé sur son MiniPC, il faut utiliser la commande suivante:

ssh-copy-id kevin@192.168.1.214 -p 21422

Évidemment il faudra modifier cette commande pour refléter vos propres réglages. Changer le nom kevin par votre nom choisi plus haut. Indiquer la bonne adresse IP ainsi que le nouveau port retenu. Après avoir appuyé sur entrée, il faut s’authentifier encore une fois avec son mot de passe. 

Le système indique ensuite de tester sa connexion.

On pianote donc à nouveau un ssh kevin@192.168.1.214 -p 21422 depuis un terminal en l’adaptant évidemment à vos propres réglages, et on peut observer que l’authentification se fait sans mot de passe.

Voilà, vous avez fait les premières étapes d’installation et de sécurisation de votre minimachine comme serveur. Pour la suite, Kevin prépare plusieurs choses importantes. La première sera d’ouvrir le serveur vers l’extérieur puisqu’à ce stade il n’est accessible qu’en réseau local. Cette étape nécessite le passage en IP fixe décrit dans ce guide. Sinon les entrées extérieures ignoreraient comment s’orienter vers le MiniPC. A terme, on pourra utiliser un nom de domaine simple a retenir plutôt qu’une adresse IP.  

Pour assurer une couche supplémentaire de sécurité, il sera utile d’installer un outil qui surveillera les tentatives de connexion. Fail2ban permet par exemple de repousser toutes les tentatives de connexion pour la durée de votre choix après trois échecs d’une adresse IP. Cela évite d’avoir un serveur robot qui va tenter de pénétrer votre système des centaines de fois chaque minute en testant tous les mots de passe possibles. 

Une fois que tout cela sera fait, nous pourrons découvrir les joies de l’hébergement de fichiers, du téléchargement, du partage de vidéo et autres gestions de mots de passe.

A propos de Kevin :

Kevin est développeur et formateur indépendant php et spécialisé sur le CMS Drupal. Il aime bidouiller des infrastructures cloud mais aussi plus traditionnelles comme un bon vieux petit serveur dans son garage… Vous pouvez en savoir plus sur son travail sur le site kgaut.net. Il est par ailleurs présent sur Mastodon à l’adresse @Kgaut

Guide : Installer un serveur sur MiniPC personnel © MiniMachines.net. 2025

La hausse de la mémoire vive va impacter tout le secteur

3 décembre 2025 à 11:45

On suit l’évolution de la hausse de la mémoire vive depuis plusieurs semaines en se focalisant surtout sur la flambée des prix de ces produits particuliers. On a également pu observer un impact sur d’autres appareils comme les MiniPC, les portables et les cartes de développement. Car évidemment, c’est enfoncer une porte ouverte de le dire, mais tous les appareils qui contiennent de la mémoire vive, vont augmenter leurs tarifs.

C'était le bon temps, avant la hausse de la mémoire vive

C’était le bon temps, avant la hausse de la mémoire vive

Ce que certains ne réalisent peut être pas encore, c’est que la hausse de la mémoire vive va pareillement impacter les composants qui n’en contiennent pas ou pas encore. WCCFTech relate ainsi une baisse de 40 à 50% des ventes de cartes mères par rapport à 2024. Baisse tout à fait compréhensible puisque si le budget alloué pour une mise à jour technique n’est plus respecté avec la hausse de la mémoire vive, c’est tout un projet qui tombe à l’eau. Personne ne va acheter une carte mère en cette fin 2025 en espérant une baisse des tarifs de la DDR dans la foulée.

Si on peut raisonnablement penser que cette chute de moitié des ventes en novembre est également liée à une situation particulière en 2024 avec une période de ventes plus fastes et un Black Friday plus marquant. Cela n’en est pas moins inquiétant. Dans le lot des marques les plus impactées, on retrouve sans surprise les fabricants les plus grand public : Asus, Gigabyte, MSI et ASRock. Les constructeurs de cartes mères professionnelles ou de serveur sont logiquement moins sujets à être ralentis.  Et c’est d’autant plus vrai que tous les modèles de nouvelles cartes mères ont basculé vers la DDR5. Quasi plus aucun fabricant ne propose de cartes en DDR4. A raison d’ailleurs puisque la DDR4 est autant impactée que les autres. On imagine assez facilement que les autres dominos vont suivre.

16 Go mini

La hausse de la mémoire vive va faire chuter les ventes de toute l’informatique

Car une baisse des ventes de cartes mères impacte logiquement tous les autres secteurs. Ce sont des processeurs qui ne sont pas vendus, des dissipateurs et des ventilateurs à poser dessus, des boitiers, des unités stockages, des alimentations… Et, probablement dans une moindre mesure, mais tout de même : claviers, souris, écrans et accessoires variés. Même les logiciels vont être à la peine, les licences de Microsoft pour commencer.

Les serveurs d’IA, au cœur de cette problématique avec leur appétit vorace pour la mémoire vive, jettent consciencieusement des pelletées de sable dans les rouages de tout le secteur. Et cela ne devrait pas se calmer. Suivant les analystes, cette extension démentielle de serveurs devrait perdurer jusqu’en 2027… À moins que cela ne déraille avant et que la « bulle IA » n’éclate avant. 

Les cartes graphiques, les smartphones, les tablettes, les portables, les PC complets comme les MiniPC vont être impactés. Plus encore qu’on ne le pense. Certains constructeurs prévoyant déjà une « marge de manœuvre » pour anticiper une éventuelle poursuite de la hausse. À la fois parce qu’ils estiment que la situation va perdurer et empirer. Mais aussi pour éponger pour certaines pertes liées à la fourniture de matériel basée sur des contrats signés sur des tarifs antérieurs.

Alors que certains analystes parient sur une hausse prochaine pouvant atteindre encore 100% de plus d’ici les quelques jours qui nous séparent de 2026, la situation devient réellement très compliquée.

hausse de la mémoire vive

Quelques anticipations pour l’année prochaine

L’appétit de l’ogre va empirer, les fabricants de mémoire vive vont avoir du mal à proposer assez de composants mémoire pour la satisfaire et surtout les contrats passés entre le clients historiques que sont les grandes marques de portables et de composants commerciaux vont finir. Rendant ainsi les fabricants libres de toute nouvelle tarification. L’arrivée de contrats courts, collant plus au marché, est probablement ce qui nous attend dès le second trimestre de 2026. Au lieu de lissser leurs prix sur une année complète, les fabricants de mémoire vont determiner un tarif par lots. Ce qui suivra plus précisément la hausse.

Je ne serais pas surpris que des minimachines en tous genres débarquent donc en force en version barebone. C’est à dire livrées sans mémoire vive, sans stockage et sans système. Quand cela est possible puisque beaucoup de constructeurs ont choisi de basculer des références sous mémoire LPDDRx, des composants soudés directement sur la carte mère. Même topo pour les portables dont les prix vont soit s’envoler, soit leurs composants dégradés, soit être livrés nus. En laissant l’acheteur se débrouiller pour trouver lui-même sa mémoire vive. Cela signerait le retour en force de solutions livrées avec 8 Go de mémoire vive par défaut, au prix des solutions que l’on a connu il y a quelques mois en 16 ou en 32 Go de mémoire vive. Portables et MiniPC seraient livrés avec moins de mémoire et probablement moins de stockage pour le même tarif ou pour plus cher. On a vu que des solutions comme les Raspberry Pi, particulièrement impactées par la hausse, baissaient la capacité de leur mémoire vive.

Une carte graphique entourée de mémoire vive

Les cartes graphiques pourraient exploser encore une fois puisque Nvidia – et peut être AMD dans son sillage – réfléchirait à ne plus fournir de package processeur graphique et mémoire GDDR aux fabricants. Les achats autrefois mutualisés par Nvidia de ces composants qui lui permettaient de vendre ses puces, se faisant alors directement par les constructeurs de cartes graphiques. Ce qui entrainerait mécaniquement une hausse. Cela n’est qu’une rumeur pour le moment mais cela a du sens au vu du contexte.

Que va-t-il se passer pour le secteur des pièces détachées ? Difficile à dire pour le moment même si deux scénarios peuvent s’envisager. Le premier est une baisse des tarifs du stock existant pour l’écouler coute que coute.  Le second est un statu quo avec une baisse de la production et une augmentation des prix pour conserver un chiffre d’affaires décent. Dans tous les cas, nous assisterons sans doute à une reconfiguration complète du paysage des pièces détachées. Les constructeurs actuels, qu’ils fabriquent des alimentations, des dissipateurs ou des boitiers, vivent sur leurs volumes. Si leurs volumes baissent, leur situation se complique.

L’autre domino qui risque de se faire mal à cause de cette hausse de la mémoire vive, c’est l’emploi. Outre le fait qu’une baisse de production va ralentir l’activité, on sent que l’arrivée de l’IA donne des excuses toutes faites pour licencier. Cela sera évidemment le cas sur les chaînes de fabrications qui vont baisser leurs cadences. Mais cela pourrait également impacter les antennes des marques en France tout comme entrainer la chute de plusieurs revendeurs qui vont devoir encaisser le gros coup de frein appuyé sur leurs ventes et leur chiffre d’affaire.

Vers une amélioration pour 2028 et après ?

Difficile de savoir ce que sera le marché en 2028. Cela dépend pour beaucoup du succès des géants de l’IA. Si la situation continue et que plusieurs entités se bagarrent toujours pour avoir la plus  grosse capacité de calcul, il n’y pas de raison que la hausse de la mémoire vive ne s’arrête. Certes, certains fabricants de mémoire retroussent leurs manches pour augmenter leur production. SK Hynix par exemple a indiqué multiplier sa production de composants mémoire par huit pour 2026. Mais cela ne veut aps dire que cette arrivée en masse de nouvelles puces ne sera pas absorbée directement par les serveurs d’IA. On a également vu que de nouveaux constructeurs comme le fabricant chinois CXMT pourrait venir au secours de son industrie. Mais cela ne serait sans doute pas suffisant pour faire face aux défauts de production orientée vers le marché PC. 

Pour vous dire à quel point l’avidité des fabricants de mémoire vive est devenue importante: la branche Samsung qui fabrique la mémoire vive pour le groupe aurait refusé de livrer de la mémoire à la branche smartphone du même groupe. Mémoire nécessaire pour lancer la production du prochain Galaxy S26. En cause, une augmentation drastique du prix du composant mémoire nécessaire. Le module de 12 Go de LPDDR5X serait passé de 33$ en début d’année à 70$ aujourd’hui. Si un constructeur ne se fait pas de largesses à lui même pour suivre le marché, il ne faut pas s’attendre à ce qu’il en fasse à des clients classiques.

Au final, la hausse de la mémoire vive risque d’avoir des conséquences très compliquées pour le marché PC comme pour l’emploi dans les années à venir. Certes, des grandes entreprises d’IA vont émerger aux US. Elles vont embaucher quelques personnes pour veiller à la bonne marche de leurs énormes datas center. Elles vont employer ponctuellement des sociétés pour faire sortir de terre des structures colossalles. Mais, à terme, l’emploi généré sera faible. Très faible même face aux risques encourus pour l’emploi chez les constructeurs de PC traditionnels. Et tout l’écosystème de marques, grossistes et revendeurs qui en découle. Les structures qui vivent du marketing lié à ce marché vont également en pâtir. Je ne serais vraiment pas surpris qu’on constate d’ici 2028 un déficit important sur le secteur. Et cela aussi bien sur ses ventes que sur son emploi. Avec des effets en cascade probablement encore difficiles à déterminer tant ils sont tentaculaires.

La hausse de la mémoire vive va impacter tout le secteur © MiniMachines.net. 2025

Steam Machine 2025 : l’évolution technique et conceptuelle de Valve

1 décembre 2025 à 14:40

Valve a annoncé le mois dernier la sortie de trois produits simultanément. La Steam Machine 2025, un parfait exemple de minimachine dédiée au jeu. Le Steam Controller, une manette de jeu pensée pour l’accompagner. Et le Steam Frame, un casque VR compatible avec l’ensemble et pouvant fonctionner de manière autonome. Dans ce billet, je vais surtout m’intéresser ce que tout cela signifie pour Valve.

L'Alienware Steam Machine de 2015 n'a pas été réellement commercialisée en masse

L’Alienware Steam Machine de 2015 n’a pas été réellement commercialisée en masse

La Steam Machine 2025 ou la revanche de Valve

Dix ans après son premier essai, Valve revient donc dans les salons avec une nouvelle Steam Machine. Pour prendre un peu de recul et comprendre les étapes passées ces dix dernières années, il est nécessaire de faire un petit bilan sur la tentative de 2015. À l’époque, Valve est déjà Valve. À savoir un grand studio de développement de jeu à la tête de licences importantes. Un studio reconnu comme un très bon développeur, capable de proposer des jeux au succès international de manière répétée. Valve est par ailleurs à la tête de Steam, magasin de distribution de jeux en ligne et véritable clé de voute d’une bonne partie de cette industrie.

Cette boite en bois contenait en 2015 les prototypes des Steam Machines de Valve.

Cette boite en bois contenait en 2015 les prototypes des Steam Machines de Valve.

Ce que n’est pas encore Valve en 2015 par contre, c’est un fabricant de matériel. La marque n’a aucune expérience dans le domaine. Ce sont des développeurs. Pour lancer leur premier modèle de Steam Machine, la stratégie adoptée est alors assez simple. La marque va bien concevoir sa propre solution materielle mais ne la distribuera pas. Ce sera une série de prototypes n’ayant pas d’autre rôle que de faire du marketing. L’éditeur va par contre développer son propre système d’exploitation et le proposera à tous ses partenaires. La première Steam Machine de Valve aura donc servi uniquement de cobaye technique et de produit marketing. Ce sont des constructeurs plus classiques qui seront en charge de proposer leurs propres PC sous Steam OS. A eux de les produire et de les distribuer. Valve reste donc encore un concepteur de logiciels et ne change pas de ligne. Elle accepte tout juste de proposer une manette qui collera avec les usages de son projet. En 2015 la société ne fabrique pas de console à destination du public.

Valve met en scène la fabrication de sa manette dans cette vidéo assez hypnotisante

Je ne dirais pas que c’est un échec…

Cette stratégie n’a pas très bien fonctionné. La Steam Machine de 2015 a rencontré plusieurs problèmes majeurs. D’abord son écosystème logiciel n’était pas adapté à la mission qui lui était confiée. La proposition SteamOS ne parvenait pas à faire mieux ni même souvent aussi bien que Windows en terme de jeu. Les tests montraient qu’il était contre productif pour un joueur d’acheter une Steam Machine. Un jeu lancé sous Steam OS fonctionnait souvent moins bien que sur un engin équivalent sous Windows. Pire encore, énormément de titres phares n’étaient pas compatible. Valve s’est manifestement jeté à l’eau bien trop tôt.

Alienware Alpha, la seule vraie Steam Machine commercialisée en masse.

Second souci, tout aussi grave et découlant entièrement du premier, personne n’y croyait vraiment. Des marques ont semblé jouer le jeu en proposant un engin sous Steam OS. Mais personne n’a réellement cherché à poursuivre la distribution de ces machines. Très vite, on a compris que tout le monde s’était frotté à Valve pour profiter de sa lumière marketing. Puis était reparti de son côté pour reprendre son train-train de PC sous Windows. Cela s’explique par plein de raisons différentes, dont une en particulier : la grande dépendance des fabricants de PC envers Microsoft. Le papa de Windows était alors le détendeur de la seule formule efficace pour vendre des PC grand public. Prononcer le mot Linux en présence de constructeurs de machines avait en 2015 le même effet que sortir un chapelet de gousses d’ails à une réunion de vampires.

L'assembleur français Materiel.net avait lancé sa propre Steam Machine, en espérant sans doute de manière très sincère sa réussite.

L’assembleur français Materiel.net avait lancé sa propre SteamMachine, en espérant sans doute de manière très sincère sa réussite.

Microsoft était également à ce moment-là une des principales aide au marketing dans l’informatique grand public. Il finançait des campagnes de pub massives pour leurs partenaires. Les froisser en proposant un système alternatif, c’était donc risquer de perdre cette manne. Pour certains, le pari a été de tenter de faire pression sur l’éditeur en leur montrant que vendre un PC sous Linux était possible. Mais leur stratégie réelle n’était pas de vendre des engins sous Steam OS; c’était d’essayer de baisser les prix de Microsoft. Ils ont certes sorti une Steam Machine, fait un peu de pub en ligne et parcouru des tas de salons où ils l’ont exposée. Mais ils n’en ont quasiment pas produit ni vendu.

Le démarrage de l’Alienware Alpha sous Windows ou sous Windows + Steam Big Picture

L’aventure a donc tourné court. Certains constructeurs, ceux qui n’avaient pas trop investi dans le projet, ont simplement rangé leurs prototypes sur une étagère. Un des seul acteur à avoir vraiment créé une solution de ce type a été Alienware. Mais la marque a simplement eu dès le départ l’idée d’en détourner le concept. Lançant en parrallèle deux versions d’un même engin, le premier sous Steam OS et le second sous Windows. Au final, l’Alienware Steam Machine s’est rapidement transformée en Alienware Alpha pour sa commercialisation. Et au lieu d’un fonctionnement sous SteamOS, cette version Alpha proposait au démarrage de basculer sous un Windows 8.1 normal, soit de basculer sous Windows 8.1 mais en lançant le mode Big Picture de Steam par défaut. Mieux que rien pour Valve mais pas vraiment le soutien espéré.

La première Steam Machine n’a donc pas survécu.

Dix ans plus tard, Valve revient à la charge dans un contexte qui a énormément changé. L’éditeur est devenu entre temps un véritable constructeur de PC. Il a prouvé ses compétences techniques en la matière avec le Steam Deck. La console mobile a été pensée, développée et optimisée en interne. Elle s’est depuis vendu à des millions d’exemplaires2 ce qui est un succès incroyable pour un engin grand public proposant du jeu sous Linux. Cette réussite a confirmé plusieurs choses qui sont très importantes pour comprendre la nouvelle Steam Machine.

D’abord que la philosophie de Valve, différente de tout ce que les constructeurs de PC et de consoles ont toujours tenté, est viable. Ensuite que leur Steam OS avait toute sa légitimité sur le segment du jeu PC. Enfin, et c’est très important, que Valve n’avait pas besoin de passer par des constructeurs tiers pour réussir. Si la première console Steam Machine a tenté de séduire des partenaires pour se lancer, la seconde est totalement autonome. Valve va la construire, la mettre en avant, lui fournir son système et la distribuer. Conception, production, marketing et distribution. Tout seul. Tous les risques et les bénéfices de l’opération. Mieux encore, si cela fonctionne, les constructeurs et le grand public, devraient suivre.

Le marché du jeu a également largement évolué.

Le marché du jeu a également largement évolué.

Un marché du jeu qui a été transformé

Valve a compris une chose très importante avec sa console portable Steam Deck. Le marché du jeu vidéo a énormément changé ces dernières années. Si la majorité des constructeurs de machines de jeu dans le monde PC et dans le monde console continuent à mettre en avant la performance brute comme seul critère de qualité. Les joueurs ont quant à eux largement fait évoluer leur mentalité. Le succès du jeu indépendant a sans doute contribué à cette réalisation, mais le simple fait que des consoles comme la Switch de Nintendo soit un succès a montré qu’il existait d’autres voies. 

J’y vois plusieurs  phénomènes se télescoper. D’abord, les anciens « gamers » ont vieilli. Moins de temps disponible pour jouer avec une vie de famille, du travail et des responsabilités. Moins d’envies également face aux jeux ultra compétitifs qui demandent des machines ultrapuissantes mais aussi des réflexes qui s’émoussent avec le temps et le manque de pratique. Ces joueurs ont donc changé leurs habitudes et ne vont plus s’orienter vers les titres les plus gourmands. Leur appétit a créé de nouvelles catégories de joueurs qui ne jurent pas forcément par la performance pure.

Steam Deck

Ensuite l’augmentation du nombre de joueurs ne s’est pas fait forcément dans la même direction qu’auparavant. S’il y a plus de joueurs en 2025 qu’en 2015 ou en 2005, leur appétit n’est plus du tout le même. Les « gamers » des années 2000-2010 étaient forcément des passionnés d’informatique. Il fallait tout de même encore beaucoup remonter ses manches pour jouer sur PC dans de bonnes conditions il y a 20 ans, ce n’est plus le cas aujourd’hui. En 2025 un ordinateur classique permet de jouer très convenablement à des tonnes de jeux grand public. Le marché s’est donc logiquement « amateurisé ».

Le jeu Among US a connu un succès planétaire avec d'autres ressorts que la qualité graphique...

Le jeu Among US a connu un succès planétaire avec d’autres ressorts que la qualité graphique…

Pour accompagner ce mouvement, il y a eu l’explosion du jeu sur smartphone et tablettes avec tout un univers de nouveaux titres et de nouvelles pratiques de jeu. Des  développeurs indépendants ont envahi les étagères de Steam en proposant des titres qui auraient paru bien étranges à un joueur des années 2000. Acheter un jeu qui consiste à nettoyer au laveur haute pression tout un pâté de maison ? Cela ne semble pas très drôle a priori et pourtant le jeu a connu un grand succès. Certains jeux sont devenus des expériences sociales plus que des concours de nombre de pixels à l’écran : Fall Guys, Among Us et bien d’autres n’exigent pas des configurations folles. Pas plus qu’un niveau de pratique délirant. Chacun peut y jouer et trouver ses marques rapidement. Les gros éditeurs à succès ont tout fait pour rendre leurs jeux compétitifs les plus facile d’accès. Ainsi des succès majeurs de ces dernières années comme Fortnite ou League of Legend peuvent se jouer sur une foule de plateformes. Pas besoin d’avoir une machine très haut de gamme pour s’y frotter.

Enfin, un marasme matériel s’est installé et a fini par lasser des joueurs avec des hausses de tarifs à répétition. Beaucoup ont fini par jeter l’éponge et ne plus avoir envie de mettre à jour leur machine. Acheter une nouvelle carte graphique était juste un plaisir coupable pendant des années. Cela coûtait cher, mais c’était rentabilisé par la possibilité offerte de jouer à de nouveaux titres avec de belles progressions en performances. Avec des prix qui ont flambé plus que de raison ces dernières années, c’est devenu pour beaucoup un investissement désormais non seulement impossible mais surtout totalement déraisonnable. Il y a 10 ans, ne pas avoir une configuration vraiment performante vous empêchait de lancer énormément de nouveautés. Aujourd’hui ce n’est plus le cas. Des machines qui ont plusieurs années peuvent encore proposer d’excellentes prestations de jeu. Quitte a dégrader quelque peu la qualité de l’image en baissant des détails ou sa définition.

L’ensemble de ces éléments se sont alimentés entre eux. Les développeurs ont compris qu’ils n’étaient pas obligés de forcer la main des joueurs pour qu’ils s’équipent toujours mieux. Certains grands succès du jeu aujourd’hui tournent parfaitement sur de configurations modestes. Mieux, une bonne partie du public ne cherche plus forcément des effets graphiques a couper le souffle. 

Un regard qui a également évolué sur le matériel

C’est d’ailleurs très visible sur ce marché particulier. Le budget des joueurs n’a pas vraiment disparu, il s’est déplacé. De moins en moins de monde ne va accepter de mettre à jour la totalité de sa machine ou même de changer de carte graphique au vu des prix des composants. Il n’en reste pas moins que les joueurs sont capables de dépenser leur argent. Simplement, ils le font autrement, de manière plus diluée. Cela donne de nouvelles dépenses. Avant, un joueur changeait de carte graphique ou de processeur régulièrement. Désormais, il se fait plaisir avec un bon clavier, un casque audio de qualité, une meilleure souris, un bon écran, un setup de streaming ou une chaise adaptée. Le budget est toujours présent, quasi toujours le même sur l’année. Mais les joueurs trouvent plus de satisfaction dans des accessoires que dans des composants. C’est assez amusant de voir quelqu’un qui refuse catégoriquement de dépenser 700 ou 900€ dans une nouvelle carte graphique ne se rend pas vraiment compte qu’il en a dépensé autant en un an dans des accessoires luxueux pour jouer. Le marché gaming a réussi a dégouter les joueurs de son haut de gamme. Pas par manque d’appétit des premiers intéressés pour plus de performances. Mais par simple calcul.

Un portable de jeu très classique

Un portable de jeu très classique

Le problème des constructeurs de PC classiques est également lié à leur dépendance totale dans un écosystème qu’ils ne maitrisent pas. Ils sont totalement attachés à Microsoft pour réaliser leurs ventes et doivent par ailleurs compter sur des fournisseurs pour exister : AMD, Intel et Nvidia fournissent à eux trois quasiment toute la matière nécessaire au renouvellement de ce marché. Ce sont eux qui lancent les nouvelles puces, fournissent les raisons de mettre à jour les machines et participent aux financements publicitaires des marques. Il est impossible aujourd’hui pour un constructeur traditionnel comme Asus, Dell, HP ou Lenovo de lancer un ordinateur de jeu sans compter sur la force de frappe et le discours marketing de leurs partenaires materiel.

Regardez un PC portable « Gaming » de marque et comparez le à un portable concurrent. Qui raconte une histoire derrière ? Le fabricant ? Non. Plus vraiment. La partie design est devenue quasi identique partout. Ou alors elle est totalement secondaire puisque les machines sont presques toutes pareilles. Ce qui prime c’est le listing des composants qu’on ne voit pas. Les puces embarquées, la mémoire, le stockage. La qualité de la dalle de l’écran a parfois plus d’impact que la marque du fabricant. Si AMD, Intel et Nvidia ne sortaient plus de nouvelles puces, le marché PC n’aurait plus d’histoire a raconter pour vendre ses machines.

Steam Machine 2025

Valve est loin de tout cela. La marque fait certes appel à AMD pour ses processeurs mais ce n’est pas ce poste qu’elle a mis en avant. D’ailleurs, si la presse s’est immédiatement employée a tenter de traduire ce que la puce de la Steam Machine allait proposer par rapport à un processeur plus classique, la marque s’est gardée de tout rapprochement de ce type. Le constructeur ne propose pas un PC comme les autres, la marque vend une expérience de jeu qui se détache très clairement du materiel pour s’approcher d’une expérience plus simple. On retrouve ici le mélange de deux inspirations très fortes. D’abord celle d’Apple qui s’est depuis longtemps débarrassée du syndrome de la performance brute pour s’orienter vers une expérience plus globale. En reprenant les rennes de la totalité de son materiel et de son logiciel, Valve suit en partie le chemin de la marque à la pomme.

SteamOS est la clé de voute de l’opération. C’est le fruit de nombreuses années de développement. Si on considère l’ambition de 2015 de la marque et donc des années passées a le développer en amont, SteamOS doit bien être au stade d’une adolescence avancée. Ce travail de longue haleine a permis de sortir de l’ornière de la concurrence. Cela a payé pour le Steam Deck avec des résultats qui dépassaient de loin ce qu’aurait pu proposer la même solution équipée à l’identique sous Windows. Non seulement cela a permis de proposer de meilleures performances mais également de se débarrasser du problème poser par Windows dans le jeu.

L’autre point clé important à saisir pour comprendre la naissance de cette Steam Machine si différente du reste du marché vient de l’esprit de Valve lui même. Pour bien comprendre l’enjeu derrière cette machine, il faut se rappeler la philosophie qu’a appliqué la marque depuis toujours. Cette vieille vidéo d’un jeune Gabe Newell explique un rouage important de la marque. La question posée à l’époque concerne le piratage des jeux et à quel point cela pose un problème à Valve.

La réponse de Gabe Newell est alors assez simple. Pour lui le piratage n’est pas un problème qu’il faut résoudre par plus de sécurité pour empêcher la copie illégale des jeux. Ce n’est pas non plus le résultat d’un problème de tarification. Le piratage c’est juste la conséquence d’un mauvais service. Les gens piratent parce que les jeux vidéos sont pénibles a acheter et a utiliser. Si le service s’améliore, le piratage va mécaniquement baisser. Et le temps a prouvé que sa vision était juste.

Ce mantra éclaire énormément de choses dans le fonctionnement global de Steam. Simplifier l’achat, rendre l’usage d’un jeu confortable. Vous voulez un jeu ? Il suffit d’avoir une carte bleue. Le titre acheté sera associé à votre compte, téléchargeable rapidement depuis des serveurs bien dimensionnés. Disponible quand vous le souhaiterez. L’éditeur sort une mise à jour ? Elle est automatisée sur Steam qui fait tout le boulot à votre place. Vous cherchez une solution parce que vous êtes coincé dans votre progression ? Une communauté est là, sur les pages du jeu, pour vous aider. Vous avez un bug ? Idem. Vous avez aimé le jeu ? Pas de soucis, Steam peut en recommander plein d’autres du même genre. Steam n’est pas parfait, loin de là, mais pour ceux qui ont connu les queues devant les magasins spécialisés pour acheter une boite avec un CD de jeu et une documentation ridicule. Jeu qu’il fallait installer d’abord avant de télécharger une mise à jour énorme. Jeu qui exigeait que vous glissez la galette de plastique dans votre lecteur pour démarrer… Tout les efforts menés par Valve ont bien changé la donne. En proposant un meilleur service aux joueurs, Steam les oriente vers ses pages et les détourne du piratage.

C’est cet axe là qu’il faut avoir en tête pour comprendre la création de la Steam Machine 2025. J’ai regardé toutes les interviews des équipes de Valve que j’ai pu trouver au sujet de cet engin et lu un maximum d’articles. Plein de choses m’ont fasciné mais la plus importante a été la philosophie des ingénieurs en charge de sa conception. Vous savez quel est le premier élément qui a été construit pour démarrer le projet Steam Machine ? Son ventilateur. Le gros ventilateur qui sert à refroidir l’ensemble.

Les ingénieurs de Valve ont commencé par construire une solution de dissipation qui leur a donné un chiffre. Celui du TDP adapté au format qu’ils envisageaient pour la minimachine. Cette base de travail a permis de demander à AMD des puces spécifiques. Sur mesures. Des composants qui devaient donner le maximum de performances dans un certain cadre de refroidissement. Le processeur comme le circuit graphique devaient pouvoir fonctionner sans chauffer ni forcer le ventilateur a monter dans les tours. Valve est parti de la nuisance sonore qui pourrait incommoder le joueur pour décliner tous les composants de son produit. Et tout est de cet ordre là. J’en parlais dans mon billet sur la Steam Machine : l’usage de la manette qui allume la console, la manette qui se magnétise au dock de charge, les LEDs qui préviennent de la fin du téléchargement. Le boitier pas trop encombrant. Le système qui se maintient à jour tout seul. Les antennes Wi-Fi séparées pour améliorer les débits… 

Vous voyez la différence d’approche ? Tout est pensé depuis le point de vue du joueur et non pas depuis l’objectif de faire tourner un jeu. Ce n’est pas le jeu à la mode qui dicte la liste des composants. L’idée est de se demander comment les clients de Valve vont réagir face à l’engin. Quels sont les points de friction qui pourraient en limiter l’usage ? Comme pour le Steam Deck, tout est pensé pour faciliter le jeu. Pas pour promettre simplement d’afficher plus de pixels, dans des plus hautes définitions. Non, on veut pas jouer plus vite, plus fin ou avec plus d’informations à l’écran. On veut que le l’acheteur soit simplement mieux servi. Qu’il soit content de l’expérience de jeu. Pourquoi ? Parce qu’un utilisateur satisfait va tout simplement commander des jeux sur Steam. Ce n’est pas plus compliqué que cela.

Quand un constructeur traditionnel développe une machine de jeu, ce n’est pas sa façon de la concevoir. Je vous en parlais au sujet de HP et de la hausse de la mémoire vive. Son objectif premier est de coller à une grille tarifaire précise. Une case dans son catalogue. Seconde idée, trouver un argumentaire qui, dans le cadre du jeu, est toujours le même : des performances les plus élevées possibles. Il prend donc un ensemble de jeux réputés pour leur gourmandise et d’autres plus populaires et les passe à la moulinette de son produit. Il en ressort des chiffres. Un nombre d’images par seconde censé indiquer la meilleure jouabilité possible. Si cela a une certaine logique, c’est un calcul qui oublie un élément central de l’équation : le joueur. Pour singer cet élément, la recette est toujours la même. Mettre en scène un joueur professionnel qui est censé incarner la réussite en matière de jeu. Sauf qu’a bien y regarder, les joueurs pros n’ont pas la même approche du jeu que ceux promus par les constructeurs. Leur materiel et différent et ils n’embarquent jamais un écran en ultra haute définition par exemple.

Ce qui est intéressant avec la Steam Machine 2025, c’est d’avoir compris tout cela. La marque ne promet pas les meilleurs chiffres possibles en jeu. Pas de 300 images par seconde dans tel ou tel titre à la mode. Elle vous promet simplement de la jouabilité sur une grande part de votre catalogue. Sans bruit, sans pop-up de publicité intempestif déguisé en « service ». Sans un système d’exploitation compliqué ni de manipulations hasardeuses. Sans même devoir saisir un clavier pendant toute la vie du produit. Valve promet du confort au joueur parce que la marque part du joueur pour construire sa machine. 

Pour le Steam Deck on a vu que c’était le meilleur calcul. La meilleure publicité pour la console portable a été faite directement par ses clients. J’ai vu les plus dubitatifs des acheteurs face au système tomber sous le charme de cet engin. Des témoignages déclencher des achats. Des vieux joueurs n’ayant plus trop de temps pour ce loisir se mettre a écumer leur fond de catalogue de jeux inachevés du jour au lendemain. J’ai vu des machines débarquer dans des forums, des entreprises, des groupes de copains et faire des remous chez les autres. D’un premier acheteur en pause le midi entouré de ses collègues. Puis trois qui s’éclatent en coop, puis cinq, puis dix personnes décidant que leur prochain achat informatique ne serait pas une nouvelle carte graphique mais cette machine portable.

Et je pense que cette formule mobile a également toutes ses chances de fonctionner dans les salons.

À gauche, un ingénieur de chez Valve, vous ne verrez jamais un "communicant" avec les bras dans le dos dans cette position en retrait.

À gauche, un ingénieur de chez Valve, vous ne verrez jamais un « communicant » avec les bras dans le dos dans cette position en retrait.

Une vision très rafraichissante du marché

Un  point intéressant chez Valve est dans son approche technique. Quand la presse US a été invitée a dialoguer avec Valve pour la présentation de la Steam Machine, qui a t-elle rencontré ? Pas des commerciaux ni des communicants spécialisés. Pas des joueurs stars mis en avant comme des ambassadeurs de la marque. Non, ce sont les ingénieurs en charge du produit qui ont été dépêchés au contact de la presse. Les personnes qui ont réfléchis et conçu l’objet. Qui y croient. Ceux-là même qui pouvaient justement expliquer leur cheminement technique. Pas toujours super à l’aise, on le sent, devant les caméras et les personnalités de certains vidéastes. Mais des gens qui savent vraiment de quoi ils parlent et qui ont un avis tranché et argumenté sur les choix qui ont été faits. L’exemple type est dans cette vidéo de Gamers Nexus où une question très technique est gérée de manière directe et précise. Allant au delà même de la question initiale avec foule de détails. Je peux vous assurer que ce genre de question est généralement sans réponse dans une présentation presse classique chez un fabricant de PC lambda.

Autre élément vraiment très appréciable dans cette communication… Valve n’a aucun agenda a vendre au sujet de l’IA et cela se ressent. La marque va bien utiliser une solution de génération d’image FSR basé sur l’IA mais elle n’en fait pas tout un plat. L’engin ne cherche pas a mettre en avant un assistant quelconque ou un service exploitant ce type de technologie. Si vous avez suivi l’évolution du marché informatique ces derniers mois, c’est peut être la seule conférence de presse depuis plusieurs trimestres a ne pas vous parler d’Intelligence Artificielle. 

Mieux encore, la marque ne promet pas de trucs fous, n’emploie pas des mots à tord et à travers, ne lance pas de superlatifs délirants toutes les deux phrases. La vidéo de présentation se concentre sur les éléments techniques et pratiques que la console et sa manette apportent. Sur du concret. Sur le confort apporté au joueur et le côté ludique de l’engin. Et pas la promesse que votre nouvel achat va vous transformer en Newton, Mallarmé ou Vélasquez.

Valve se fait également un malin plaisir a rappeler une évidence que certains ont tendance a oublier. La Steam Machine 2025 sera votre machine, pas celle du constructeur. Vous en ferez bien ce que vous voulez. Si vous désirez installer un autre système d’exploitation, la désosser, la mettre à jour, grand bien vous fasse. On vous offre même la possibilité de la customiser.

La Steam Machine 2025 n'est pas "condamnée" au jeu.

La Steam Machine 2025 n’est pas « condamnée » au jeu.

Cet ensemble d’éléments est tout simplement devenu inimaginable chez la majorité des constructeurs : parler à un ingénieur ? Impossible. Les envoyer présenter le produit et inviter en face d’eux des gens qui savent de quoi ils parlent ? Encore plus fou. Ne pas plier le genou face à l’IA et à l’immense vague de pognon qui pourrait venir vous submerger en prêtant allégeance à telle ou telle entreprise ? Simplement délirant.

Je ne dis pas que Valve est une boite parfaite avec une vision utopique du monde, mais son approche reste vraiment purement technique, et cela fait énormément de bien de le constater.

La Steam Machine 2025 a tout pour réussir

Valve a dans ses cartons un outil en avance sur les autres marques. Pas en termes techniques mais d’un simple point de vue usages. Si les constructeurs traditionnels se sont servi du projet en 2015 pour attirer les projecteurs avant de l’abandonner. Ils n’ont plus rien fait depuis. Aucune grande marque de PC à l’international n’a vraiment travaillé à son indépendance. Tous sont strictement tenus en laisse par les constructeurs de puces et Microsoft. C’est triste à dire mais regardez un PC de 2015 et un PC de 2025 et vous avez la même machine. Celle de 2025 sera certes plus rapide avec plus de fonctionnalités mais elle n’apportera rien de fondamentalement innovant. Un peu de biométrie par-ci, des écrans plus définis, un stockage plus rapide, plus de mémoire vive etc. Mais fondamentalement les deux engins sont dans la même logique : proposer toujours plus de performance. Le Steam Deck et par extension la nouvelle Steam Machine, font un pas de côté. Le but recherché n’est pas la performance brute, c’est le confort de l’utilisateur. Et le confort c’est important pour un joueur.

Ce qui est amusant au final c’est qu’en 2015 Valve comptait sur des partenaires pour qu’ils intègrent son système d’exploitation. En 2025 déjà on voit des constructeurs se rapprocher d’un Valve qui ne demande plus rien pour profiter de son Steam OS dans leurs machines. On voit également que le projet a débordé dans le monde réel avec de nombreuses distributions Linux basées sur le travail de développement de Steam OS. Des milliers d’installations sauvages sur des PC classiques comme sur des consoles concurrentes prouvent déjà le succès de la formule.

Valve a mis 10 ans a relancer sa Steam Machine mais a semble-t-il d’ores et déjà gagné son pari.

Avec ce billet, je voudrais rendre hommage à Dan Field qui viens de nous quitter, bien trop tôt. Si vous n’avez pas connu ce vidéaste Français sur Youtube, il a été un véritable défricheur pour toute une génération de joueurs à la recherche de pépites dans le jeu indépendant. Jeux dont je vous parle justement dans ce billet qui ont fait venir toute une nouvelle population de personnes vers le monde PC. Véritable passionné, Dan a proposé pendant de très longues années un contenu vidéo riche et foisonnant. Il avait énormément d’interactions avec sa communauté, travaillait a présenter le travail de nombreux développeurs indépendants et semblait d’une douceur et d’une gentillesse indéboulonnables.

Steam Machine 2025 : l’évolution technique et conceptuelle de Valve © MiniMachines.net. 2025

La Chine établit de nouvelles règles pour les batteries USB

29 novembre 2025 à 15:29

En juillet, je vous parlais de graves problèmes rencontrés par le marché des batteries. Pour résumer le souci en quelques lignes, des fabricants de ces accessoires très populaires ont commencé à rappeler leurs produits suite à plusieurs incidents assez graves. Départs de feu, incidents pendant des vols commerciaux, explosions de batteries USB et même des drames suite à des incendies aussi violents que rapides.

Le gouvernement chinois a décidé de regarder d’un peu plus prêt le marché des batteries USB et a exigé que tous les modèles passent désormais obligatoirement par un organisme de contrôle. Sans cette vérification, il devenait impossible de vendre les produits en Chine mais aussi plus difficile de les utiliser. Les compagnies aériennes notamment ont décidé de bannir tout modèle ne présentant pas cette certification.

batteries USB

batteries USB

Que s’est-il passé avec les batteries USB en Chine ?

C’est une histoire assez classique. Comme les fabricants de batteries emploient des composants qu’ils ne fabriquent pas, ils font appel à des sous-traitants. Ces derniers proposent des produits avec différents niveaux de qualité qui vont se retrouver ensuite dans plusieurs types de produits. Quand un fabricant d’ordinateur portable achète des cellules de batterie pour ses appareils, il choisit un composant de qualité. Le risque qu’une mauvaise batterie endommage la totalité d’un produit onéreux est trop grand. Mais quand une marque fabrique une batterie USB, le prix est majoritairement composé par le coût des cellules qu’elle contient. La partie électronique et l’emballage sont bien moins importants dans l’équation.

Vous voyez le problème ? Quand une sous marque va décider de se lancer sur le marché, elle va choisir la seule voie possible pour se distinguer : le prix de vente. Elle ne peut pas lutter contre le marketing des grandes marques. Elle ne peut pas non plus briller en recherche et développement. Elle fait donc au plus simple, prend tous les raccourcis et achète les composants les plus entrées de gamme pour lutter sur le prix. Au passage, elle va éviter de faire certifier son appareil puisque cela coute cher mais surtout cela aurait des chances de ne pas passer les contrôles qui peuvent être drastiques. Enfin, elle ment sur la capacité de son produit. Proposant une batterie 40 000 mAh sur le packaging alors qu’elle n’embarque que 10 ou 15 000 mAh de cellules. Avec cette recette, elle est beaucoup moins chère que les marques et peut trouver preneur.

En grignotant des parts de marché ainsi, des centaines de sous marques ont lentement érodé le secteur. Les grandes marques ont commencé à avoir du mal à justifier leurs tarifs. Si tout le monde voit bien la différence entre un restaurant étoilé et une enseigne de fast-food, c’est plus difficile de faire comprendre pourquoi untel vend une batterie 40 000 mAh à 19€ alors que la marque propose 20 000 mAh pour le double.

Face à cette concurrence déloyale, certaines marques ont décidé de baisser la qualité de certains de leurs produits. Acheter des cellules moins cher, ne plus passer les certifications et gonfler les capacités artificiellement pour des gammes « low cost » plus accessibles. Histoire d’améliorer leurs ventes. Le problème pour ces industriels c’est que, contrairement aux marques noname aux noms exotiques que l’on trouve désormais en pagaille, ils peuvent et ils doivent rendre des comptes.

Et c’est exactement ce qu’il s’est passé cet été. Suite aux divers incidents graves qui ont eu lieu, le gouvernement chinois a décidé de durcir les règles de commercialisation. 

Des incidents de vol à cause de batteries mobiles défectueuses ont réveillé les autorités Chinoises

Des incidents de vol à cause de batteries USB défectueuses ont réveillé les autorités Chinoises

 

Un second tour de vis avec une certification plus stricte

Désormais, le gouvernement chinois va plus loin. La certification reste évidemment obligatoire, mais elle va être plus draconienne avec des tests plus poussés. Dès le mois de juin prochain, il sera impossible de vendre une batterie légalement en Chine sans une nouvelle certification. Aujourd’hui, les fabricants doivent respecter la norme actuelle et les distributeurs tout autant. Ce qui veut dire que si un contrôle surprend un commerçant qui distribue une batterie non certifiée, il risque une amende, la confiscation de son stock et sa destruction à ses frais. Il n’y a pas eu de « moratoire » ni de période pendant laquelle les vendeurs et les industriels ont pu écouler leurs marchandises non conformes. Comme il s’agissait d’un risque pour le public, ces produits non certifiés ont tout simplement étés bannis.

Dès le mois de juin prochain, ces produits actuellement conformes ne le seront plus à leur tour. La Chine laisse donc six mois aux industriels pour se mettre à jour avec de nouveaux impératifs. La bonne nouvelle, c’est que pour avoir cette nouvelle certification et vendre des batteries USB, il va falloir proposer des solutions beaucoup plus sérieuses dans leur conception.

Des batteries USB qui communiquent avec l’utilisateur

Outre les éléments déjà en place, la nouvelle norme va imposer une lecture facile de l’état technique de la batterie. Deux moyens sont possibles. Le premier passera par une interface intégrée à l’objet qui donnera le détail de sa charge. Un petit écran LCD qui affichera la capacité restante, les protocoles employés, la vitesse de charge mais aussi l’état de santé des cellules, le nombre de charges qu’elle ont connues et la puissance réellement embarquée. Des éléments qui sont relevés par les puces des modèles de grandes marques qui utilisent des technologies de charge avancées mais qui ne sont absolument pas gérées par les composants d’entrée de gamme. 

L’ajout de cet écran aura évidemment un coût alors une parade logicielle pourra être trouvée. Le fabricant pourra proposer une application qui ira lire les informations de la batterie pour renseigner l’utilisateur sur son smartphone via un bête câble USB. 

Deux remarques par rapport à ce premier poste. D’abord, rien n’empêchera un fabricant peu scrupuleux de proposer de fausses informations sur un petit écran. Indiquer 40 000 mAh quand la batterie n’en propose que 10. Déclarer un seul cycle de charge en sortie d’usine malgré l’emploi de cellules recyclées. La différence c’est que si une marque fait cela, elle ne fabrique pas seulement un produit low-cost non certifié, elle fabrique un produit interdit et peut donc être poursuivie pour cela. Ce n’est plus une amende qu’elle risque, c’est une peine beaucoup plus lourde.

L’autre point est la destination de cette communication. On imagine que le propriétaire de cette batterie communicante sera ravi de savoir que son appareil en est à 300 cycles de charge ou qu’elle envoie 15 watts vers son smartphone. Mais ces éléments, l’acheteur les connait déjà d’une manière ou d’une autre. Il sait qu’en ayant acheté sa batterie il y a deux ans et en la chargeant en gros une fois par semaine, elle est à un certain nombre de charges. Il sait également qu’elle envoie du 15 watts vers son smartphone parce qu’il l’a achetée pour ça. Le véritable destinataire de ces informations est donc quelqu’un d’autre et je suis tenté de croire qu’il s’agira des autorités chinoises. En particulier des personnels en charge des embarquements d’avion. Il suffira de brancher une batterie à un appareil de contrôle pour vérifier son état et autoriser ou non, sa présence à bord d’un appareil.

Une durée d'utilisation recommandée de 5 ans

Une durée d’utilisation recommandée de 5 ans

Cela, couplé à une obligation pour le fabricant d’indiquer la date de fabrication et une date d’exploitation recommandée, seront des indices forts pour l’acheteur et les autorités. La nouvelle norme imposant en effet pour le constructeur d’indiquer si la batterie a une durée d’usage estimée en années. 2, 3 ou 5 ans suivant un certain protocole de charge. Ce qui indiquera à l’acheteur la qualité de l’électronique et des cellules embarquées.

Un appareil de test d’impact classique

La nouvelle norme va plus loin

La norme actuelle effectue déjà des tests assez lourds : résistance aux chocs, à la température, aux vibrations et même à l’impact. On sait ce que donnent certains composants chimiques au contact de l’eau ou de l’air. Des combustions et des explosions spectaculaires. Pour éviter ces risques, les nouvelles batteries USB devront passer des tests encore plus complets pour avoir le droit à une certification.

Le test d’impact imposera de résister à une charge équipée d’un poinçon montée sur un appareil de test. C’est une procédure assez standard dans l’industrie mais capitale dans le monde des batteries. Un protocole précis servira à évaluer la résistance de la coque des batteries pour éviter une déformation qui pourrait toucher les cellules ou un percement encore plus grave. 

Des tests de résistance aux vibrations pour évaluer leur impact sur les soudures, élément qui peut faire entrer les batteries en court-circuit. Et même un passage au four des différents modèles avec pour mission de sortir vivant et non altéré d’une cuisson à 135 °C pendant une heure. Un scénario catastrophe qui évitera de transformer une batterie oubliée sur un tableau de bord de voiture en été en bombe artisanale.

Les mesures classiques de surcharge ou de mauvaise utilisation seront évidemment toujours d’actualité. Avec la généralisation du format USB Type-C à de plus en plus d’appareils, il ne faut pas qu’une batterie réagisse mal à une surcharge. Ici, elle pourra même alerter d’un souci en cas d’utilisation d’une source non adaptée via son petit écran intégré.

50 000 mAh pour 20€, vraiment ?

Une excellente nouvelle pour le consommateur

Le premier réflexe est de se demander quel impact aura cette nouvelle norme sur son pouvoir d’achat. Combien vont couter ces nouvelles batteries ? La réponse est assez simple, dans tous les cas, ce sera forcément moins cher. 

D’abord la norme aura pour effet de débarrasser les places de marché de tous les modèles « noname » qui polluent l’offre normale. Ces modèles sont certes fort peu chers, mais ils ont tous les défauts du monde. Ils mentent sur leurs capacités réelles et quand on rapporte leur tarif à leur véritable pouvoir de charge, se retrouvent souvent au-dessus des solutions de grandes marques. Ils sont dangereux de par leur conception et les composants qu’ils utilisent. Ils peuvent également poser des soucis de surtension pour les appareils que vous branchez dessus. Leur existence n’est liée qu’au simple fait qu’ils mentent aux clients finaux. Ils ont fait croire qu’il était possible de proposer 56 000 mAh dans un objet de 200 grammes à 20€. 

Oui, le ticket d’entrée du marché sera plus élevé . Pas en euros par rapport aux capacités réelles mais simplement sur la somme déboursée en amont pour obtenir un de ces engins. Aujourd’hui, il ne faut qu’une poignée d’euros pour obtenir une batterie noname qui « suffit » bien à l’utilisateur. Tout le monde ferme les yeux sur les matériaux utilisés et les risques incendies. Avec la bonne vieille méthode d’auto persuasion du « ça n’arrive qu’aux autres » au sujet des incendies. Demain, il faudra dépenser plus pour une batterie plus efficace, garantie dans la durée, communicante et capable de réellement charger plusieurs fois votre smartphone avant de la mettre elle même sur secteur.

On achètera bientôt une batterie USB de qualité, une fois tous les 3 ou 5 ans, à 40 ou 50€. Au lieu d’en acheter une par an à 15 € en essayant de se faire croire qu’on a oublié son prix global. C’est non seulement bon pour son portefeuille mais également excellent pour sa santé mentale et la planète. C’est en effet un bon moyen d’éviter la génération d’énormément de déchets électroniques.

batteries USB

J’achète ou j’attend ?

Que faire alors ? Attendre juin 2026 pour acheter une batterie USB ? Si vous pouvez attendre, attendez. Avoir un modèle développé avec ces nouvelles fonctions sera évidemment positif. Mais si vous regardez le marché actuel vous avez déjà des marques qui proposent des engins répondant presque au cahier des charge évoqué. Les grands noms de la batterie ont fait évoluer leurs gammes depuis un moment. L’idée de l’écran qui indique le niveau de charge est probablement né des modèles existant qui le proposent déjà. Si vous avez besoin d’un de ces accessoires aujourd’hui piochez simplement dans les catalogues des bonnes marques : Anker, Baseus, Ugreen, Samsung, Xiaomi…

Le vrai risque est en fait lié à la fin de traine du marché noname. Dans les mois qui vont venir, tous les modèles bas de gamme vont dévisser et leurs tarifs s’effondrer. Les vendeurs qui inondent les places de marché vont baisser les prix de leurs batteries bas de gamme parce que cela leur coutera moins cher de les vendre à perte que de devoir les envoyer au recyclage. Ils vont donc tenter de vous proposer leurs produits dangereux et mensongers par tous les moyens possibles.

Il faudra donc absolument résister à ces offres de batteries « 20 000 mAh » proposées à quelques euros seulement. Cela sera dans tous les cas une mauvaise affaire.

 

Ugreen Nexode 130W : 20 000 mAh de bonheur mobile (promo à 49.99€)

Source : ITHome

La Chine établit de nouvelles règles pour les batteries USB © MiniMachines.net. 2025

Steam Controller : Valve de retour aux manettes

18 novembre 2025 à 16:24

Je me suis enthousiasmé sur le Steam Controller il y a 10 ans parce qu’il cherchait à résoudre un problème important. En proposant des surfaces de contrôle de type trackpad, il offrait la possibilité de piloter un ordinateur avec un pointeur avec la même ergonomie logicielle qu’une souris. Cela ouvrait la porte à une exploitation de jeux spécifiques au monde PC sur un grand écran de salon.

Le Steam Controller de 2015

Le Steam Controller de 2015

Mon enthousiasme a été quelque peu douché par la réalité. Je me suis procuré ce Steam Controller version 2015. Une première fois à sa sortie. Une autre quand il a été vendu des clopinettes lorsque Valve a jeté l’éponge en 2019. Je n’ai pas été déçu mais il faut bien reconnaitre que cela ne s’est pas tout à fait passé comme prévu. D’abord, les premières Steam Machines n’ont pas fait long feu. Les constructeurs partenaires n’ayant pas vraiment poursuivi leurs tentatives de production face à un échec commercial du projet. Surtout, je me suis rendu compte que si les manettes étaient adaptées à un usage de type PC sur grand écran, elles ne l’étaient pas complètement pour une exploitation plus classique de type console.

Un mockup de Steam Controller 2 qui traine sur la toile après l'arrivée du Steam Deck

Un mockup de Steam Controller 2 qui traine sur la toile depuis l’arrivée du Steam Deck (il y en a eu beaucoup d’autres.)

Il leur manquait quelque chose… Avec un seul joystick et une croix directionnelle moins précise, elles ne pouvaient pas prétendre rivaliser en ergonomie avec des solutions signées Microsoft ou Sony. Sans être un échec complet, ces premières manettes demandaient en réalité d’en avoir une seconde plus classique sous la main. Évidemment, le calcul le plus logique pour le client final n’était pas d’avoir deux manettes assez chères mais plutôt d’investir dans une souris sans fil ou un clavier avec Trackpad comme le fameux Logitech K400. Le Darwinisme technique a donc fait son œuvre et l’espèce Steam Controller de 2013 a disparu

Steam Controller 2025

Steam Controller 2025

Fin 2025 donc, Valve annonce un nouveau Steam Controller. L’idée est la même, marier les jeux PC et les jeux console dans une interface qui ne peut pas exploiter de souris. Manette en main, on doit pouvoir résoudre ce paradoxe d’une position relative comme ce que propose un pointeur de souris alors que les joysticks sont pensés pour gérer des directions successives avant de revenir à une zone neutre. Une position absolue qui ne tient pas en compte le fait que votre pointeur soit déjà en haut à droite d’un écran et qui ne fait qu’imprimer une direction et un mouvement à celui-ci. 

Ce paradoxe ne pouvant pas être techniquement résolu, les équipes de Valve ont contourné le problème en additionnant les deux types de contrôles. Ils ont résolu cela depuis quelques années avec la sortie du Steam Deck. La console mobile propose trois types de contrôles : d’abord un écran tactile qui propose de pointer directement du doigt la zone à atteindre. Ensuite un équipement de manette classique avec des joysticks et autres éléments traditionnels du genre. Et enfin deux trackpads tactiles pour retrouver ce positionnement relatif. La recette est bonne, elle fonctionne parfaitement avec les jeux les plus complexes et permet de retrouver toute la finesse d’une interface PC en se passant de souris. Cela ouvre la voie à une jouabilité mixte sur le petit écran qui découvre alors les joies de simulations de ville, de jeux de stratégie en temps réel et autres simulateurs de mondes.

C’est donc évidemment cette recette qui est reprise sur le nouveau Steam Controller 2025. Valve ayant ajouté quelques détails. Dans la même logique de dialogue entre espaces relatifs et absolus proposés par le monde du jeu.

Une manette de base très classique

Le premier poste à piloter avec ce Steam Controller est bien évidement le système Steam OS. Or ce système a lui-même été pensé pour être piloté à la manette. Dérivé du mode Big Picture lancé par Valve il y a 13 ans, Big Picture a en effet été le premier pion avancé par l’éditeur dans sa conquête des salons. Ce mode permettait de basculer Steam dans une interface exploitable du bout de sa manette de jeux. Ce n’était qu’une étape esthetico-ergonomique et cela ne résolvait rien de la problématique de jouabilité des titres après leur lancement. Mais ce fut le premier pas fondateur qui a amené tout le reste. L’interface de Steam OS, notamment, est née de cette interface et reprend les grandes lignes dessinées à l’époque.

Un port USB Type-C permettra de recharger la manette et de jouer connecté au besoin

Un port USB Type-C permettra de recharger la manette et de jouer connecté au besoin

Pour piloter Steam OS, il faut donc une solution manette. Valve a donc créé une manette tout ce qu’il y a de plus classique : deux mini joysticks magnétiques de type TMR haut de gamme. Ils vont offrir de la précision, de la finesse et la prise en compte ultra-précise de vos intentions. La technologie employée est réputée pour sa réactivité et sa fiabilité.

C’est la moins sujette à des altérations de contrôles dans la durée. On retrouve également les quatre boutons classiques du genre, ABXY, pour retrouver facilement ses marques dans les jeux et déclencher les actions dans les menus. La croix directionnelle est bien présente, elle offre une alternative aux joysticks en proposant une meilleure réactivité pour certains jeux au détriment de la nuance créée par la profondeur du geste.

Ce trio très classique est complété par deux paires de gâchettes qui viennent se positionner sous les index. Deux sont analogiques avec un contrôle précis de chaque pression et deux autres plus classiques. Quatre boutons supplémentaires se retrouvent sous les doigts au niveau des poignées de la manette. Tout ce petit monde pilotera l’âme des jeux habituels : tir, course, plateformes et autres. 

Enfin, un gyroscope sur six axes est intégré à la manette. Il permettra de piloter des jeux de course, de simulation de vol et autres trucs du genre en pendant l’objet de gauche à droite et d’avant en arrière. Ce poste est complété par une nouveauté intéressante puisque Valve ajoute une certaine relativité dans ce poste. La manette Steam Controller 2025 propose de « fixer » le gyroscope en cours d’usage. Ce n’est pas forcément simple à comprendre, mais imaginez que vous êtes en cours de jeu et que vous braquiez votre vaisseau vers la droite en basculant votre manette dans le même sens.

Vous arrivez rapidement en « bout de course » avec vos deux bras qui se croisent pour imprimer le mouvement le plus sec possible. L’idée de Valve est de vous permettre de presser la base des poignées de la manette pour « fixer » cette position de braquage, vous remettre physiquement dans une position plus confortable puis de reprendre votre tournant.

C’est exactement l’idée de la relativité d’un pointeur de souris qui va se figer lorsque vous la soulèverez afin de pouvoir réimprimer un mouvement supplémentaire.

Chaque touche, chaque élément pourra être configuré suivant ses besoins

Chaque touche, chaque élément pourra être configuré suivant ses besoins

Et pour résoudre la problématique des jeux ayant besoin d’une gestion relative, deux pavés tactiles carrés de 3.45 cm de côté ont été « simplement » intégrés à la manette. Je mets des guillemets à simplement parce que ce n’est pas si simple justement. Il faut assurer leur parfaite prise en charge par la machine, développer les puces nécessaires, assurer leur dialogue avec l’interface de jeu et prendre en compte les délicates interactions supplémentaires nécessaire à une parfaite manipulation. On retrouve ainsi des possibilités de réglages pour adapter la pression indispensable au clic sur chaque zone. Histoire d’éviter qu’un effleurement soit pris pour un clic ou qu’il ne faille appuyer trop fortement pour déclencher quoi que ce soit.

Autre charmante attention de Valve, l’ajout d’un retour haptique pour avoir conscience des différentes interactions prises en compte par la manette. Deux moteurs haptiques de type LRA sont employés pour une amplitude de retours très fine. Les modules LRA fonctionnent un peu comme des membranes de haut-parleur. Lorsqu’un courant les traverse, ils se mettent à vibrer de bas en haut sur un seul axe.

Au contraire de moteurs rotatifs qui vibrent en faisant tourner un axe portant un poids déporté pour générer des secousses. Ces moteurs LRA sont plus compacts, plus fins, moins gourmands en énergie et peuvent réagir immédiatement à des signaux très faibles. Ainsi la surface de vos pouces pourra ressentir un effet de validation doux pour signaler la prise en compte d’un ordre. Ou, vous prévenir qu’il se passe quelque chose de grave en pulsant des vibrations très fortes. Deux autres moteurs LRA, probablement plus massifs, sont également présents dans le reste de la manette pour des réactions plus classiques. Un petit tremblement pour signaler que vous avez froid, un gros choc quand un projectile vous atteint et toute une panoplie de sensations intermédiaires : porte qui claque, voiture qui part dans les gravillons, effet de surprise.

Ces deux pavés tactiles vont permettre au Steam Controller d’ajouter les éléments indispensables à la prise en charge des interfaces les plus complexes du monde PC. 

Je ne suis évidemment pas persuadé qu’un joueur aura envie de lancer sa prochaine partie d’Anno ou de Factorio avec une manette de ce type. Mais cette double interface prend à bras-le-corps le problème majeur des jeux PC sur un écran classique. Leur interface a avant tout été prévue pour un dispositif comptant un clavier et une souris. En ajoutant cette double interface, Valve crée le pont entre les deux. Si vous avez déjà joué à des jeux PC sur canapé à la manette, vous avez probablement déjà pesté sur ces interfaces qui réclament des interactions frustrantes. L’appui sur une barre espace par exemple ou la gestion d’éléments pensés pour la souris. Valve pose son Steam Controller 2025 non pas comme une simple manette de jeu, mais comme le prolongement de SteamOS. Comme la solution parfaite pour résoudre la problématique de son vaste et large catalogue. 

La phrase clé à retenir pour comprendre l’objectif de ce Steam Controller est annoncée par Steam lui-même. L’objet a été construit pour piloter « n’importe quel jeu, même ceux qui n’étaient pas pensés pour être jouables avec une manette. » Et de montrer une image de Balatro, un jeu de carte absolument pas pensé pour la manette1

Enfin, la manette embarque une batterie généreuse de 8.39 Wh qui portera son poids à 292 g pour des dimensions assez classiques de 15.9 cm de lage pour 11.1 cm de profondeur et 5.7 cm d’épaisseur. La batterie assurera plus de 35 heures de jeu avant de nécessiter une recharge. On va en parler.

What’s the Puck ?

La manette n’est pas livrée seule mais avec un petit accessoire, le Puck. Il s’agit d’un élément supplémentaire dans l’équation qui vient parachever le luxe de détails proposés par Valve pour cette nouvelle manette. L’objet sert avant tout  à recharger le Steam Controller. Connecté à la Steam Machine ou à n’importe quel port USB, il délivrera le courant nécessaire pour cette tâche. La connexion proposée est véritablement pensée pour un usage simple et pratique. Le Puck est magnétique, il vient se positionner automatiquement face aux connecteurs de type POGO situés sous la manette. De telle sorte qu’en posant simplement l’objet à côté de la Steam Machine, elle se connectera quasiment toute seule pour toujours être chargée. Pas de câble pénible à brancher et pas d’oubli non plus parce que l’interaction proposée est plus qu’amusante, elle est satisfaisante. Valve a trouvé comment faire pour que l’on ait tout simplement envie de recharger son accessoire au lieu d’en faire une corvée.

Mais ce n’est pas tout, le Puck est également un relais d’antenne sans fil pour la manette. Un relais RF qui reprend celui intégré dans la Steam Machine. S’il ne sera pas indispensable pour les possesseurs de ce cette console PC de salon, il sera nécessaire pour toute personne qui voudrait employer la manette sur un autre PC, sur le Steam Deck ou ailleurs. Le Controller peut également utiliser un câble USB Type-C pour se connecter, il peut aussi tout à fait se brancher en Bluetooth. Mais la liaison RF 2.4 GHz rajoute des options très sympathiques comme le réveil possible ave la manette. La possibilité de se connecter à quatre sur un seul Puck. Et la possibilité de profiter d’une faible latence de 8 ms avec une bonne portée sans interférence. 

Plus prosaïquement, cela permet également de cacher sa Steam Machine au fond d’un meuble Hi-Fi et de laisser le Puck visible sous la télé. De telle sorte que l’utilisateur pourra piloter le PC sans le voir, recharger sa manette et profiter d’une excellente connexion.

L’autre grand pari du Steam Controller

Pour Valve, cette manette à une autre vocation très importante, celle de devenir un nouveau standard. Une volonté nettement affirmée dans son message général  qui explique que le Steam Conroller permettra de jouer à tout type de jeu certes, mais également sur tout type de plateformes :  indispensable pour faire de SteamOS un concurrent sérieux aux autre systèmes de jeux.

Les développeurs doivent pouvoir compter sur cette interface pour développer dessus. Les choses ont déjà bien avancé avec le Steam Deck et énormément de studios ont apporté des correctifs pour améliorer la prise en charge de leurs jeux sur la plateforme mobile. D’autres réfléchissent désormais en amont de leur conception d’un titre comment le porter sur la console. Le Steam Controller doit arriver au même stade de prise en charge pour devenir la passerelle voulue par Valve. Si demain des jeux populaires se positionnent pour tirer parti de tous ses avantages techniques, ce sera un grand pas en avant.

Avec une manette reconnue par le public et un système qui en tirerait pleinement parti, Valve pourrait tout à faire réussir son pari. Devenir un écosystème majeur du jeu sur PC et devenir la solution la plus adaptée pour le grand public non technophile. 

 

La manette SONY Dualsense de la PS5

La manette SONY Dualsense de la PS5

Une manette solide et réparable ?

Un dernier point, moins sourcé et plus basé sur une intuition personelle. Mais, comme pour le Steam Deck, la manette de Valve pourrait être totalement documentée et construite de manière à être facilement réparable. Au dos de l’objet, on peut voir pas moins de sept emplacements de vis apparentes. La pièce portant les joysticks plus haut dans ce billet montre un composant qui semble se démonter facilement. Ce serait une différence majeure par rapport à une manette Sony, par exemple, qui, si elle peut être réparée, nécessite un processus complexe.

Je ne serais pas surpris que Valve joue la carte de la réaparabilité et fasse confiance aux joueurs de la même manière que cela a été fait pour le Steam Deck. On se souvient qu’en 2022, l’éditeur avait publié la documentation technique nécessaire pour opérer sa console mobile à coeur ouvert. Je ne serais pas surpris que la marque fasse le même pari en 2026 avec cet accessoire. 

 

Pour en savoir plus sur la Steam Machine :

Valve annonce la Steam Machine, sa minimachine de jeu

Valve montre comment changer le SSD de son Steam Deck

Steam Controller : Valve de retour aux manettes © MiniMachines.net. 2025

Valve annonce la Steam Machine, sa minimachine de jeu

17 novembre 2025 à 16:17

Les rumeurs couraient depuis des mois, Valve allait relancer en 2026 une nouvelle Steam Machine. Différents scénarios plus ou moins fantaisistes étaient évoqués autour de cette sortie avant que la marque lève enfin le voile sur ses projets. Dissipant ainsi les derniers doutes sur son intention de tenter encore une fois l’aventure du jeu de salon. Une annonce qui, si elle ne surprend personne, réveille un peu le marché.

La Steam Machine 2026, un MiniPC presque comme les autres.

Le boitier de cette nouvelle console de salon est très sobre. Compact, il mesure 15.2 cm de haut pour 16.24 cm de profondeur et 15.6 cm de large pour un poids total de 2.6 Kg. Ce volume ne ressemble ni vraiment à un PC traditionnel ni à une console classique. Il proposera à la Steam Machine d’être au choix parfaitement invisible en restant cachée au fond d’un meuble Hi-Fi. D’être discrète en s’exposant avec son aspect très sobre. Ou, au contraire, mise en valeur avec une coque magnétique qui pourra venir décorer son boîtier, j’y reviendrai plus bas. Dans tous les cas, le format est différent des propositions habituelles.

A l’intérieur d’un châssis très travaillé, l’essentiel de la machine est constitué par le dispositif de dissipation choisi. Un énorme radiateur va permettre de disperser la chaleur du processeur. Un unique ventilateur, créé sur mesures, se chargeant de faire traverser de l’air frais de sous l’appareil vers l’arrière. Un soin tout particulier a été mis en œuvre pour proposer une ventilation efficace et discrete.

© Gamers Nexus

© Gamers Nexus

Les premiers tests des prototypes montrent que la Steam Machine, même au maximum de ses capacités de calcul, ne fait pas de bruit significatif. Son ventilateur tournera de 500 à 2000 tours par minutes avec un flux d’air calculé en temps réel. Un point essentiel pour venir équiper les salons, pièces qui restent la cible de la marque aujourd’hui pour gagner de nouvelles parts de marché.

Sous ce dissipateur on retrouve des composants qui semblent au premier abord assez classiques. A commencer par un processeur AMD Ryzen comme il en existe tant d’autres sur le marché, sauf qu’il est construit « partiellement sur mesure ». Fruit d’un travail mené entre Valve et l’unité custom d’AMD spécialisée dans les créations de ce type. Pas vraiment une grosse surprise, au demeurant, étant donné les liens tissés entre eux depuis le lancement du Steam Deck. AMD a toujours été d’un accès plus facile pour des constructions de ce type et dispose en plus des muscles silicieux nécessaires à ce profil de machine. Le papa de Steam voulant bien évidemment capitaliser également sur les efforts menés autour du développement de son système d’exploitation déjà optimisé pour un processeur Ryzen.

La puce est présentée comme une solution développant 6 cœurs et 12 threads dans une génération AMD Zen 4. Sa fréquence maximale culmine à 4.8 GHz pour une enveloppe thermique de 30 watts. Son circuit graphique est construit avec des cœurs RDNA 3 qu’AMD propose ici dans une formule déployant 28 Compute Units à une fréquence de 2.45 GHz. L’enveloppe thermique de ce circuit graphique atteint 110 watts. Le mélange serait, selon les dires de Valve, six fois plus performant que ce que propose sa console mobile, suffisant pour piloter la totalité de son catalogue, pas moins. Ce n’est d’ailleurs pas vraiment une surprise puisqu’ici nous ne sommes pas du tout dans les mêmes contraintes que pour le Steam Deck en terme d’autonomie, de refroidissement, de consommation et d’encombrement.

Les rumeurs d’une solution Custom « Phoenix 2 » flottaient dans l’air du marché console-PC depuis le début de l’année 2023. Des processeurs dans la droite ligne logique des puces Aerith justement intégrées au Steam Deck premier du nom. Une formule remise au goût du jour bien sûr mais qui ménage les différents équilibres de cette console. Pas trop chère, pas trop chaude, pas trop gourmande. Un choix construit tout spécialement pour répondre précisément à un cahier des charges étudié à la loupe.

Pour faire fonctionner son système SteamOS, la minimachine rajoute deux postes de mémoire. D’abord 16 Go de mémoire DDR5 pour le système. Une solution montée sur deux modules SODIMM traditionnels permettant donc une certaine évolution si on acccepte de plonger profondément dans ses entrailles. Le second poste est constitué par 8 Go de mémoire GDDR6 totalement dédiés à la partie graphique. Ceux-là sont directement soudés à la carte mère.

La partie stockage est un SSD NVMe PCIE 4.0 x4 de 512 Go pour le modèle entrée de gamme de la Steam Machine et pouvant atteindre 2 To pour la version la plus évoluée. Valve a choisi un SSD M.2 2242 pour de probables raisons logistiques, financières et techniques. Il sera toutefois possible de les remplacer par des SSD M.2 2280 sans problème. A condition cependant de ne pas embarquer des SSD trop émetteurs de chaleur et sous réserve que tout type d’épaisseur de SSD soit compatible. Le châssis de l’engin joue en effet un rôle primordial dans la dissipation de ce poste et il faut un contact parfait entre le SSD et le métal du boîtier pour que cela fonctionne.

Une connectique sur-mesures

La distribution connectique est sobre, suffisamment efficace pour répondre aux besoins de la minimachine mais en deçà de ce que l’on attend d’un MiniPC classique en 2026. On ne retrouve ainsi sur la face avant que trois ports. Deux ports USB 3.2 Gen-1 Type-A très classiques qui serviront à connecter des éventuels périphériques comme des manettes ou des éléments de stockage. Et un lecteur de cartes MicroSDXC « UltraRapide » selon les dires du constructeur.

Si ce lecteur peut paraître étrange sur une solution de ce type au premier abord, ce n’est clairement pas la règle dans le monde des MiniPC, il a toute sa place ici. Il permet en effet de profiter des jeux installés sur un Steam Deck sans aucune autre manipulation logicielle. En clair, si vous avez la console mobile de Valve et que vous achetez sa console de salon, vous pourrez lancer une partie dans les transports et une fois chez vous, la reprendre sur votre téléviseur. Il suffira de déplacer simplement la carte MicroSDXC d’une machine à l’autre. Le corollaire de cette possibilité est que vous allez pouvoir profiter de la connexion Ethernet de votre Steam Machine pour télécharger des jeux et leur mise à jour sur la carte pour ensuite les récupérer sur votre solution mobile.

Le reste de la façade ne propose pas d’autres ports. Même pas une sortie casque. Seule une petite LED témoin d’activité et un bouton de démarrage sont également visibles.

De l’autre côté du châssis, on va retrouver les sorties vidéo de l’engin : un DisplayPort 1.4 et une sortie HDMI 2.1. Ces ports présentent toutes les spécificités classiques du genre. On pourra profiter de contenus en « 8K » à 60 Hz et en « 4K » à 240 Hz pour le DisplayPort avec une prise en charge de la technologie Freesync et du HDR. Si ces définitions vous paraissent un peu exagérés pour ce type de machine, il faut prendre en compte la possibilité pour ce port de chaîner les affichages. De telle sorte que l’on pourra brancher deux écrans 4K l’un à la suite de l’autre.

Le port HDMI 2.1 a ses propres avantages avec la prise en charge du CEC qui permettra d’allumer un écran directement au démarrage de la console. Il est également compatible FreesSync et gérera des signaux 4K jusqu’en 120 Hz. A noter que ce port est estampillé HDMI 2.0 même s’il correspond en tous points aux normes HDMI 2.1. La raison de ce choix a plus à voir avec les licences octroyées par le HDMI Forum à AMD qu’aux possibilités techniques déployées ici. Pour rappel, les informations techniques mentionnées pour le moment par Valve sont susceptibles de changer avant la sortie. Il sera donc toujours temps de basculer vers une appellation HDMI 2.1 si une licence est validée d’ici la sortie de la console. 

On trouve ensuite un port d’alimentation secteur très classique. Le choix d’un câble bipolaire étant le plus économique pour le constructeur. Il suffira de changer la prise dans chaque boite pour localiser correctement l’appareil. L’alimentation interne acceptant un courant de 110 à 240 V, elle est universelle. Une seule machine pour alimenter tous les marchés mondiaux et la possibilité pour un acheteur Français de balader sa console en Angleterre ou au japon sans problème.

Enfin, un port Ethernet Gigabit, deux ports USB 2.0 Type-A et un port USB 3.2 Gen 2 Type-C sont présents. De quoi connecter un éventuel clavier et une souris mais également un Dock en USB Type-C pour un usage de bureau complet plus classique. Pas de port jack audio 3.5 mm donc, pas d’Antivol type Kensington Lock, pas d’Ethernet à plus haut débit. L’idée est bien de faire de cette machine une console et non pas un PC. Le son, par exemple, est traité de la même manière que sur une console, il pourra sortir d’un téléviseur ou d’un casque Bluetooth parce que le joueur est bien censé être à plusieurs mètres de la minimachine et donc logiquement pas accroché au bout d’un câble.

La partie réseau sans fil semble de prime abord assez standard mais cache certaines spécificités. On note la présence d’un module Wi-Fi6E et Bluetooth 5.3 tout à fait ordinaire. A bien y regarder cependant, on découvre une implantation moins classique que d’habitude. Quatre antennes sont proposées au total. Deux pour le Wi-Fi, ce qui est assez classique. Mais également une troisième dédiée au Bluetooth, ce qui l’est beaucoup moins. Une quatrième, enfin, proposera une liaison sécurisée en 2.4G pour piloter les nouvelles manettes de jeu de la marque.

Un dispositif complexe donc mais pas forcément très coûteux qui participera là encore au changement de destination du boitier. Cette liaison RF permettra par exemple des manipulations spécifiques comme le réveil de la console depuis la manette. Console qui réveillera elle-même un téléviseur via son HDMI. Le tout porté par un système qui acceptera de reprendre une partie immédiatement là où vous en étiez. De telle sorte qu’on pourra lancer un jeu sans autre formalité qu’une pression sur un bouton de la manette Steam Controller abandonée la veille sur sa table basse. Une cohérence complète de l’offre et de l‘usage.

Des spécificités très Valviennes

Parmi les autres éléments techniques notable de cet engin, on peut noter deux postes importants sur la façade. D’abord un panneau avant aimanté qui pourra être changé. L’idée est de permettre à l’acheteur de profiter d’une Steam Machine qui corresponde parfaitement à ses goûts mais également d’avoir un poste de développement marketing privilégié.

Ce n’est qu’une supposition de ma part, mais Valve est extrêmement bien placé pour profiter de cette façade afin de mettre en valeur des jeux et des partenariats. En tant qu’éditeur, il lui est parfaitement possible de proposer des façades sous licence à ses clients. Imaginez simplement la présence dans son magasin d’applications de façades correspondant à vos jeux préférés qui n’apparaîtraient qu’aux propriétaires identifiés d’une Steam Machine. Steam sait très bien que les « skins » de jeu vidéo sont un vrai business. Vendre des faces avant de console aux couleurs des jeux préférés de chaque joueur, permettre à ceux-ci de les changer, serait sûrement une manière pratique de faire des bénéfices et d’intéresser les éditeurs.

Autre spécificité intéressante, une petite barre de LEDs RGB intégrée sur toute la largeur basse du châssis. Rien de nouveau a priori pour cette solution qui pourra être pilotée logiciellement dans la couleur de son choix. Ou rester éteinte si on le désire. Mais Steam va plus loin en proposant une option intéressante qui va rendre cette intégration de LEDs enfin utile. Lorsque vous lancerez le téléchargement d’un jeu, elle va remplacer la barre de progression logicielle pour signaler à l’utilisateur le temps restant avant de pouvoir lancer sa partie. Une idée simple et brillante qui colle bien avec une exploitation de salon. Avec des titres qui pèsent désormais des dizaines de gigaoctets de données, cette visibilité de l’état du téléchargement d’un jeu est tout à fait pertinente. On n’aura pas d’obligation de laisser son écran de télévision afficher cette progression pendant de longues minutes.

La Steam Machine est un PC de joueurs, pas de gamers

Le bilan que l’on peut faire de toute cette offre est assez clair. Cette Steam Machine n’est pas un monstre de performances et ne cherche d’ailleurs pas à l’être. Depuis sa sortie, j’ai lu un bon paquet de papiers qui comparaient la console à d’autres en s’évertuant de la positionner sur un niveau de performances. Qu’il s’agisse de la confronter face à des cartes graphiques classiques ou de la situer par rapport aux solutions consoles de Sony et Microsoft, c’est une erreur que de vouloir les positionner sur la même cible. C’est à mon avis un total contresens que de vouloir comparer cette Steam Machine à une solution classique. Et c’est d’autant plus étrange de faire cette erreur puisque le Steam Deck nous a déjà indiqué la voie suivie par Valve.

Lors de l’annonce du Deck, des papiers similaires avaient émergé. Des gens prédisaient un échec de la console mobile parce que pas assez puissante pour satisfaire les joueurs PC. Quelques années plus tard et des millions de consoles vendues, il est clair que cette comparaison entre ce que proposait la solution Steam Deck et les attentes de certains n’était pas très heureux. Steam connaît sur le bout des doigts les attentes de son public. C’est la plus grosse base de données du monde concernant le jeu vidéo avec des millions d’utilisateurs qui se connectent chaque jour et qui laissent au site un accès statistique à leur matériel. C’est cette réalité qui a construit la console et non pas des fantasmes technologiques décorréllés de la réalité.

D’aucuns déplorent par exemple que la console n’embarque pas plus de mémoire vidéo et reste coincée avec 8 Go de mémoire dédiée. Un détail qui va empêcher de déployer un affichage UltraHD aussi performant que possible. En pratique, si la « 4K » restera accessible, cela sera au travers d’un usage du mode FSR 3.0 d’AMD. Une solution qui permet, grâce à un algorithme, de transformer une image FullHD en UltraHD en temps réel. Cela peut paraître malheureux mais cela correspond aux attentes réelles du public. Plus de la moitié des joueurs sur Steam jouent toujours en FullHD et le reste se partage en des définitions inférieures à ce FullHD d’un côté et tout un panel de réglages intermédiaires jusqu’à l’UltraHD de l’autre. Valve répond donc à un impératif différent que la performance brute. Celui d’une adéquation entre ce que lui demande son public et ce qui est commercialement possible. Parce que rajouter de la GDDR6 pour passer à 12 ou à 16 Go comme souvent suggéré, c’est changer de braquet en terme de tarif. Avec le risque de rendre la solution invendable. Dans une position qui rendrait l’opération de mise à jour d’une carte graphique dans un PC traditionnel plus intéressante au final.

Je reste persuadé que ceux qui se plaignent d’une console incapable de lancer de l’UltraHD nativement à 60 images par seconde ne correspondent pas au public visé par Valve. Qui, parmi les possesseurs d’une carte graphique ou d’un PC capable de lancer un jeu moderne exigeant en 4K va réellement acheter cette Steam Machine ? Pas grand monde à mon avis. Les « Gamers » qui ont des ordinateurs de jeu à 2000€, 3000€ et parfois plus pour jouer, n’ont aucune raison de craquer pour cet engin. Valve ne cherche pas à les séduire, pas plus qu’il ne va essayer de convaincre un joueur ayant déjà investi dans un catalogue complet de jeux Playstation de réinvestir dans les mêmes jeux sur PC.

La Steam Machine va ramener les joueurs égarés dans le giron de Valve

La Steam Machine cherche des joueurs différents. Des joueurs plus classiques, plus occasionnels ou ceux qui ont perdu l’habitude de jouer par la force des choses. Les laissés pour compte d’un loisir devenu trop sélectif et trop inaccessible au fil des ans. Je m’amuse toujours de voir des influenceurs pester sur un engin comme cette console du haut de leur configuration de jeu à 3 ou 4000€ constituée de matériel offert à 100% par des marques et des opérations sponso. C’est facile de voir la vie sous l’angle de la performance quand un livreur vient déposer tous les quatre matins la dernière carte graphique à la mode devant sa porte. Facile de dire que tel ou tel objet n’est pas au niveau quand l’addition du prix de sa chaise, de sa souris et de son clavier offerts atteignent déjà le prix d’une console.

Mais pour un particulier lambda, la possibilité de retrouver le monde du jeu en rentrant de l’école, de la FAC ou du boulot, sans avoir à dépenser une fortune ni à s’embêter à gérer un ordinateur est un vrai point positif. La Steam Machine combine tous les avantages possibles. Elle propose une interface simple qui met l’utilisateur au centre de son écosystème. D’un point de vue logiciel comme matériel, tout est pensé pour rendre l’expérience de jeu PC au niveau d’une console classique. Mais avec un énorme avantage, un compte Steam qui va permettre dès l’achat de lancer et relancer confortablement des milliers de jeux.

Des titres que l’on a déjà faits par le passé, d’autres qu’on a achetés le jour d’une promotion en pensant qu’on aurait un peu de temps à y consacrer. Steam va proposer des jeux triés, classés, répertoriés qui vont correspondre exactement aux exigences de la console. Jeux qui vont être affichés confortablement sur un écran FullHD ou UltraHD. Les premiers tests montrent que des titres jugés comme extrêmement gourmands il y a quelques années encore s’en tirent avec tous les honneurs nécessaires. Un jeu comme Cyberpunk 2077 fonctionne entre 55 et 65 images par seconde en UltraHD upscalé par l’algorithme FSR 3.0 d’AMD depuis un signal FullHD. C’est suffisant pour la très très grande majorité des joueurs. Tous ceux qui n’ont pas eu envie de dépenser 800, 1000 ou 1500€ juste dans une carte graphique par exemple.

Des arguments séduisants.

La Steam Machine va gommer les défauts classiques du monde PC. Un travail qui a déjà débuté avec le Steam Deck et connu un grand succès. La minimachine n’imposera pas de gestion technique par exemple. Le système se mettra à jour tout seul. Valve a investi dans le développement de SteamOS sur une base Linux pour pouvoir proposer une interface simple et intuitive, pilotable à la manette. Une interface qui occulte totalement les entrailles lourdes du monde PC habituel. 

Du premier démarrage au lancement d’un jeu, seule l’étape de configuration classique de langue et de réseau sera nécessaire. Une fois votre compte Steam identifié, vous pourrez jouer immédiatement. L’énorme boulot d’optimisation et de sélection fait autour de la console mobile va ainsi porter ses fruits. Un joueur qui débarquera sur Steam Machine aura l’énorme avantage d’avoir à sa disposition un catalogue complet de titres. Mais il pourra également profiter de tout  un univers autour du jeu. Les promotions classiques de Steam, ses offres habituelles qui permettront d’agrandir sa collection à peu de frais. Les recommandations d’autres joueurs ainsi que celles de la plateforme spécifiquement liées à la console. Le confort proposé sera exemplaire avec des arguments choc face à un PC classique. Tout a été pensé pour un usage canapesque. Saisir sa manette et appuyer sur un bouton suffira à mettre la machine en marche. Son réveil sera quasi instantané. La reprise d’un jeu le sera tout autant. 

Ce sont des arguments qui mixent les offres des deux principaux concurrents de la minimachine. Le monde des consoles d’un côté avec son univers fermé, son catalogue de jeux onéreux et ses usages souvent limités. Le monde PC ensuite avec son interface complexe liée à des usages infinis. C’est la même cible que celle du Steam Deck et c’est probablement la clé de voûte de toute la stratégie de Valve.

Il est bien évident que le Steam Deck ne fera pas aussi bien que les deux autres mondes dans leurs spécialités respectives. Il ne sera peut être pas aussi performant qu’une Playsation 5, il ne sera pas aussi complet qu’un PC classique. Il ne fera certainement pas mieux qu’un PC Gaming haut de gamme évidemment. Mais il sera suffisant. Valve indique que son système devrait êtes plus performant que la majorité des PC qui utilisent Steam tout en étant capable de faire tourner son immense catalogue. Et c’est probablement seulement ça que recherche le grand public.

Il reste des inconnues dans l’équation dont deux éléments principaux dans toute commercialisation. La date précise de sa sortie et surtout le prix de cet engin n’ont pas été communiqués. Pour la première, aucune piste fiable. Valve n’a donné qu’un « 2026 » à se mettre sous la dent. Cela peut être en Janvier pour le CES 2026 ou bien plus tard dans l’année.

Pour la seconde, je pense qu’il s’agit surtout d’un contretemps. J’ai vu fleurir des estimations techniques et j’en ai également une personnelle. Mais elle est plus basée sur un positionnement stratégique que sur un prix matériel. Je ne reviendrais pas sur l’évidente position de Valve dans le marché du jeu vidéo mais chaque Steam Machine est un cheval de Troie en puissance. Un acheteur lambda fera forcément ses courses sur le magasin d’application Steam depuis sa console. Les retombées économiques d’un tel déploiement sont difficilement mesurables mais si on prend en exemple le Steam Deck et ses millions d’unités vendues, elles doivent être colossales.

Avoir des PC de jeu de ce type dans les salons c’est pousser non seulement les utilisateurs à passer par Steam pour faire ses courses mais également influencer leurs décisions d’achat pour d’autres plateformes. Céder aux sirènes d’une promotion 10% moins chère ailleurs a t’il du sens face à la facilité de retrouver son jeu aussi bien sur son PC Gaming, son portable, sa console mobile et sa console de salon ? Quel impact aura l’arrivée d’une Steam Machine dans un groupe d’amis. De la cour de récré qu’en face de la machine à café. J’ai pu sentir l’impact du Steam Deck qui a poussé de nombreuses personnes à craquer pour cette plateforme simple et complète. J’imagine des retombées du même ordre pour la machine de salon.

La raison qui fait que nous ne connaissons pas encore le prix de la Steam Machine est probablement liée au marché lui même. Je suppose que la console est déjà en cours d’assemblage et de production et que Valve connaît précisément son prix de revient aujourd’hui, sa marge et ses frais de fonctionnement et de distribution. Ce que ne connaît pas Valve, par contre, faute de boule de cristal, c’est la suite des évènements. La montée en flèche des tarifs de la mémoire vive et du stockage à cause des géants de l’IA. Et des producteurs qui ne veulent plus garantir les prix de leurs composants sur la durée en échange d’un certain volume. Cela sans compter la pression d’une concurrence toujours plus à l’affût. Il est fort possible qu’un tarif proposé en novembre 2025 ne soit finalement plus tenable en janvier 2026.

La Steam Machine a un public de joueurs tout trouvé mais ce n’est justement pas celui d’un public prêt à mettre des sommes folles dans un PC gaming. Il faut rester dans une enveloppe de prix ciblé assez précise. Il ne s’agit après tout que d’une solution de jeu aux allures de PC.

Valve annonce la Steam Machine, sa minimachine de jeu © MiniMachines.net. 2025

Comment est fabriqué le Beelink Me Mini en vidéo

14 novembre 2025 à 12:02

Ce n’est pas la première fois que Beelink ouvre ses portes à cette chaine Youtube pour réaliser un reportage sur la construction de ses machines. En juillet dernier, une vidéo similaire a été publiée. Ici, il s’agit toutefois de la construction du modèle Me Mini qui propose un fonctionnement différent.

Cette vidéo change de type de machine tout en reprenant les étapes classiques de ce type de chaîne de montage. Je ne vais pas tout commenter à nouveau comme j’avais pu le faire dans la vidéo précédente, néanmoins certains points me semblent intéressants à signaler. Le premier élément auquel je n’avais pas réfléchi concernant la fabrication de ce MiniPC particulier est la structure de son système de refroidissement. L’élément en aluminium visible juste au-dessus.

Le Beelink Me Mini est construit autour de ce morceau d’aluminium qui va jouer à la fois le rôle de dissipateur thermique mais également porter les différents composants. C’est sur lui que les SSD M.2 seront positionnés. C’est également cette pièce qui va porter le ventilateur. Pour le construire, Beelink utilise donc un morceau d’aluminium profilé.

C’est exactement la même technique que les morceaux d’aluminium qui sont extrudés d’une presse pour devenir des profilés dans lesquels on va emboiter des vitres pour construire une véranda par exemple. Le métal est produit en longs morceaux qui seront ensuite découpés à la bonne taille en longueur pour correspondre aux besoins de la marque. C’est à la fois simple et efficace, bien plus malin que de partir d’un bloc d’aluminium massif et de tailler dedans pendant de longues minutes en enlevant énormément de matière avec une CNC.

La première étape de la vidéo du Beelink Me Mini ne fera pourtant pas l’économie d’un ajustement à la fraise pour enlever des éléments que cette technique d’extrusion ne peut pas gérer. Mais au lieu de coincer chaque bloc de métal durant de très longues minutes et récupérer des tonnes de copeaux de métal, la machine va pouvoir travailler rapidement sur quatre blocs à la fois. L’idée est d’enlever un peu de la partie centrale du boitier afin de l’ajuster en hauteur.

Le tube cylindrique qui constitue le cœur du bloc va en effet venir coiffer le processeur embarqué dans l’engin,. Il faut qu’il soit taillé à une hauteur exacte, plus courte que le reste de la machine puisque le cadre du bloc sert quand à lui en entourer la carte mère. C’est également là que seront percés les trous qui permettront de recevoir les vis de montage.

Plusieurs étapes sont donc nécessaires pour mettre en forme le bloc du Beelink Me Mini. Découpages, perçage et ajustage dans un rythme rapide à partir d’un bloc de base. Le résultat est une meilleure cadence de production et probablement un rendement plus économique.

Après quelques étapes de finition, le  bloc est prêt pour passer à l’étape suivante qui consiste à insérer dans le corps en aluminium des entretoises filetées en acier plus solides qui vont permettre un montage et un démontage plus facile de l’engin.

Cette étape évite de devoir visser dans de l’aluminium qui est bien moins résistant. Le choix de l’aluminium s’explique pour ses caractéristiques de transmission de chaleur qui sont bien meilleures que celui de l’acier mais aussi par son poids qui sera bien moins élevé. Positionner un bloc de cette taille sur une carte mère exercerait bien trop de contraintes mécaniques. Mais l’aluminium est beaucoup moins solide que l’acier et un filetage dans ce métal serait très facilement altéré à l’usage. Pas d’autres choix donc que de lui ajouter ces éléments si on veut un engin solide. 

Les étapes suivantes sont destinées à rendre le métal stable et faire en sorte qu’il ne s’oxyde pas grâce à des processus chimiques assez classiques d’anodisation. C’est cette étape qui va transformer l’aluminium brut en une surface noire et stable.

Il reste quelques étapes de préparation technique comme le nettoyage de certaines parties du dissipateur au laser et au passage le marquage des emplacements des SSD.

Un retour à l’usinage pour un dernier ajustement de la hauteur du bloc central. Il faut atteindre la dimension précise nécessaire à la hauteur du processeur mais également débarrasser cette zone de son anodisation pour que la transmission thermique soit parfaite. Au passage, on note que les inserts en acier n’ont pas été affectés par l’anodisation chimique de l’aluminium et restent donc nus. Le bloc est maintenant fin prêt pour partir vers l’usine d’assemblage électronique.

Je ne reviens pas sur la partie assemblage des composants. C’est la même série d’étapes que pour le précédent modèle. Des robots viennent appliquer un flux de soudure sur la carte mère nue, puis d’autres positionnent les différents composants sur leurs emplacements. Une longue chaine robotisée est mis en place et les cartes se construisent étape par étape.

Quelques interventions humaines sont visibles pour placer des composants spécifiques, souvent des connecteurs, et les cartes poursuivent leur chemin.

Une fois toute la carte mère du Me Mini parfaitement équipée, étape validée par une caméra qui analyse la visibilité de tous les composants en quelques secondes, elle est envoyée dans un four de cuisson. La température va faire fondre le flux de soudure et ainsi connecter les composants aux différentes pistes des circuits.

La carte mère est fin prête pour l’étape suivante… qui consiste à lui ajouter un composant Un petit buzzer semble-t-il. Amusant que ce ne soit pas fait à la chaine en amont. On voit l’espace libre dans la photo ci-dessus, à gauche du processeur. Un emplacement rond vide avec le logo d’un haut-parleur et deux trous pour venir y souder le petit élément. En bas à droite, un autre espace est vide. Il s’agit d’un emplacement de stockage eMMC, le Beelink Me Mini peut en effet être livré avec ou sans ce module de 64 Go.

Quant à savoir pourquoi cela n’est pas fait en amont ? Mon petit doigt me dit que le matériau qui constitue la membrane du haut-parleur n’est pas compatible avec une cuisson au four. Il est donc nécessaire de le souder à la main. S’ensuivent des point de contrôle classiques. L’ajout de la pile du BIOS et les premiers tests globaux de la machine. Mise à jour : Nicolas me précise qu’il s’agit probablement là d’une manipulation rendue nécessaire du fait d’un choix d’un composant traversant probablement simplement plus économique pour la marque. C’est peut être lié à des coûts à la pièce ou pour des raisons de mutilplication de ce même composant dans plusieurs designs.

Des SSD et une carte Wi-Fi sont mis en place, des câbles sont connectés, de manière à vérifier que la carte démarre et détecte correctement tous les ports de l’engin avant de poursuivre le montage. Cette étape est validée en scannant des QR Code qui vont assurer la traçabilité de la carte du Beelink Me Mini sur la chaîne. En cas de panne entre ce test et le suivant, il sera ainsi possible de déterminer ce qui a posé un problème.

L'intel N150 surle  Beelink Me Mini

Cette étape permet également de fixer les composants les plus couteux comme le processeur ou les module de mémoire vive par exemple. En cas de défaillance de la carte, il est encore possible de la repasser au four et d’extraire une puce problématique pour retrouver une solution fonctionnelle. Après cette étape, cela sera bien plus compliqué. Un liseré de colle est donc appliqué automatiquement autour des composants à souder et la carte est ensuite envoyée sous une lampe à UV qui va la polymériser immédiatement.

Les étapes suivantes sont classiques : Nettoyage des composants, étiquetage de la carte, emballage et direction vers un autre étage du complexe qui va assurer le montage global de l’engin. On retrouve encore une fois les longs tapis qui défilent devant des ouvriers qui vont assurer chacun une tâche. Vérification des composants, pose de petites mousses pour protéger les composants, pose très délicate d’un pad thermique autour du processeur et mise en place de la structure de fixation de la carte mère au corps en aluminium.

Vient ensuite un élément moins habituel et qui correspond au cahier des charges de la marque. Depuis 2023 le constructeur cherche a intégrer au maximum les alimentations de ses MiniPC dans leur châssis. Le Beelink Me Mini embarque donc un bloc interne. Une solution poarfaitement ajustée à ses besoins qui vient se connecter à la carte mère. Cela permet d’alimenter directement la minimachine avec un câble secteur bipolaire sans passer par un bloc externe.

D’autres entretoises sont ajoutées directement dans l’aluminium. Celles qui vont porter les vis des emplacements de SSD par exemple. Elles subiront beaucoup moins de contraintes physiques que celles du bloc central.

Vient l’étape de fixation de la carte mère au bloc d’aluminium. Chaque carte est positionnée contre le bloc qui a reçu l’application d’un petit peu de pâte thermique. Quatre vis sont posées pour maintenir toute la carte contre les entretoises d’acier et le processeur contre le bloc central.

L’étape suivante consiste à positionner l’alimentation dans le corps en aluminium. Elle est enfermée dans une protection qui va assurer l’isolation électrique du bloc et ainsi éviter tout court-circuit tout en profitant de la conduction thermique du métal. De petits pads sont positionnés pour que le bloc, protégé par une plaque métallique, assure un bon refroidissement passif.

Vient la mise en place du ventilateur au-dessus de l’engin et la mise en place de différents éléments importants. De petites mousses isolantes sont positionnées à des endroits stratégiques pour pouvoir y coller la pile du BIOS.

 Beelink Me Mini

Les deux antennes Wi-Fi du Beelink Me Mini sont également positionnées sur ces éléments. L’idée et de les séparer du corps métallique qui va donc monter en température, mais aussi, pour les antennes, de ne pas les coller à ce métal pour éviter les problèmes de connexion. Vient ensuite la mise en place de la carte Wi-Fi et la connexion des antennes.

 Beelink Me Mini

Dernières étapes de la construction de cette minimachine, le boitier du Beelink Me Mini commence a être assemblé. D’abord la base qui est vissée, des pads de transmission thermique sont mis en place, le SSD d’origine sur lequel a été installé le système est positionné et un contrôle global est effectué. On vérifie à nouveau que tout est fonctionnel : connexion sans fil, débits, ventilation etc.

Une étape importante est visible à 19 minutes. C’est la validation de sortie de la machine en tant que PC complet. C’est cette étape qui va établir la correspondance de licence de Windows 11 et lancer l’enregistrement de l’engin dans les archives de la marque. Le boitier est ensuite finalisé et monté autour du bloc. 

Une dernière phase de test et de validation est effectuée avec des dizaines de minimachines disposées en batterie pour s’assurer qu’elles fonctionnent pendant un certain temps en condition de test réel. Un processus que l’on avait déjà vu lors de la précédente video sur la construction des engins de la marque. Les dernières étapes sont cosmétiques avec le nettoyage du châssis de toutes éventuelles traces de manipulation et l’emballage de l’engin. En bout de chaine, les MiniPC sont pesés pour vérifier que rien ne manque dans leur emballage : documentation, câbles etc. Et les boites sont thermo-scéllées avant d’être empaquetées pour l’expédition.

Encore une fois Beelink montre ici un assemblage de haute qualité dans une usine qui n’a rien a envier aux grandes marques du secteur. On ote que l’ensemble des composants sont haut de gamme avec des SSDs signés Corsair. Les machines employées sont modernes et les conditions de travail semblent très correctes. Les ifférentes étapes de validation et de vérification assurent que la marque cherche a proposer des engins de qualité.

Le Beelink Me Mini apparait dans une nouvelle version

Actuellement le Beelink Me Mini est toujours victime de son succès. Depuis plusieurs semaines, l’engin est en rupture sur le site du fabricant. La marque promet une livraison sous « 35 jours » et liste la version 12 Go de mémoire vive LPDDR5 et 64 Go de eMMC à partir de 229$ depuis un stock Européen. Un prix très interessant puisque cela nous donne quelque chose comme 200€ TTC une fois les devises échangées par Paypal. Ce modèle est garanti une année par Beelink.

La minimachine est par contre en stock sur Amazon où elle est proposée dans deux versions distinctes. Une classique et une qui est passée sous mon radar : Le Beelink Me Mini sous Intel N150 avec 16Go de LPDDR5 et 1 To de SSD est ainsi proposée à 389€ au lieu de 449€ en cochant une petite case. Elle est ici garantie 2 ans avec un retour vers Amazon

Enfin, petite nouveauté, Amazon liste également une version nouvelle de cet engin. Le processeur Intel Twin Lake N150 est remplacé par un plus ancien Intel Alder Lake N95 qui est vendu à 409€ avec une case à cocher qui le bascule à 349€. Cette fois-ci il n’a plus que 12 Go de mémoire vive et toujours un SSD de 1 To. 

Est-ce qu’une absence de puce Intel N150 est la raison de la rupture des Beelink Me Mini actuellement ? C’est possible qu’un « trou d’air » dans l’approvisionnement de ces puces ait eu lieu. La différence de prix entre les N95 et les N150 est vraiment minime et il parait étrange que Beelink soit retourné en arrière. Le site officiel de la marque ne liste pas non plus cette version de la minimachine. Il est donc possible que cette puce soit là pour permettre de contiuer a produire les engins en attendant le retour de plus de stock. Une fabrication temporaire pour éviter de stocker inutilement les éléments visibles dans la vidéo.

Comment sont fabriqués les MiniPC Beelink en vidéo

Comment est fabriqué le Beelink Me Mini en vidéo © MiniMachines.net. 2025

Le récap du Stunfest 2025 : Lifelong, CARIMARA, Trigger of Time & DeadCore Redux

Par :Estyaah
7 novembre 2025 à 18:08

Du 24 au 26 octobre dernier, s’est déroulé le Stunfest, le festival des cultures du jeu vidéo à Rennes. C’était son grand retour sous une nouvelle forme, après un an d’absence et un trou béant dans le portefeuille. Désormais organisé en collèges gérés par les adhérents à l’association 3HitCombo, le festival a été le reflet des envies de ses membres : pas de programmation imposée par une quelconque direction, seulement des projets portés par les bénévoles. C’est dans ce cadre que NoFrag est intervenu, puisque je me suis joint à l’aventure en tant que référent du collège Conférences. Mais on ne va pas s’étendre sur le programme complet du Stunfest, on va se focaliser sur notre expérience pendant le week-end. Tout ce qu’on peut dire, c’est que la nouvelle formule a semblé bien plaire à tout le monde.

Le NoScope du Stunfest

Dès le vendredi, plusieurs membres de la rédaction ont été mis à contribution, puisque nous enregistrions pour la première fois un NoScope en chair, en os et en public ! Petit raté cependant, ça s’est déroulé au 360, et on n’a même pas pensé à faire la blague du 360 NoScope… Outre Stuka, MathMoite et moi-même (Estyaah), on a accueilli deux développeurs, Bastien de Bastinus Rex pour CARIMARA: Beneath the forlorn limbs et Antoine de 5 Bits Games pour DeadCore Redux, qu’on a pu longuement interviewer sur leur parcours, leurs inspirations et plein d’autres trucs. Même si le setup était exceptionnel, on n’a pas oublié le quiz. Par contre, que ce soit en ligne ou pas, c’est toujours le même qui gagne : quelques vieux membres de la communauté étaient dans le public pour répondre à nos questions pointues sur les FPS indépendants. On a tout de même terminé avec quelques petites news, histoire d’avoir un semblant de cohérence avec le nom de l’émission. C’était franchement sympa et ça nous a donné envie de nous retrouver plus souvent pour faire des émissions « pour de vrai ».

L’émission est également disponible en version podcast sur Soundcloud, mais aussi sur SpotifyDeezerAnchor.fmPocket CastsPodchaser ou PlayerFM.

Les devs indé

On ne va pas vous mentir, ce qui nous a le plus intéressé au Stunfest, c’est la Zone Indé. Pilotée par l’association Indie Collective, elle accueillait un peu plus d’une trentaine de studios indépendants, dont certains composés d’un unique membre. On va se focaliser ici sur les expériences en vue subjective, mais il y avait évidemment plein d’autres choses plus ou moins originales, comme Cthuloot, co-développé par un membre du forum NoFrag. Le samedi, on s’est baladés entre les badauds pour faire de petites interviews impromptues. Bon, ce n’était pas très préparé et on a eu quelques coupures réseau, ce qui fait que certains passages ont malheureusement sauté. Ce qui reste nous semble néanmoins intéressant, alors le voici :

L’interview est également disponible en version podcast sur Soundcloud, mais aussi sur SpotifyDeezerAnchor.fmPocket CastsPodchaser ou PlayerFM.

C’est bien beau, tout ça, mais ça ne parle pas tant que ça des jeux en eux-mêmes. Heureusement, on a pensé à vous, voici un peu plus de détails sur ce qu’on a pu voir pendant le week-end :

Stunfest award FR Prix du Jury Noir

Lifelong

Genre : Puzzle game narratif

Promis, NoFrag n’a pas versé de pots-de-vin au jury pour élire un jeu en vue subjective, ils l’ont choisi eux-mêmes ! On avait déjà parlé de Lifelong lors des deux derniers AG French Direct. C’est un puzzle game narratif en noir et blanc avec des touches d’humour, dans lequel on incarne un employé d’une entreprise tyrannique et bureaucratique. La mécanique de gameplay qui le fait sortir du lot est la possibilité de se transférer dans le corps d’autres employés avec l’aide d’une télécommande, et ainsi de progresser dans l’aventure. Au passage, la direction artistique est assez particulière : les personnages possèdent une télévision à la place de la tête, et le rendu même du jeu se fait comme si on regardait au travers d’une vieille TV. Le gameplay propose un peu de plateforme et de gestion de la physique, des aspects clairement inspirés d’Half-Life. Le développeur nous a aussi indiqué, lors de son interview, s’être inspiré de Prey (2006) et de Prey (2017). Si les énigmes de la démo montrée (et toujours disponible sur Steam) ne sont pas trop compliquées, le procédé de « téléportation » de conscience pour les résoudre est vraiment sympa. D’autre part, on sent qu’une attention particulière a été apportée à la narration, et en plus, c’est drôle. Pour l’instant, aucune date de sortie n’a encore été communiquée, mais il ne faut sans doute pas compter sur une sortie dès 2026 : il reste a priori pas mal de boulot aux deux développeurs du studio pour atteindre leur objectif.

Lifelong sur NoFrag // Steam // Date de sortie : inconnue

Stunfest award FR Mention speciale du Jury Noir

CARIMARA: Beneath the forlorn limbs

Genre : Enquête

CARIMARA: Beneath the forlorn limbs, ou CARIMARA : Murmures de Ramures Ensevelies en français, est notre petit préféré du festival. On l’avait déjà repéré en mai dernier lors de son annonce, grâce à sa direction artistique inspirée de l’ère PSOne et son ambiance si particulière. Depuis, le jeu est sorti et on a pu l’essayer. Et c’est vraiment top. Les visuels sont chouettes, les animations sont très réussies – notamment les expressions faciales –, la narration est très bonne, et le doublage, excellent. On incarne un carimara – sorte de gobelin sorcier –, appelé par une femme inquiétante afin de la libérer d’un fantôme qui hante sa cave. L’objectif est d’explorer les lieux pour trouver des cartes, qui sont autant de sujets à aborder avec les personnages. On pourra alors tenter de déduire le déroulé des événements qui permettront de résoudre notre petite enquête. On retiendra en particulier la chouette, qui est particulièrement comique. Malheureusement, la durée du jeu n’excède pas une heure avant d’atteindre les crédits. Alors oui, il y a des secrets à chercher pour prolonger l’aventure, mais on aurait aimé un peu plus de contenu. CARIMARA reste néanmoins une superbe expérience qu’il serait dommage de rater. Le jury du Stunfest a aussi été touché par la proposition, puisqu’ils l’ont choisi pour leur mention spéciale.

CARIMARA: Beneath the forlorn limbs sur NoFrag // Steam // Disponible depuis le 06/10/2025 pour 5 €

Trigger of Time

Genre : Puzzle game platformer

On l’avait testé en juin dernier, et voici ce qu’on en disait : « Trigger of Time est le premier jeu d’un développeur presque solo, mais il est déjà très impressionnant : la direction artistique est franchement réussie, le level design est chouette, les mouvements sont agréables et la mécanique de gameplay est originale. La manipulation temporelle fonctionne vraiment bien, et les puzzles, bien qu’accessibles, sont plutôt malins. Une expérience que j’ai énormément appréciée, et que j’aurais aimé prolonger après les deux heures proposées. Le jeu est donc un peu trop court, mais il laisse augurer du meilleur si les prochains projets de Pantopie maintiennent ce niveau de qualité. » On n’a pas forcément beaucoup plus de choses à dire après le Stunfest : testez-le, il est très bien.

Trigger of Time sur NoFrag // Steam // Disponible depuis le 06/06/2025 pour moins de 10 €.

DeadCore Redux

Genre : FPS platformer

Les plus anciens se souviendront sûrement de DeadCore, un FPS plateformer futuriste avec un gros penchant pour le speedrun, sorti en 2014. La rédac de l’époque l’avait bien apprécié, et de l’aveu de l’un des développeurs, le jeu avait plutôt cartonné. Onze ans après, l’équipe de 5 Bits Games s’est reformée pour réaliser DeadCore Redux, le remaster. Au programme : une refonte sonore et graphique, un système de classement, ainsi qu’un nouveau niveau. Encore une preuve que NoFrag, c’était mieux avant, aucun de nous n’avait testé la version originale avant de lancer la démo – toujours disponible. Mais c’est avec un certain plaisir qu’on l’a parcourue. Les mouvements sont très agréables, notamment grâce à une grande fluidité, un double-saut, un dash et un bon air control. La partie shoot est logiquement en retrait, mais elle permet d’ouvrir des passages ou de désactiver des tourelles qui nous font tomber avec leurs projectiles. En bref, c’est nerveux et ça demande du skill, et on a toujours envie de faire un peu mieux que la dernière fois.

DeadCore Redux sur NoFrag // Steam // Date de sortie : premier trimestre 2026

Iridescent

Genre : Walking sim

Iridescent est un projet un peu à part, puisqu’il n’est pas disponible sur Steam. Il s’agit d’une expérience développée par des étudiants de l’ENJMIN à Angoulême en quelques mois. Elle propose des éléments de gameplay inspirés de Superliminal ou Viewfinder, mais sans réelle difficulté. Le but est plutôt de faire ressentir des émotions, sur des thèmes autour de la mémoire, la perte et l’acceptation. La musique, composée et jouée par l’un des membres de l’équipe, est très chouette. Vous pouvez essayer Iridescent en le téléchargeant sur Itch.io, ça ne dure pas plus de 15 minutes.

Iridescent sur Itch.io // Disponible gratuitement


Et voilà pour le Stunfest 2025 ! On est très contents d’avoir pu échanger avec des développeurs, notamment de jeux en vue subjective et le NoScope en public était vraiment cool. Ces expériences nous ont donné des idées pour une prochaine édition, ou peut-être d’autres choses entre-temps. Au vu de la réception du festival, tout le monde semble motivé pour en refaire un en 2026. Si ça vous intéresse, vous pouvez retrouver l’association 3HitCombo sur son site Internet. En plus de l’organisation du Stunfest, les adhérents proposent des activités tout au long de l’année. Si pour l’instant, en dehors du speedrun, il n’y a quasiment que des choses avec des boutons et des sticks, il ne tient qu’aux bonnes volontés de monter un club fast-FPS !

Une hausse de 170% du prix de la mémoire DDR en 2025

4 novembre 2025 à 09:19

Le prix de la mémoire n’en finit pas de monter et les constructeurs tirent la sonnette d’alarme. On l’a vu à plusieurs reprises déjà, le tarif des composants des modules DDR4 et DDR5 avait enflé de manière importante. Contraignant plusieurs constructeurs à réagir. D’abord Raspberry Pi puis GMKtec et plus récemment Minisforum.

Sur le marché global, le prix de la mémoire qui grimpe fait tirer la langue à tout le monde. Si les grandes marques ont plus de marges de manœuvres et de meilleurs contrats pour lutter contre cette hausse, elle reste problématique. Une marque internationale comme Dell, Lenovo ou HP, négocie ses tarifs mémoire à l’année, cela l’empêche de profiter au mieux de certaines baisses, mais évite également de subir des flambées tarifaires. Ce type de contrat n’est ouvert qu’aux acteurs majeurs de l’industrie et les petites marques ne peuvent pas en profiter. 

Pour que ce type de contrat existe, il faut que les fabricants de mémoire vive, les fameuses barrettes de DDR5 par exemple, aient eux-mêmes des contrats avec les fabricants de modules mémoire. Et c’est là que la situation se complique. Samsung aurait d’ores et déjà arrêté tout contrat de ce type avec ses clients. Impossible pour le moment de négocier un tarif avec la marque qui est un très grand fabricant mondial de ces composants. Impossible donc de planifier une production stable à un prix moyen, impossible de répercuter cette moyenne pour signer un contrat avec une marque de portables par exemple.

Le problème de cette situation est qu’elle amène à un certain chaos. Si les marques ne savent plus prévoir leurs prix au plus juste, si elles doivent compter avec une mémoire hyper volatile, alors elles ont tendance à amplifier la hausse pour définir leur prix public. Rajouter de la marge sur le tarif pour permettre d’anticiper une éventuelle montée des prix. Quitte à faire de promotions temporaires si cela baisse.

Une hausse de 170% du prix de la mémoire DDR en 2025

Et la situation pourrait devenir encore plus chaotique encore. Si Samsung poursuit dans cette logique de fin de contrat du prix de la mémoire, c’est qu’il s’apprête à vendre ses composants au plus offrant. C’est ce que souhaitent les entreprises de la tech qui font flamber les prix. En ce moment, la pression vient d’entreprises qui cherchent à monter des super serveurs dédiés à l’IA. Serveurs qui ont des besoins colossaux en termes de stockage, de mémoire, de composants variés et même d’énergie. Ce sont eux qui font grimper les prix. Jusqu’à présent, ces fameux contrats entre les marques de DDR et les fournisseurs de composants avaient permis de limiter la hausse à « seulement » 172%.

Ces fameux contrats étant pour toute la chaîne alimentaire du marché une certaine assurance de volume et donc de stabilité. Leur disparition va pousser les enchères toujours plus loin et Samsung, comme tous les autres, va chercher à vendre chaque module à la hausse. Comme les armes financières des acheteurs des entreprises liées à l’IA ont le double avantage d’être d’une puissance quasi sans limites d’une part. Et surtout sans aucun besoin de rentabilité à court terme d’autre part. Ils pourront proposer le double ou le triple de ce que des fabricants d’ordinateurs pourront avancer de leur côté. Car si une hausse du prix de la mémoire sera invisible dans un serveur d’IA. Elle sera évidemment sanctionnée par l’acheteur d’un smartphone, d’un portable ou d’un MiniPC. Personne ne va comprendre pourquoi le produit de 2026 coutera 10, 15 ou 20% plus cher à performances et composants identiques que celui de 2025.

Évidemment, je ne parle pas de l’impact de cette situation sur le prix des composants directs. Dernière roue du carrosse et marché le moins protégé de l’équation. Une marque qui distribue des composants mémoire en magasin pour que les clients finaux puissent mettre à jour ou composer leurs PC aura deux choix. Soit, il s’agit d’une marque comme Samsung qui distribue sa propre mémoire en l’intégrant dans ses barrettes. Et là, il sera directement plus rentable de cesser ou diminuer cette activité pour vendre les composants aux plus offrant en amont de la chaîne au lieu de les distribuer à des revendeurs. Soit c’est une marque d’assemblage de composants tiers qui va prendre de plein fouet la crise. Le tarif des barrettes  de DDR4 et DDR5 en magasin a déjà fait un énorme bond depuis le début de l’année, et cela ne devrait pas tarder. Des marques comme Corsair ou Adata ont largement augmenté leurs tarifs ces derniers mois. Depuis la rentrée scolaire, certains composants mémoire ont pris 20, 30 ou 40% de hausse de tarif.

Tout cela ne devrait pas se calmer, l’ogre IA est là et, semble-t-il, encore pour longtemps. Il y a peu, Satya Nadella le PDG de Microsoft, expliquait que la société n’avait pas assez d’énergie pour pouvoir brancher tous les composants qu’ils avaient achetés. Que ce manque d’infrastructure énergétique empêchait la société de croitre au rythme qu’ils espéraient. La croissance des Datas Center liés à l’IA a déjà fait augmenter le prix de l’énergie aux US. Des bâtiments entiers sont encore à équiper de composants et les plans des divers acteurs de ce marché prévoient une augmentation encore plus grande de leurs possibilités de traitement d’IA pour les années à venir. De là à planifier qu’ils vont absorber à coup de milliards la majorité des capacités de productions du marché PC, il n’y a pas franchement besoin d’être un génie. Tant que le maitre mot de leur stratégie sera une augmentation de leur puissance de calcul, le marché PC souffrira de ces hausses. Et la mémoire vive pourrait rapidement ne plus être la seule à en souffrir : processeurs et stockage pourraient à leur tour être affectés. Ainsi que tous les appareils embarquant une forme ou une autre de mémoire vive : de la carte graphique à la carte de développement.

Une hausse de 170% du prix de la mémoire DDR en 2025 © MiniMachines.net. 2025

Tuto : Réinstaller Windows à la réception de votre PC

18 octobre 2025 à 13:56

Est-ce que je dois réinstaller Windows sur le PC que je viens de recevoir ? C’est une question qui revient sans cesse en commentaire et pour cause. Certains doutent encore de la qualité des systèmes préinstallés par les constructeurs. Surtout sur le marché MiniPC « noname ».

J’ai déjà répondu par le passé à cette question à de multiples reprises et j’ai même déjà fait un tuto. Un guide que je vais reprendre ici en grande partie, car il a été publié une première fois lors d’un épisode très circonstanciel, celui d’une affaire de MiniPC livré avec des virus. Avec un nouveau titre plus explicite, ce guide pourra sans doute être retrouvé plus facilement en ligne.

Doit-on réinstaller Windows à réception de son PC ?

On peut se poser la question, le constructeur qui livre votre système sait, à priori, ce qu’il fait et on ne voit pas forcément pourquoi une réinstallation serait utile. Répondre à cette question est donc lié au type de machine que vous recevez et, dans la majorité des cas, je dirais qu’une réinstallation est une opération facile et positive.

  • Vous avez un ordinateur neuf issu d’un fabricant de renom ? C’est peut-être une bonne idée de réinstaller Windows au propre pour le débarrasser des bloatwares qui sont embarqués avec lui. Chez HP ou Lenovo, chez Acer ou Asus, des tonnes de logiciels sont parfois livrés en plus de ceux nécessaires au fonctionnement de votre ordinateur. Des « aides » contextuelles qui viennent popper sur votre écran sans arrêt. Des services d’identification, de télémétrie, des outils pensés pour vous simplifier la tâche lors de la mise à jour de… ces mêmes outils censés vous simplifier la tâche. Et cela sans parler de toute la galaxie de trucs glissés en douce comme un AntiVirus, une pub pour un service en ligne, un réseau social ou tout cela à la fois. Sur une machine de marque, une réinstallation brute suivie d’un tour sur la page technique du fabricant pour récupérer des outils qui vous intéressent et vous serez bons.
  • Vous avez un ordinateur noname avec une licence de Windows ? La raison est différente, mais l’objectif est le même. La source étant moins fiable, de nombreux utilisateurs ont peur que le système soit livré avec un virus ou une application malveillante. Pour résoudre ce problème, le mieux est donc de récupérer un système Windows directement auprès de Microsoft.
  • Attention, si votre système est lié à une organisation, une école ou un employeur, il est fortement déconseillé de réinstaller votre système. Ce n’est pas forcément à vous de le faire d’une part mais surtout des éléments techniques peuvent avoir été intégrés à votre machine pour l’authentifier ou lui permettre de fonctionner correctement. Contactez donc la personne en charge de votre service technique.

Première étape, vérifier votre licence Windows

Sur les machines de grande marque, cela va de soi. Mais sur certains modèles il arrive encore que l’on reçoive non pas un Windows actif, mais plutôt une version préinstallée sans activation. Autrement dit, une licence de « démo » de Windows à activer. Pour vérifier que votre Windows est bien actif, c’est assez simple. Appuyez sur la touche Windows de votre clavier et pianotez « activation ».

Un menu identique sous Windows 10 ou 11 vous précisera que votre machine est bien activée. Il vous faut maintenant récupérer la clé du système.

Vous n’en aurez probablement pas besoin au final, mais il vaut mieux ne pas prendre de risques. Dans 99% des cas aujourd’hui, les ordinateurs vendus avec un Windows actif ont une licence « tatouée » dans leur système. C’est-à-dire parfaitement intégrée à leur matériel. Lors de l’installation, celle-ci sera reconnue d’office et votre système validera donc votre licence. Cette facilité s’explique par la volonté de Microsoft de ne pas permettre aux licences de ce type d’être exploitées sur d’autres matériels. Elles ne fonctionneront que pour une machine particulière et ne pourront pas être transférées à d’autres.

Seconde étape : récupérer sa clé Windows

Pour récupérer votre clé Windows avant la réinstallation, nous allons utiliser un logiciel spécialisé : ShowKeyPlus.

Lancez votre ordinateur et une fois la machine démarrée, téléchargez ShowKeyPlus. Vous pourrez le trouver sur Github directement chez son développeur ainsi que sur le Microsoft Store. Je vous décourage absolument de le télécharger ailleurs. Il existe plein de sites miroirs qui permettent de récupérer le logiciel mais je ne leur fais pas confiance. Comme ShowKeyPlus est OpenSource, n’importe qui peut le rerpendre et modifier son code pour qu’il récupère des données et les transmette ou qu’il infecte votre machine. Les sources officielles sont garanties et ne devraient donc pas poser de souci.

Une fois téléchargé, décompressez le logiciel dans un répertoire et lancez la version qui vous convient. La version « x86 » si votre processeur est un x86, la version « x64 » si votre processeur est un x64… Si vous ne savez pas, lancez la version x86, elle marchera dans les deux cas. Il n’y a rien à installer, juste à valider le lancement de l’application.

Vous aurez alors cette fenêtre qui s’affichera à l’écran. Avec le nom de votre système d’exploitation, sa version, son « identifiant produit » et la clé utilisée. Cette clé est présentée sous la forme d’un ensemble de cinq groupes de cinq chiffres et lettres. C’est cette clé qui servira lors d’une éventuelle réinstallation.Vous pouvez noter ces information, photographier votre écran ou les sauvegarder avec le bouton « Save » dans un fichier texte. N’oubliez pas que pour la réinstallation, si vous n’avez pas d’autre ordinateur sous la main, alors vous ne pourrez pas forcément acceder à ce fichier texte. Une photo de l’écran cela à l’air idiot mais c’est parfois plus pratique. Attention à bien penser de ne pas partager cette photo ou à l’effacer ensuite.

Notez bien que la clé Windows peut être OEM, c’est la dernière ligne de l’écran mis en évidence en jaune. Si votre clé est OEM alors le système ne la demandera pas pour réinstaller Windows puisqu’elle sera directement intégrée dans le BIOS de votre machine. Vous pouvez tout de même sauvegarder cette information « au cas où ».

 

Troisième étape, préparer ses pilotes

Encore une fois, la situation peut être différente suivant les marques. Les modèles signés par des grandes marques disposent en général de listes de pilotes établies que l’on pourra récupérer sans problème en quelques clics. Il peut être utile de les récupérer avant de réinstaller Windows et de les charger sur une clé USB ou un disque externe. Histoire d’avoir tout sous la main. Windows devrait normalement se dépatouiller sans trop de problèmes pour identifier le matériel de votre PC à partir du moment où vous lui laissez un accès à internet. Mais il peut arriver que l’on tombe sur un pilote exotique, auquel cas le recours à une sauvegarde des pilotes avant de lancer les opérations peut être une bonne chose.

Commencez par lancer le gestionnaire de fichier (Touche Windows + E) et examinez votre stockage pour repérer la future destination de vos pilotes. Cela ne doit pas être le stockage de base de votre machine, mais plutôt une clé USB ou un disque externe. Créez un répertoire sur ce stockage avec un nom explicite comme « pilotes ». Notez mentalement la lettre de votre unité de stockage. Ici, j’ai créé un répertoire « pilotes » dans « F: » qui est un disque externe en USB. Attention, vous aurez peut-être besoin de pas mal d’espace suivant votre matériel. Prévoyez au moins 4 Go de libre.


Encore une fois, on va lancer une ligne de commande, mais il faudra cette fois-ci bénéficier des privilèges d’administrateur pour effectuer l’opération. Appuyez encore une fois sur la touche Windows de votre clavier. Pianotez ensuite « commande » et repérez l’option « Exécuter en tant qu’administrateur ». Cliquez dessus et validez la fenêtre de confirmation suivante.

Une fois à l’invite, pianotez ou copiez-collez la phrase suivante : Dism /online /export-driver /destination:F:\pilotes

« F:\pilotes » sera contextuel par rapport à votre situation. C’est par exemple le chemin vers votre clé USB ou un stockage secondaire. Dans mon exemple, mon stockage externe « F: » contiendra le répertoire « pilotes » que je viens de créer.

Appuyez sur Entrée et patientez pendant que le système extrait l’ensemble des pilotes de votre machine. Cela peut prendre un peu de temps suivant la vitesse de votre solution de sauvegarde et votre système. À la fin, un message indiquant que « l’opération a réussi » devrait s’afficher.

Quatrième étape : Création du support d’installation de Windows

 

Il ne vous reste plus qu’à préparer une seconde clé USB avec l’image de Windows installée dessus. Attention, cela ne doit pas être le même stockage que celui des pilotes, toute la clé va être effacée pour la préparer à l’installation. Il en faut donc une seconde.
On va coimmencer par installer un outil Microsoft pour préparer la clé : pour Windows 10, il faut aller sur cette page et pour Windows 11 sur celle-ci. Vous choisirez « Création d’un support d’installation de Windows » et cliquerez sur « télécharger ».  Un programme est alors téléchargé, il pèse moins de 10 Mo.

Insérez ensuite votre clé USB vierge4 de 8 Go ou plus pour pouvoir commencer l’opération. Attention, il sera nécessaire d’avoir un PC connecté pour cette opération. Insérez la clé USB dans votre port USB et lancez l’utilitaire tout juste téléchargé. Il vous demandera au préalable d’accepter le contrat de licence.

Il vous demandera ensuite de choisir votre langue et votre édition. Pensez à décocher la case « utilisez les options recommandées pour ce PC » si vous n’effectuez pas la préparation de la clé depuis le MiniPC d’origine. Sinon, au contraire, laissez la cochée. Cliquez ensuite sur le bouton « suivant ».

Sélectionnez « Disque mémoire flash USB » pour utiliser votre clé USB. Cliquez sur « Suivant ».

Choisissez la clé USB sur votre machine (vérifiez bien d’avoir sélectionné le bon lecteur pour éviter tout accident, vous pouvez utiliser l’explorateur de fichier pour cela.). Cliquez sur « Suivant ».

L’opération débute et l’outil télécharge l’image du système pour votre clé tout en préparant celle-ci pour permettre à votre machine de démarrer dessus. Pendant ce temps là, vous pouvez chercher comment ouvrir le BIOS de la machine que vous voulez réinstaller. En général une recherche avec la référence de votre machine et les mots « bios key » donnent de bons résultats. Une fois cette touche identifiée (F1, F2, F10, F11, F12 ou Echap sont communément employés mais également encore parfois la touche « Suppr ») vous devriez pouvoir passer à la suite.

Cinquième étape : on lance la réinstallation Windows

Quand l’utilitaire Microsoft aura terminé de préparer la clé, vous pouvez commencez par regarder son nom dans le gestionnaire de fichiers. Vous pourrez ensuite l’insérer dans la machine à réinstaller, éteindre celle-ci et la rallumer. Vous allez essayer la touche identifiée pour acceder au BIOS en la pressant frénétiquement pendant toute la séquence de démarrage.

Une fois dans le BIOS – un univers qui est parfois très touffu – rendez vous dans l’onglet « Boot » à la recherche de la ligne « Device order » ou « Boot priorities » pour sélectionner comme premier élément de démarrage votre Clé USB. Si celle-ci a été insérée dans la machine depuis son démarrage, son nom devrait apparaitre dans la liste. Sauvegardez ensuite vos réglages en appuyant en général sur F10 et redémarrez la machine avec la clé USB en place. Le système démarre sur la clé et il ne reste plus qu’a suivre les instructions à l’écran pour réinstaller Windows. Si cette installation réclame votre numéro de série, vous pourrez indiquer celui récupéré. Il y a cependant de grandes chances que celui-ci ne soit pas nécessaire.

A la fin de l’opération, vous aurez un système parfaitement identique à ce que Microsoft aurait livré par défaut. Il faudra probablement compter sur quelques mises à jour automatiques et, si il manque un pilote, vous pourrez guider Windows vers le repertoire de votre sauvegarde où il trouvera tous les éléments nécessaires.

Cela peut paraitre long et fastidieux mais cela reste la solution la plus sure pour profiter d’un Windows « propre ».

Ce billet a été publié le 2 mai 2025 et a été édité pour des raisons techniques liées au changement de méthode de récupération de clé le 18 octobre 2025.

Tuto : Réinstaller Windows à la réception de votre PC © MiniMachines.net. 2025

En supplément au programme : un soutien pour minimachines ?

17 octobre 2025 à 16:34

Le 4 octobre, le site a signé ses treize ans d’existence. Treize ans de travail quotidien, souvent six jours sur sept, sur des plages horaires assez ahurissantes. Pendant treize années, le site n’a pas ramassé un seul cookie, n’a pas vendu une seule donnée, n’utilise pas d’IA, n’a pas affiché une seule publicité ni glissé le moindre billet sponsorisé. L’ensemble de ses contenus est lisible depuis la plateforme de son choix (web, RSS, email) totalement gratuitement. Aujourd’hui, il a besoin de votre soutien.

Si je fais le bilan, vous êtes moins de 80 personnes à apporter activement un soutien au site. Certains le soutiennent fortement, d’autres le font depuis ses débuts avec une régularité incroyable. Et je les en remercie. Mais la grande, très grande majorité des lecteurs, n’avez pas jugé utile ou nécessaire de participer à son financement. Alors je sais, je sais. Tout le monde vous demande des sous. Toute la presse indépendante, tous les services en ligne, tout le monde. Et je comprends bien le problème. 1€ par ci, 2€ par là. À la fin du mois, cela représente une petite ou une grosse somme, et c’est embêtant ces sous qui filent. Et puis tout le monde n’a pas forcément les moyens de s’offrir ce luxe.

Je n’ai donc toujours pas envie de coller un Paywall devant le site. J’aime qu’il soit lu, qu’il rende service et j’aime cette culture du partage. La preuve, de mon côté, je paye moi pour que vous puissiez vous, le lire de manière indépendante et sans frais au travers d’emails ou de flux RSS. Je n’ai toujours pas envie de mettre de la pub sur le site, je hais la pub autant que vous. Même si aux dernières nouvelles, je pourrais doubler mon chiffre d’affaires en faisant comme tout le monde. En collant des bandeaux de pub partout. Je ne veux pas faire de billets sponsorisés non plus car je ne crois pas du tout dans ce système. Même si on me propose des sommes assez ahurissantes parfois.

Me voilà confronté à un problème. J’ai envie de me remettre à la vidéo. Je ne peux pas financièrement. J’ai envie de refaire des tests de MiniPC et d’autres trucs. Je ne peux pas financièrement. Faute de temps. Quand je prends le temps de vous faire des billets complexes comme pour présenter Panther Lake ou une série comme le succès des Mini-PC. Je sais que je m’engage dans un tunnel de recherche, d’illustration et d’écriture qui va me prendre des jours en étant totalement à perte financièrement. Je le fais parce que j’en ai l’opportunité à cause d’autres choses qui m’empêchent de travailler de manière classique. Des transports, des rendez-vous ou autres. Passer 10 à 12 heures sur un sujet qui ne contient aucune pub et n’a aucun moyen de s’auto-financer, c’est également la définition d’un blog. C’est une liberté folle pour moi.  Mais la situation est telle que je ne peux pas me permettre de tester un MiniPC ou faire tout ce que j’aimerais faire. Et ça m’ennuie.

Alors, il y a le sponsoring, qui fonctionne, mais malgré le prix demandé, cela n’attire pas grand monde. Le site attire bien les profils de lecteurs recherchés par plein de marques, mais comme je me refuse de tracker les lecteurs avec des outils statistiques, cela ne colle pas à leurs besoins. A chaque fois que des marques se rapprochent du site pour afficher leur logo, il leur faut des chiffres que je n’ai pas. À la rigueur, je pourrais tricher, en inventer des faux, faire des refresh de malade sur des pages cachées ou tout autre stratagème du genre. Coller des nouvelles sur des sujets « qui marchent » avec les mots clés « qui vont bien » pour faire la cour aux algorithmes et gonfler artificiellement des nombres… Le pire c’est que les marques préfèreraient un gros chiffre bidon que pas de chiffre du tout. À ce jour, aucune marque française, hormis Top Achat, n’a accepté de financer un sponsoring du site en espèces sonnantes et trébuchantes. Mes trois sponsors sont asiatiques. Et ce sont eux qui financent le très gros des frais de gestion du site. L’affiliation existe également et heureusement que vous êtes nombreux à passer par les liens du site et les bons plans pour aider son financement.

Mais le fait qu’en treize ans de service, moins de 120 personnes4 aient eu envie d’apporter un soutien financier à la vie du site. Alors que tout le monde se rend bien compte qu’ici, il n’y a pas de dérives publicitaires, me rend un peu maussade. Principalement parce que je me retrouve coincé encore et encore à devoir mener d’autres activités pour arriver à payer mes factures. Récemment, on m’a proposé une « pige » pour un autre média. Et je me suis rendu compte que finalement cela me plaisait de pouvoir tester un truc un peu exotique. Et en plus que je gagnais mieux ma vie à faire ça. Faire des piges pour d’autres médias, des magazines ou des entreprises. Parce que j’ai un bon background, un beau carnet d’adresse et qu’à force de, je sais disséquer une fiche technique d’à peu près n’importe quoi rapidement. Et quand on se rend compte de ça. Qu’on serait plus prospère à faire ce genre de job tout en n’ayant plus à gérer les spams, les soucis techniques et autres problématiques liées à la gestion d’un site. On a le droit d’être maussade.

Un petit don mensuel pour soutenir le blog ?

En bas de chaque billet, il y a un appel pour apporter son soutien à la vie du site. Ce n’est pas compliqué, il suffit d’une carte bleue et de quelques clics. Vous pouvez verser le montant de votre choix. C’est facile et sans engagement.

soutien

Vous pouvez participer avec votre CB ou avec Paypal

Si vous ne voulez pas vous lancer dans un financement type Patreon ou Tipeee, c’est une solution simple accessible à tous. Chaque semaine, je reçois des mails de gens que je dépanne et souvent, on me remercie en me disant « Si tu passes par ici, je te paye un café« . J’adore l’idée, vraiment, mais j’aimerais parfois pouvoir me payer mon café tout seul comme un grand chez moi. J’ai même fini par faire une page de don spécifique et une boutique Amazon pour du café exclusivement. Mais si vous avez les moyens de sortir 2€ pour un café, n’hésitez pas à le faire, et pourquoi pas mensuellement. Au bout de treize ans…

En échange, promis, je vous refais les tests et les vidéos que j’ai envie de faire à nouveau.

En supplément au programme : un soutien pour minimachines ? © MiniMachines.net. 2025

Nvidia DGX Spark : les minimachines spécialisées en IA sortent aujourd’hui

15 octobre 2025 à 13:12

C’est aujourd’hui que Nvidia lance la commercialisation officielle de sa minimachine DGX Spark. Un engin hyper compact à la puissance redoutable qui se veut être le réceptacle d’usages d’Intelligence Artificielle locaux.

Construit autour de l’architecture Nvidia Blackwell, la petite machine ne mesure que 15 cm de côté pour 5.05 cm d’épaisseur. À peine plus grand qu’un MiniPC classique et donc très facilement déployable dans tout type d’environnement. Avec une consommation de 240 watts, l’engin annonce une puissance de calcul de 1 PFLOP en FP4.

Le DGX-1 de 2016

Il est utile à ce stade de regarder un peu en arrière et de se souvenir du premier DGX-1 sorti en 2016. A l’époque, l’idée pour Nvidia et de fournir un support de travail pour les IA. Avec 170 TFLOPS en FP16, l’engin était déjà très robuste dans son rôle d’unité spécialisée. Mais l’objectif était alors surtout de proposer le support nécessaire aux ingénieurs et programmeurs désireux de développer autour des calculs d’IA. L’engin coutait alors 129 000 dollars pièce, occupait un rack de serveur entier avec 86 cm de large pour 44 cm de profondeur et 13 cm d’épaisseur, pesait plus de 60 kilos et consommait 3500 watts. Il fonctionnait grâce à 8 puces Tesla V100 de génération Pascal. Des entreprises spécialisées se sont jetées dessus afin d’avoir une sorte de laboratoire d’entrainement pour du Deep Learning. 

Neuf ans plus tard, Nvidia annonce le DGX Spark qui ressemble à une maquette de son prédécesseur. Il faut dire que toute la donne a changé. Tout le monde a entendu parler d’IA ou presque, énormément de gens ont testé ces outils en ligne. Et la plupart des boites se creusent la tête pour ajouter un peu d’IA dans leur communication. La technologie est largement sortie des laboratoires de recherche. Pour Nvidia, il est temps de proposer une architecture moins onéreuse. Passant des budgets seulement accessibles aux grands groupes à des unités que toute entreprise pourrait acquérir.

Le DGX Spark change donc totalement de puissance, de prix, de format et de méthode de vente. Proposé au prix public de 3999$, il s’inscrit dans une dépense possible pour une PME classique. Il ne nécessite pas une alimentation spécifique ni une baie serveur, ne demande pas de local dédié mais se pose sur une baie classique ou même sur un bureau. Pas besoin de faire un emprunt à la banque ou de ralentir d’autres investissements, l’amortissement de l’objet est également beaucoup plus simple.

Architecture NVIDIA Grace Blackwell
GPU Blackwell Architecture
CPU 20 core Arm, 10 Cortex-X925 + 10 Cortex-A725 Arm
CUDA Cores Blackwell Generation
Tensor Cores 5th Generation
RT Cores 4th Generation
Tensor Performance1 1000 AI TOPS
System Memory 128 GB LPDDR5x, unified system memory
Memory Interface 256-bit
Memory Bandwidth 273 GB/s
Storage 1 or 4 TB NVME.M2 with self-encryption
USB 4x USB 4 TypeC (up to 40Gb/s)
Ethernet 1x RJ-45 connector
10 GbE
NIC ConnectX-7 Smart NIC
Wi-Fi WiFi 7
Bluetooth BT 5.3
Audio-output HDMI multichannel audio output
Power Consumption 170W
Display Connectors 1x HDMI 2.1a
NVENC | NVDEC 1x | 1x
OS NVIDIA DGX™ OS
System Dimensions 150 mm L x 150 mm W x 50.5 mm H
System Weight 1.2 kg

Avec une architecture Blackwell pour 1 Pétaflop en FP4, l’engin se veut être autant un outil de recherche qu’une solution d’exploitation. La marque le présente comme le réceptacle d’une IA personnelle. Il permettra de piloter des LLM puissants en local, sans avoir besoin de recourir à des données partagées par un géant du marché. 

Utile pour construire ses propres bases de données, les entrainer et les exploiter, DGX Spark ouvre la voie à des usages différents de ce que propose le Cloud. Imaginez-vous dans un laboratoire de recherche médicale avec des dossiers sanitaires de patients protégés d’une exploitation dans les nuages par le secret médical. Avec ce type de minimachine, vous pourrez modéliser une LLM de recherche en local. Vous travaillez dans un domaine d’expertise particulier ? Le corpus entier des dossiers passés et des décisions prises peut être implanté dans ces machines et entrainé pour chercher pour vous les éléments les plus semblables au cas que vous rencontrez aujourd’hui. Votre entreprise possède un catalogue de centaines de machines différentes ayant chacune des spécifications et des retours techniques d’interventions dûment archivées ? Ce type d’outil peut aller trouver les meilleures réponses et vous donner les contacts et liens des personnes à interroger en cas de pépin avec un client. Dans tous ces cas, nul besoin de monter vos données en ligne et donc de les partager avec une entité tierce. Tout reste en local.

Évidemment, cela a également ses mauvais côtés. Si vous téléchargez un LLM déjà entrainé sur votre machine et que vous ne le mettez plus à jour, vous retrouvez la différence qu’il y a entre l’Encyclopédia Universalis papier et Wikipedia. Le moindre évènement important sera mis à jour sur Wikipedia tandis que votre encyclopédie restera figée dans le temps. Mais pour de nombreux cas précis, notamment pour des raisons de secret industriel ou professionnel, cette étanchéité est salutaire.

Les DGX Spark annoncent 1 Pétaflop de puissance de calcul en FP4. Pas la fiabilité la plus importante disponible donc. Le gros DGX-1 de 2016 annonçait déjà 1 Petaflop en « précision mixte » ce qui ne veut pas dire grand-chose et 170 TFLPS en FP16. Quoi qu’il en soit c’est suffisant pour des modèles locaux comme DeepSeek, surtout parce que les machines profiteront de 128 Go de mémoire unifiée à la bande passante très rapide. Il ne faudra cependant pas forcément s’attendre à des résultats aussi spectaculaires que des LLM surentrainés en ligne pilotés par des investissements matériels ayant couté des milliards de dollars.

Nvidia indique des exécutions locales de modèles totalisant 200 milliards de paramètres avec la possibilité d’affiner des versions de 70 milliards de paramètres. Sans préciser vraiment le confort apporté par la machine. Le temps de réaction des IA ou la durée des entrainements. 

Le ticket d’entrée a considérablement baissé et la méthode de commercialisation qui change. Si les premiers exemplaires sortis en 2016 et les déclinaisons suivantes étaient des machines exclusivement proposées par Nvidia. Les nouvelles vont être vendues par les mêmes canaux – légèrement élargis – que les cartes graphiques de la marque. Ainsi, Acer, Asus, Gigabyte, MSI ainsi que Dell, HP et Lenovo vont proposer leurs propres versions des Spark.  Ce qui devrait entrainer une baisse des tarifs et un moyen pour les entreprises de profiter de meilleures conditions d’achats auprès des grands groupes.

Plus d’infos chez Nvidia

Nvidia DGX Spark : les minimachines spécialisées en IA sortent aujourd’hui © MiniMachines.net. 2025

Des FPS pour le Steam Néo Fest d’octobre 2025

14 octobre 2025 à 23:02

C’est reparti pour le Steam Néo Fest, comme tous les trois mois. Cette année, on a encore moins de temps que d’habitude pour vous faire une sélection, alors n’hésitez pas à partager vos trouvailles en commentaires. On n’a pas encore eu le temps de se pencher sur les démos, mais celles qui nous tentent le plus sont celles de Painted in Blood (parce que ça a l’air bien) et Painkiller (parce que ça a l’air nul).


Painted in Blood

Genre : Rétro-FPS

Il arrive dans moins de 10 jours, et on l’attend de pied ferme. On a tout de même lancé la démo pour voir ce que ça donnait, et c’est très prometteur… si on parvient à résoudre la première énigme. Sinon, côté visuels, déplacements et combats, c’est du tout bon !

Painted in Blood sur NoFrag // Steam // Date de sortie : 23/10/2025

Road to Vostok

Genre : Extraction shooter solo

Le fameux extraction shooter solo développé par un développeur solo, aux ambitions énormes. Mais le truc, c’est qu’il est vachement fort, et même s’il ne tient plus trop les deadlines initiales, le projet semble bien avancer. Cette nouvelle démo est la dernière avant l’arrivée de l’accès anticipé. Bon, pour l’instant, aucune date n’a encore été définie, mais on peut voir sur la roadmap que deux phases de test sont prévues d’ici là.

Road to Vostok sur NoFrag // Steam // Date de sortie : Non connue

Shell Soldier

Genre : Fast-FPS

Comme prévu lors du Brutal Indies Unleashed Showcase, Shell Soldier sort sa démo. Il s’agit d’un fast-FPS avec du bullet time, qui semble pas mal s’inspirer de F.E.A.R. ou Severed Steal. Intéressant sur le papier.

Shell Soldier sur NoFrag // Steam // Date de sortie : Non connue

Painkiller

Genre : Coopération

Le seul rapport avec le jeu mytique de People Can Fly, c’est son nom et l’arme de corps à corps. Pour le reste, on est sur un jeu coop qui ne donne pas très envie. Dites nous si c’est pas si nul, finalement.

Painkiller sur NoFrag // Steam // Date de sortie : 21/10/2025

’83

Genre : Milsim

La démo est arrivée un peu en avance, mais uniquement sur des créneaux à la con, histoire que seules quelques personnes puissent se rendre compte à quel point c’était moche. On a pu le constater avec une certaine hilarité hier, en découvrant que la pixélisation dégueulasse n’était pas un effet de style, mais bien parfaitement involontaire. Difficile de se concentrer sur le gameplay avec une technique visuelle aussi à la ramasse, mais on a tout de même pu entrevoir un concept qui tient la route — sans pour autant soutenir la comparaison avec des jeux sortis depuis une dizaine d’années. On comprend maintenant pourquoi les financeurs avaient préféré tirer la prise quand Antimatter Games travaillait dessus.

’83 sur NoFrag // Steam // Date de sortie : Q4 2025 en accès anticipé

Citizen Pain

Genre : First Person Slasher

On dirait que les First Person Slasher ont le vent en poupe : Citizen Pain nous place dans un univers dark fantasy donner de grands coups d’épée et de pied dans nos adversaires. Ça a l’air moins technique qu’un Chivalry, mais c’est peut-être tout de même sympathique.

Citizen Pain sur NoFrag // Steam // Date de sortie : 05/12/2025

Klostyn

Genre : Rétro-FPS

Développé sous Godot Engine, Klostyn est un rétro-FPS qui tâche, et il est adoubé par David Szymanski, le papa de Dusk. C’est donc sans doute plutôt correct.

Klostyn sur NoFrag // Steam // Date de sortie : Non connue

Project Warlock: Lost Chapters

Genre : Rétro-FPS

Suite directe du premier épisode, Project Warlock: Lost Chapters nous permettra d’incarner à nouveau le maître sorcier qui est prêt à en découdre. À l’aide d’armes et de sorts inédits, le Warlock voyagera dans différents environnements afin d’abattre les divers ennemis et boss qui les peuplent. Reprenant les mêmes mécaniques de gameplay et la direction artistique de Project Warlock, ce nouvel épisode s’annonce plutôt fun sans pour autant révolutionner le genre. À la rédac, on a plutôt apprécié la démo qui se déroule dans l’univers de la piraterie et avons hâte d’en voir davantage.

Project Warlock: Lost Chapters sur NoFrag // Steam // Date de sortie : Non connue

Aerial_Knight’s DropShot

Genre : Fast-FPS

Le concept avait l’air marrant et la direction artistique était plutôt pas mal, mais c’est parfaitement injouable, car on ne peut pas régler la sensibilité de la souris. En plus, c’est une sorte de railshooter sans grand intérêt.

Aerial_Knight’s DropShot sur NoFrag // Steam // Date de sortie : Non connue

Bullet Ballet

Genre : Rétro-FPS

Avec sa direction artistique plutôt jolie et inspirée de la bande dessinée, Bullet Ballet est un rétro-FPS se déroulant dans le Far West qui nous narre l’aventure de Johnny en quête de réponses sur le passé de son père. En voyant ce jeu, il est difficile de ne pas se souvenir d’un certain Fallen Aces, un rétro-FPS embrassant la thématique du polar, sorti en accès anticipé il y a un an. Sinon, le gameplay a l’air pas mal, avec des projections d’hémoglobine un poil abusé et un univers des cow-boys qui semble bien retranscrit, comme Outlaws et Wanted 3D: Dead or Alive.

Bullet Ballet sur NoFrag // Steam // Date de sortie : Non connue

Tales of the Bullet Knight

Genre : Rétro-FPS

On ne va pas vous mentir, on a juste été attirés par l’esthétique un peu atypique de Tales of the Bullet Knight. Ça ressemble à un rétro-FPS plutôt classique, mais si ça se trouve, c’est à chier.

Tales of the Bullet Knight sur NoFrag // Steam // Date de sortie : Non connue

SPORTAL

Genre : Rétro-FPS

Emprisonné dans un monde où les mythiques monstres des films des années 90 coexistent, SPORTAL est un roguelite à la première personne où vous devrez survivre en utilisant les équipements de sport tels que la batte de baseball, la crosse de hockey, le club de golf, les balles… ainsi que des tenues qui y sont associées. Original par sa thématique liée au monde sportif et des figures du cinéma d’horreur, les mécaniques de gameplay semblent toutefois classiques et plairont probablement aux aficionados de rétro-FPS.

SPORTAL sur NoFrag // Steam // Date de sortie : Non connue

It Consumes

Genre : Arena-FPS

Prévu pour le 21 janvier 2026, It Consumes est un FPS roguelite où vous devrez affronter des hordes d’ennemis en les repérant uniquement à l’aide des échos d’un cœur. À chaque victoire, vous pourrez améliorer votre arsenal et votre artefact pour lutter efficacement contre les prochaines vagues d’ennemis. Les mécaniques paraissent plutôt basiques, à voir si ce clone de Devil Daggers dans le noir arrivera à se distinguer auprès des joueurs.

It Consumes sur NoFrag // Steam // Date de sortie :21/01/2026

Crisol: Theater of Idols

Genre : Survival Horror

FPS horrifique s’inspirant du folklore hispanique, Crisol: Theater of Idols vous mettra dans la peau d’un soldat nommé Gabriel qui aura la particularité d’utiliser son sang comme munitions pour ses armes. Missionné pour découvrir les secrets de l’île de Tormentosa, vous devrez combattre des marionnettes humanoïdes tout en prêtant attention à la gestion de votre sang pour ne pas crever comme une merde et ne pas vous retrouver à sec. À l’instar des robots, on espère que ces ennemis ne seront pas des éponges à balles et ressentiront bien l’impact de nos tirs. À la rédac, on est pas fans de jeux d’horreur mais Crisol: Theater of Idols reste malgré tout intriguant de part son univers et son gameplay.

Crisol: Theater of Idols sur NoFrag // Steam // Date de sortie : Non connue

The Last Caretaker

Genre : Survie & Craft

Ah, le jeu de survie réglementaire de tout article récapitulatif de NoFrag. Il se pourrait que l’un des rédacteurs serait possiblement intéressé. On verra d’ici quelques jours s’il a lancé la démo. Pour savoir ce que c’est, consultez nos précédentes news, on n’a pas que ça à faire.

The Last Caretaker sur NoFrag // Steam // Date de sortie : 06/11/2025

The Midnight Walkers

Genre : Extraction / zombies

Découvert à cause d’une vidéo de présentation absolument atroce, on ne s’attend pas à grand chose avec The Midnight Walkers, un extraction shooter contre des zombies dans des endroits un peu restreints. Si ça se trouve, ce n’est pas aussi nul qu’il n’en a l’air.

The Midnight Walkers sur NoFrag // Steam // Date de sortie : 21/11/2025

Pathologic 3

Genre : Enquête

Après un prologue sorti en mars dernier, Pathologic 3 nous présente une démo, avant une sortie en janvier prochain. D’après notre expert Stuka, le prologue était chouette, car il proposait une approche différente des précédents jeux. À voir.

Pathologic 3 sur NoFrag // Steam // Date de sortie : 09/01/2026

Forefront

Genre : Battlefield-like en VR

C’est Battlefield, mais en VR. Et il paraît que c’est pas mal.

Forefront sur NoFrag // Steam // Date de sortie : Non connue

Panther Lake, mieux comprendre le futur mobile d’Intel

13 octobre 2025 à 17:01

On m’a demandé de dégrossir un peu ce qu’il se passait chez Intel en 2025. L’impact de leur stratégie pour les années à venir. Et, gentiment, on m’a demandé de le faire avec des mots compréhensibles par « Monsieur-et-madame-tout-le-monde ». L’arrivée de Panther Lake, c’est l’occasion parfaite de tenter cet exercice difficile de défrichage technique.

Qu’est-ce que c’est que cette histoire de panthère et de lac ?

On va donc commencer par le début, Panther Lake, qu’est-ce donc ? Intel est un des plus grands fabricants de processeurs au monde. C’est donc un grand industriel qui pilote de multiples entités, des dizaines d’usines de production, des centres de recherche et des antennes locales dans énormément de pays. C’est également le développeur de nombreuses gammes de produits qui sont fabriqués parfois sur de longues périodes. Pour s’y retrouver dans toute sa production, la marque emploie des noms de code qui viennent coiffer les générations de puces.

Ces noms de code sont tirés de lieux géographiques présents aux USA. En ce moment ce sont des noms de lacs. On en a eu beaucoup d’autres par le passé, Kaby Lake, Amber Lake, Whiskey Lake, Coffee Lake, Comet Lake, Lunar Lake, Arrow Lake et désormais, Panther Lake. C’est un petit lac d’eau douce situé en Floride. L’objectif de ce nom de code est donc simple. Il englobe une génération de processeurs tout en désignant également les technologies qui y sont déployées. Cela évite de se perdre dans une nomenclature de puces complexes quand on gère une société avec plus de 100 000 salariés. Cette longue suite de noms de lacs indique également une grande histoire de processeurs. C’est comme un nom de famille avec une généalogie technologique. 

Un processeur Panther Lake

Que s’est-il passé avec Intel ces dernières années ?

Intel sort d’une mauvaise passe. Sans vouloir reprendre les messages clico-alarmistes qui ont saturé les réseaux depuis des mois, la société va mal avec un énorme déficit et des pertes de parts de marché importantes. La concurrence de son eternel rival qu’est AMD – autre fabricant américain de processeurs pour PC – et l’arrivée de  nouveaux concurrents majeurs ne l’a pas aidé. Ainsi Qualcomm, connu pour ses puces intégrées aux smartphones est devenu un adversaire sur le terrain des ordinateurs portables. Apple a lui aussi abandonné les puces d’Intel pour se tourner vers des processeurs développés en interne, redoutables efficaces.

Ces bouleversements de marché sont arrivés au pire moment pour Intel. La marque était en effet en train de patauger dans un bourbier technologique. Payant son manque de vision à long terme et ses faibles efforts de recherche comme d’investissements. Pendant des années, Intel n’avait plus réellement de concurrence et a relâché sa garde. Apple avait basculé ses machines sous son drapeau, AMD n’arrivait pas à proposer une alternative viable et aucun autre fabricant ne proposait de produit concurrent.

Techniquement seul sur son marché ou presque, Intel raflait tout les contrats sans chercher à se réinventer. Quand AMD réunit par miracle une « Dream Team » d’ingénieurs et invente une nouvelle architecture de processeurs baptisée Zen, Intel fait tranquillement du « sur place » depuis des années. La boite gagne beaucoup d’argent et ne voit pas pourquoi elle devrait accélérer le rythme. Dans une posture qui a si bien réussi à des marques comme Kodak ou Xerox, elle ne croit plus en une possible remontée de la concurrence et se laisse aller. Les résultats de cette stratégie consistant à maximiser ses revenus en limitant ses dépenses ne sont pas bons. De 2016 à 2018 par exemple, Intel n’arrive pas à dépasser une gravure en 14 nanomètres pendant qu’AMD annonce en 2016 ses nouveaux processeurs Zen gravés initialement en 14 nanomètres puis rapidement en 12 et enfin en 7 nanomètres. L’arrivée de puces gravées en 10 nanomètres chez Intel en 2018 est au départ assez confidentielle, ils coûtent également extrêmement cher à cause de problèmes de fiabilité qui conduisent à jeter une grosse partie de la production.

Quand en 2020 Apple décide d’abandonner Intel pour vendre ses Macs avec ses propres processeurs, la pomme change totalement de crémerie et fait graver ailleurs ses puces. Cet ailleurs vient d’un autre élément important de l’équation. Le fondeur de processeur Taiwanais qu’est TSMC. Un autre grand industriel qui n’a pas abandonné la R&D de son côté et propose à ses multiples clients des capacités de gravure sans équivalent. A tel point qu’Intel lui-même finira par faire graver des puces chez son concurrent.

Parce que passer de 14 à 7 nanomètres sur un processeur cela a l’air insignifiant mais c’est une division par deux de la taille des transistors. Autrement dit, là où vous pouviez graver 1 million de transistors avec une technologie, vous pouvez en graver environ deux fois plus avec la nouvelle. Ce gain en densité se conjugue également avec une meilleure efficacité énergétique. Autant de points qui manquent aujourd’hui à Intel qui paye aussi son manque d’investissement dans la Recherche et Développement. 

A l’intérieur de la Fab 52 en Arizona

Cet ensemble de problèmes a mis à mal Intel qui a dû réagir.

Les choses ont commencé a bouger après le départ de Brian Krzanich, PDG de la société de 2013 à 2018, qui s’était aventuré dans beaucoup de branches externes au cœur de métier de la société : objets connectés, drones, stockage et autres projets accessoires. Un intérim est mené de 2019 à 2021 après son départ. Avant qu’un nouveau PDG reprenne les rennes de la société. Si cet intérim a permis de faire le bilan des problèmes d’Intel face à la montée de la concurrence technique et commerciale, il n’y a pas eu véritablement de programme clair pour se sortir du marasme. 

C’est en 2021 que les choses progressent avec le retour d’un vieux de la vieille chez Intel, Pat Gelsinger. Un ingénieur qui connait bien les problématiques de Recherche et Développement et qui met en marche d’énormes changements structurels. Il fait passer la pilule d’investissements massifs et nécessaires dans les usines de fabrication. Valide une nouvelle politique de reconcentration vers les métiers de base de la marque et remet les ingénieurs la tête dans le guidon de la recherche. Les investissements sont massifs, des usines doivent sortir de terre, les matériels de gravure de processeurs doivent évoluer, et les embauches de milliers de nouveaux ingénieurs se multiplient (pendant que d’autres branches d’emplois sont sacrifiées.) Pat fait des chèques, de gros chèques, annonce un vrai renouveau et… assume de perdre de l’argent, beaucoup d’argent. Il s’en suit des bilans qui ne sont plus au beau fixe. On est passé d’un profit net de plus de 20 milliards de dollars durant la période de 2018 à 2020 à 8 petits milliards en 2022. En 2023 l’hémorragie continue avec 1.6 milliard de profit et en 2024 on arrive à déficit incroyable de 19 milliards de dollars.

Une des machines capable de graver en Intel 18A, un monstre hors de prix développé par ASML

Le prix à payer pour redresser la barre selon Gelsinger. Le prix qui en fait également un bon bouc émissaire. Il est donc démissionné à la fin de l’année 2024, remplacé par deux directeurs en intérim avant qu’un nouvel « héros » prenne le relais. Depuis mars 2025, Lip-Bu Tan a repris le contrôle de la société et applique peu ou prou la même politique que son prédécesseur. Il faut bien comprendre que les décisions prises aujourd’hui dans ce type d’industrie n’auront des effets que dans les années à venir. Sortir une usine de terre, capable de graver un processeur, cela demande des années de construction et souvent autant d’optimisation et de mise en place. Les architectures de processeurs annoncées aujourd’hui résultent de plans et de développement imaginés il y a fort longtemps. En informatique, nous vivons dans le passé des ingénieurs d’hier.

L’ensemble de tous ces évènements conduit à l’arrivée de Panther lake, la gamme de processeurs fraîchement annoncée par Intel. Une nouveauté technologique qui a donc une importance particulière avec un héritage des processeurs précédents et une ribambelle de nouveautés techniques cruciales pour la marque.

Allonger la foulée, augmenter le rythme

L’architecture Panther Lake est la suite logique des deux processeurs précédents. Meteor Lake sorti à la fin de 2023 et Lunar Lake lancé en 2024. On note d’ailleurs au passage la reprise d’un schéma d’évolution rapide chez Intel. Schéma qui avait été abandonné en 2016 sous l’ère Krzanich. Avant 2016, Intel proposait un fonctionnement basé sur une nouvelle architecture de processeur la première année et l’année suivante une optimisation de celle-ci. Cela permettait d’avoir des puces plus rapides chaque année mais cela coutait très cher avec une R&D permanente. Cette stratégie baptisée « Tick-Tock » avait été abandonnée pour une solution plus économe qui débordait sur trois années. Tick-Tock a repris ses doits chez Intel quand Pat Gelsinger a voulu renouer avec une course à la performance et l’efficacité, jugée vitale pour l’avenir de la société. 

Ce Pedigree apporte l’expérience des puces passées mais aussi son lot d’innovations que l’on va retrouver en grande partie dans la nouvelle architecture technique et les méthodes de production d’Intel. La génération précédente, Lunar Lake, répondait à une problématique très importante, celle de l’efficacité énergétique. Importante pour  des raisons techniques d’abord. Plus un processeur est efficace et moins il consomme d’énergie. Un détail qui permet d’avoir de meilleures autonomies, ce qui est un point crucial sur une gamme de puces mobiles. L’efficacité permet de bénéficier d’un processeur qui dégagera moins de chaleur, ce qui permet d’éviter pas mal de soucis techniques.

Le chantier de la Fab 52 d’Intel lancé en 2021

Cette recherche de la meilleure éfficacité possible est évidemment un cheval de bataille recherché par ses concurrents. Et en particulier par Apple et Qualcomm qui emploient une architecture ARM issue du monde des smartphones forcément plus économe. Les deux concurrents n’ont pas hésité a mettre en avant l’efficacité de leur puces face à Intel et AMD depuis des années. Expliquant au passage que la vieille famille de processeurs d’ordinateur était désormais dépassée.

Pour revenir dans la course, Intel a donc du largement travailler ce poste et cela a conduit la marque à… avaler son chapeau. Le fondeur a fait preuve de pragmatisme pour avancer. Comme il n’était jusque là pas capable de graver ses puces aussi finement qu’il le souhaitait, il a frappé à la porte de son principal concurrent en terme de fabrication de processeurs. TSMC, leader mondial dans la gravure de puces, a ainsi gravé les cœurs de la génération Lunar Lake. Intel n’a pas vraiment eu d’autres choix que de lui confier la tâche. La marque a ainsi pu enfin proposer des processeurs dont les cœurs, gravés en trois nanomètres par TSMC, ont pu rivaliser avec ses concurrents. Cela lui a couté cher, lui a enlevé des bénéfices, mais lui a permis de rester dans la course. 

Une course qui a permis d’arriver où nous en sommes aujourd’hui avec la gravure « 18A ».

Une pizza, un wafer Intel avec des centaines de puces

Arizona Fab 52 : la Pizzeria Intel

Pour prendre un exemple trivial, imaginez-vous à la tête d’une pizzeria industrielle. Vous avez plusieurs options pour fabriquer vos pizzas en quantité. Soit vous fabriquez tout vous-même et vous pouvez en retirer le maximum de bénéfices. Soit vous sous-traitez une partie et vous partagez un peu de celui-ci. Maintenant imaginez que pour une raison ou une autre votre four ne fonctionne plus. Il tourne mais quand vous le mettez en marche, sur les 500 pizzas qui entrent dans le four chaque heure, la moitié ou plus sont trop cuites. Bonnes à jeter. Un quart est pas assez cuit et ne trouve plus les mêmes débouchés vis à vis du public. Quelles solutions avez vous ? Pendant Longtemps Intel a regardé ailleurs parce qu’il n’y avait pas vraiment d’autres fabricants de Pizzas, ses Margaritas cuites en 14 nanomètres trouvaient forcément preneurs. Mais quand des concurrents sont arrivés et qu’il a voulu se remettre au niveau, c’était pour s’apercevoir d’abord que les recettes concurrentes étaient meilleures et qu’en plus, il lui était impossible d’amener le même niveau de cuisson.

Intel a donc décidé de construire une nouvelle usine de pizzas. Qui cuira vite, très finement tout en permettant les recettes appréciées par le public aujourd’hui. Cela prend du temps et pour patienter Intel a du confier la cuisson de ses Pizzas à TSMC. Le temps nécessaire à la finalisation de sa dernière usine. La Fab 52, située en Arizona.

Les puces Panther Lake sortiront donc de cette fameuse Fab 52. Et seront gravés en 18A, un processus de gravure au moins aussi bon que les 3 nanomètres de son concurrent. Autrement dit, Intel a réglé son four et promet une cuisson parfaite. Mieux que parfaite, car la marque annonce avoir réglé les problèmes de fiabilité de sa gravure et donc pouvoir accélérer la cadence de production de manière importante. On comprend l’enjeu pour le fondeur. Non seulement la marque annonce un nouveau processeur performant mais elle certifie qu’elle sera à nouveau en capacité de le produire de manière autonome, en quantité et avec peu de déchets. De quoi renouer avec les bénéfices tout en séduisant les acheteurs.

Sans vouloir trop rentrer dans les détails, graver des milliards et des milliards de transistors microscopiques sur un disque constitué d’un substrat de silicium n’est pas une chose facile. En cas de problème technique, il faut parfois jeter un nombre important de puces défectueuses, ce qui rend tout le disque – appelé wafer – déficitaire. C’est la pizza qui sort totalement brûlée du four. Il faut un certain pourcentage de processeurs exploitables pour que l’opération rapporte de l’argent. Intel indique avoir déjà atteint cette qualité de gravure sur sa fab 52.

C’est important parce qu’au-delà du nombre de wafers qui sortiront de ses chaînes, cela influe sur le prix de revient de chaque processeur et donc sur son prix de vente final. Avec 50% de déchets, chaque puce coute deux fois plus cher. Avec 1%, l’impact sur le tarif est anodin.

Intel parle désormais d’une production actuelle de 1000 à 5000 wafers chaque mois avec une montée en puissance prévue pour 2026 pour arriver à 30 000 unités. Sachant que chaque wafer représente des centaines et des centaines de processeurs, cette seule Fab 52 devient donc un enjeu stratégique important.

 

Les tuiles d’Intel : Quatre fromages ou Margarita ?

Autre élément central de cette architecture Panther Lake, une énorme flexibilité de fabrication. Je vais reprendre mon analogie des pizzas pour essayer de me faire comprendre. Quand vous rentrez dans une pizzeria, vous avez une carte avec un éventail de choix importants. Le pizzaiolo a devant lui des bacs contenant des ingrédients variés. Certains coutent chers et sont peu demandés, d’autres sont abordables et présents dans toutes les recettes. Vous demandez au serveur la pizza qui vous plait et il vous apporte celle-ci au bout de quelques minutes le temps de la composer Si vous voulez un supplément ananas, vous pouvez même lui réclamer. Cette possibilité de mixer les ingrédients fait le succès de la formule en permettant à la Pizzeria de varier les menus sur une même base et au client de trouver quelque chose à son goût.

Chez Intel, c’est désormais presque pareil. Un des enjeux stratégiques des développements internes de ces dernières années a été d’offrir plus de modularité aux processeurs. Les puces sont désormais construites avec des « tuiles ». Sur une base qu’on appelle le « Package » est disposée une sauce tomate spéciale : Foveros. Ce nom désigne la méthode employée par Intel pour coller ensemble les différents ingrédients. Ici, différents éléments qui viendront dialoguer ensemble. On retrouve la partie calcul pour « Compute Tile » avec les fameux « cœurs » du processeur. Ces cœurs de calcul pur qui prendront en charge les opérations classiques d’un ordinateur.

On retrouve également le « GPU tile » qui correspond à la partie graphique. Et le « Platform Controller Tile » qui sert à piloter les différents éléments de votre ordinateur. Les « Filler Tile » sont juste des morceaux de silicium neutres qui vont remplir les « blancs » suivant les constructions pour éviter d’avoir des trous dans la pizza le processeur.

Le dialogue entre les différentes tuiles se fait par des ponts spécifiques pensés pour éviter tout ralentissement. Cette architecture est très intéressante pour Intel car elle va permettre de construire des puces véritablement sur mesures pour ses différents clients. Le fait d’avoir des éléments séparés permet également de monter sur un processeur des tuiles différentes provenant d’usines différentes. La partie graphique des puces ne sera pas nécessairement fabriquée dans la Fab 52. Elle n’aura pas non plus forcément la même finesse de gravure.

Vous voyez où je veux en venir ? Les clients d’Intel, à savoir les constructeurs d’ordinateurs, vont pouvoir demander des solutions adaptées à tout type de profil. Un processeur entrée de gamme niveau calcul avec une puce graphique simple pour un prix très bas et une consommation minimale. Mais il sera également possible de choisir des éléments de calcul très performants avec des circuits graphiques faibles parce qu’on voudra les intégrer dans des machines disposant d’une puce graphique secondaire encore plus puissante. On pourra également créer plus facilement des gammes spécialisées comme les solutions qui seront déployées avec des cœurs de calculs Intel et des circuits graphiques Nvidia… Les ingrédient de base seront les mêmes et tout pourra varier suivant les besoins et les disponibilités.  

Les trois tuiles sont gravées de manière différentes. La partie calcul « Compute Tile » est gravée par Intel en 18A pour plus d’efficacité. Elle est additionnée à une « GPU tile » toujours gravée par Intel mais cette fois en 3 nanomètres et la partie « Controller Tile » est encore confiée à TSMC avec une gravure N6. Toutes sont assemblées ensuite sur la même base.

Cette possibilité permet une grande souplesse de production. En fabricant non plus des puces monobloc mais en additionnant des éléments, il est plus simple de s’adapter en fonction des besoins du marché. On pourra rediriger les différents éléments en fonction de la demande. Celle-ci n’est pas la même en fin d’année quand les gens se font plaisir pour les fêtes avec une machine haut de gamme. Qu’en début d’année scolaire où on recherche plutôt des engins plus économiques pour équiper des étudiants. A chaque fois, Intel pourra répondre au mieux des besoins. 

Pour améliorer encore cette proposition, les puces seront proposées suivant des déclinaisons internes déjà employées dans les puces de générations précédentes. Trois type de cœurs seront disponibles. On retrouve des cœurs P pour Performants. Très rapides, très puissants mais également plus gourmands en énergie. Des cœurs E ou Efficients qui proposent moins de puissance de calcul mais consommeront également moins de batterie. Et enfin des cœurs LPE à très très basse consommation. Les différents cœurs pouvant se mélanger en de multiples combinaisons pour former des tuiles jouant sur la performance brute, une puissance plus équilibrée ou ayant une meilleure autonomie. 

Pour le moment trois processeur Panther Lake sont annoncés. Tous trois étant dérivés de la même base mais architecturés de manière différente. La nouvelle gamme Panther Lake promet, grâce entre autre à cette finesse de gravure 18A d’Intel, des gains de 10% sur la puissance établie par un seul coeur et pouvant aller jusqu’à 50% en additionnant plusieurs d’entre eux. Il faut bien comprendre que cette évolution en performances se calcule à consommation égale. Le chiffre est donc assez impressionnant. Mais elle promet surtout des architectures pouvant s’agencer de manière beaucoup plus souple.

Le premier est un huit cœurs composé de quatre cœurs P et quatre cœurs LPE. Il est associé au NPU5 maison qui développe 50 TOPS. La puce propose 8 Mo de cache et prend en charge la mémoire vive DDR5 et LPDDR5. Sa gravure est donc en Intel 18A et il est associé à des éléments importants. D’abord un circuit graphique Intel Xe3 avec quatre cœurs Xe et quatre unités de Raytracing gravé en Intel 3. Son contrôleur est très complet avec de nombreuses prises en charges natives : Wi-Fi7 et Bluetooth 6.0 pour le sans fil, jusqu’à quatre lignes Thunderbolt 4.0 offrant de larges possibilités de connectiques, deux lignes USB 3.2 et huit en USB 2.0. Ainsi que douze lignes PCIe : huit en PCIe Gen4 et quatre en PCIe Gen5. Ces éléments sont très important pour la prise en charge de solutions comme du stockage rapide, un circuit graphique secondaire entre autres choses.

La seconde puce est donc un dérivé logique de la première. Avec seize cœurs composés de quatre cœurs P, huit cœurs E et quatre cœurs LPE. Intel a juste ajouté les cœurs E dans l’équation. Le reste ne change pas beaucoup, la vitesse de la mémoire vive grimpe un peu plus, le nombre de lignes PCIe augmente pour passer à vingt avec toujours huit PCIe Gen4 mais désormais 12 PCIe Gen5. La partie graphique ne bouge pas, c’est littéralement la même « Tile » qui est posée sur la puce.

Enfin, la puce la plus haut de gamme reprend exactement la même tuile de calcul que la précédente, sa mémoire vive grimpe plus haut et uniquement en modules soudés sur la carte mère. Son contrôleur ne change pas non plus mais sa partie graphique évolue nettement puisqu’on passe à un Xe3 composé non plus de quatre mais de douze cœurs Xe avec autant d’unités de Raytracing. On note au passage qu’Intel ne sera plus à la manoeuvre pour graver ce circuit qui sera confié à un prestataire externe.

Cette méthode de construction de puce avec de multiples cœurs plus ou moins performants permet de gagner en autonomie. La méthode employée ici par Panther Lake est issue directement de la génération précédente. On retrouve un traitement des tâches baptisée ‘Thread Director ». L’idée est simple, le plus petit cœur essaye de se débrouiller du mieux qu’il peu avec une tâche avant de passer le relais à un cœur plus gros si il arrive au bout de ses capacités de traitement.

Imaginons que le système veuille décoder un flux vidéo, aussi lourd soit-t-il, pris en charge par la partie vidéo de la puce. Le boulot consiste a faire transiter le fichier vers le circuit graphique, rien de plus. Pas la peine de réveiller un cœur performant pour cette tâche, un petit cœur LPE s’en sortira très bien. S’il s’agit de faire une seconde tâche basique en parrallèle, un second cœur du même type sera réveillé. Si les choses se corsent, par exemple pour l’ouverture d’un logiciel plus lourd, on pourra réveiller l’étage du dessus. Les cœurs « E » voir même les cœurs « P ». Puis le système les « éteindra » quand le programme sera lancé et dans l’attente d’une autre tâche.

Cette méthode de cœurs multiples est clairement inspirée du monde des puces ARM de nos smartphones. Elle va permettre d’économiser énormément d’énergie en évitant de réveiller des cœurs surpuissant consommant beaucoup pour des actions qui n’occuperaient quelques dixièmes de leur puissance. Pour améliorer encore cette gestion de l’énergie, les puces Panther Lake dialogueront directement avec les systèmes d’exploitation. 

Chaque puce profitera d’une gestion de profil énergétique codée directement dans leur design. Baptisée « Intel Intelligence Experience Optimizer » elle permettra de se positionner suivant plusieurs scénarios d’usages avec un mode équilibré par défaut. Le fondeur promet à la fois de meilleures performances au global mais aussi une meilleure autonomie. Résultat des courses, une consommation considérablement réduite : 40% de moins face à la génération Arrow Lake . 10% de moins que Lunar Lake. Autant de points gagnés pour l’autonomie des machines.

Panther Lake et 18A, le renouveau ?

On comprend à la lumière de tout cela que Panther Lake est plus qu’une nouvelle génération de processeurs pour Intel. C’est à la fois un moyen de se relancer et le résultat d’efforts considérables. Autant techniques que financiers. Mais c’est également un pari pour son avenir. La marque a ouvert ses services de fonderie à des constructeurs tiers depuis un moment et compte bien sur sa technologie 18A pour les attirer.

Plus elle aura de nouveaux clients, plus il sera simple de rentabiliser ses très lourds investissements. Il faut donc impérativement briller en terme de performances et tenir des cadences de production autant excellentes en rendement qu’en efficacité pour l’année 2026.

Si vous êtes néophyte et que vous avez tenu jusque là, bravo. J’ai tenté de vous faire passer un maximum d’informations de manière la plus simple possible. Malheureusement, il vient toujours un moment où il faut attaquer un peu de technique. Et pour parler des architectures des puces, il n’existe pas vraiment de moyens de faire autrement. Retenez donc juste que les puces sont attendues pour 2026 et que nous devrions avoir l’étendue des modèles proposés, leurs nomenclatures dévoilées et leurs tarifs annoncés en janvier lors du CES 2026.

Core à Core musclé

Outre les éléments liés à ses techniques de gravure dont je vous ai déjà parlé, il y a peu dans ce billet précédent, Intel annonce de nouvelles générations de cœurs dans ses puces.

Les coeurs « P » ne sont plus les mêmes que les précédents. On bascule ici sur une génération baptisée Cougar Cove5. Ils ont très logiquement été pensés dès leur conception pour bénéficier des avantages de la technologie de gravure 18A. 

Si Intel n’a pas fait toute la lumière sur ces cœurs, la société a confirmé qu’il s’agit ici surtout d’une optimisation technique plutôt que d’une révolution. Des éléments intéressants sont pourtant à l’œuvre. Comme le recours à une technologie prédictive pour adapter la demande de ressources aux besoins du système. Une solution de prédiction qui permet d’optimiser le rendement des puces. Du côté de la mémoire par exemple, ces cœurs sont capables d’anticiper des évènements et donc d’y répondre plus efficacement. Le fait de bénéficier d’une gravure plus fine semble également améliorer la vitesse d’exécution de ces anticipations.

Un des gros enjeux de développement depuis Lunar Lake semble être dans ces méthodes prédictives qui permettent de « préparer » des calculs avant qu’ils n’arrivent et donc d’y répondre immédiatement au moment où le programme sollicite la puce.

Les cœurs E et LPE sont désormais reconnus sous le nom de code « Darkmont »6 même si il s’agit d’évolutions de la génération « Skymont » des puces Lunar Lake précédentes. Là encore il a surtout s’agit d’augmenter les capacités à anticiper les besoins logiciels à venir.

Autre méthode ré-employée ici et descendante directe des générations précédentes, les nanocodes. Il s’agit de recettes toutes faites permettant aux processeur de résoudre des calculs complexes fréquemment utilisés sans réveiller réellement la totalité du cœur. Cela a évidemment un impact sur la consommation et l’efficacité du processeur. Darkmont est censé avoir plus de « recettes » de nanocodes et les effectuer plus efficacement. Sachant que certains programmes peuvent en aligner des quantités impressionnantes, l’impact est d’autant plus grand.

Autre élément intéressant dans cette nouvelle équation, la partie graphique. Depuis plusieurs années, Intel redouble d’efforts sur ce poste pendant longtemps laissé en jachère. La marque a compté sur le volume de ses ventes pour facturer un circuit graphique de base à ses clients sans chercher à en faire un véritable argument d’achat. Avec peu de concurrence, elle se plaisait à dire que c’était le premier fabricant de circuits graphiques PC au monde. Ce qui était le cas de fait puisque chaque processeur livré comprenait un de ses circuits graphiques.

L’arrivée de solutions concurrentes chez AMD a réveillé la marque de sa torpeur. Les puces Radeon d’AMD, équipées de cœurs graphiques très performants, ont obligé Intel à développer des puces plus nerveuses. Plus adaptées aux besoin d’un ordinateur moderne. Avec des compétences en décodage vidéo Ultra Haute Définition et des capacités en rendu 2D tout à fait satisfaisantes. Plus récemment Intel a proposé des puces aux performances 3D plus sérieuses. Panther Lake signe l’apparition de la toute dernière gamme de cœurs graphique de ces nouvelles générations. Gamme qui a sérieusement musclé son jeu. Panther Lake est l’occasion d’introduire le nouveau iGPU Xe3 (nom de code Celestial) qui apporte de sérieuses améliorations à un socle technique déjà très solide.

Selon les configurations, Xe3 pourra proposer jusqu’à 12 cœurs et 12 unités de ray tracing avec un cache L2 jusqu’à 16 Mo. Des spécifications qui vont de pair avec des nouveautés très prometteuses.

Des cœurs « Xe3 » qui pourront s’additionner pour atteindre 12 unités de calcul associées à des fonctions avancées de gestion de rendu et des modes de fonctionnement originaux. Ici, Intel n’hésite pas à annoncer une augmentation de ses performances pouvant atteindre 50%. De quoi basculer des processeurs Lunar Lake de la génération actuelle proposant déjà d’excellents services à des puces capables d’afficher programmes et jeux très confortablement.

Cette évolution va de pair avec une pratique de plus en plus répandue chez les développeurs de puces graphiques. La génération d’images par Intelligence Artificielle. Une technique qui consiste à laisser la puce « générer » plusieurs images intermédiaires entre les éléments vraiment calculés par le processeur. Imaginez vous devoir dessiner une scène pour un dessin-animé. La première image vous demandera beaucoup de ressources. Mais pour rendre la transition fluide vers la fin d’un mouvement dans une scène, il faudra dessiner énormément d’étapes transitoires. L’idée est de ne calculer entièrement que les étapes importantes et laisser un algorithme enrainé spécifiquement pour chaque jeu imaginer les étapes intermédiaires. Dépendant d’un autre mode de calcul, ces étapes demandent moins de ressources à la puce. Le rendu final est plus fluide avec plus d’images affichées par seconde.

Derniers éléments posés sur la grosse pizza d’Intel, d’abord un processeur Neuronal (ou NPU) affichant 50 TOPS en FP8. Ces solutions ultra spécialisées dans les calculs d’IA seront directement intégrées dans l’ensemble. Ensuite un IPU, une puce construite pour prendre en charge des capteurs vidéo, qui saura piloter trois caméras en parallèle. Tout en leur appliquant différents traitements en temps réel comme la réduction de bruit en basse lumière par exemple.

Intel joue ici très gros. Les puces Lunar Lake vont devoir séduire les fabricants qui ne manqueront probablement pas de répondre à l’appel. Il faut s’attendre à une annonce massive de nouveaux matériels pour le CES en janvier prochain. Pour le moment, les chiffres annoncés s’appuient sur les puces de la marque. Positionnant 
Panther Lake devant Lunar Lake. Le vrai pari pour Intel sera de trouver les justes équilibres. 

Ménager la performance et l’autonomie, proposer des capacités d’affichages suffisantes pour cette gamme de processeurs tout ayant la possibilité de s’adapter avec d’autres recettes. Et on pense évidemment au duo Intel / Nvidia qui se profile. Et séduire sur tous les autres postes : multimédia, IA, autonomie, chauffe mais aussi services avec l’intégration de fonctions comme le Wi-Fi7 et Bluetooth 6.0 par défaut, la possibilité d’exploiter des stockages ultra rapides, la prise en charge de connectiques avancées.

Le fondeur a réussi à redresser la barre et à mener sa barque loin des récifs. Reste à la piloter avec les capitaines que sont les marques pour qu’ils délivrent des produits bien calibrés. Le pire pour cette génération serait qu’elle soit traitée comme la précédente, sans l’optimisation nécessaire pour en tirer le meilleur parti.

Panther Lake, mieux comprendre le futur mobile d’Intel © MiniMachines.net. 2025

Comprendre le bonus-malus : un indicateur qui récompense ou pénalise votre conduite

10 octobre 2025 à 13:32

Lorsqu’on parle d’assurance auto, le bonus-malus reste un terme incontournable. Autrement dit : plus vous êtes prudent, moins vous payez...

Comprendre le bonus-malus : un indicateur qui récompense ou pénalise votre conduite est un article de Blog-Moteur, le blog des passionnés d'automobile !

Bien préparer sa voiture pour l’hiver : pneus, entretien et sécurité

Par :Patrick
6 octobre 2025 à 14:11

Certains conducteurs attendent les premiers gelées pour s’occuper de leur voiture, mais un entretien anticipé permet des dépenses inutiles...

Bien préparer sa voiture pour l’hiver : pneus, entretien et sécurité est un article de Blog-Moteur, le blog des passionnés d'automobile !

Accident de voiture : comment réparer votre carrosserie sans vous ruiner ?

3 octobre 2025 à 14:48

Bosses, rayures, portières pliées ou pare-chocs fissurés… Ces marques du sinistre transforment vite un incident en casse-tête logistique...

Accident de voiture : comment réparer votre carrosserie sans vous ruiner ? est un article de Blog-Moteur, le blog des passionnés d'automobile !

❌