Vue lecture

Guide : Installer un serveur sur MiniPC personnel

Cela fait longtemps que j’ai envie de publier un guide détaillant étape par étape comment installer un serveur sur MiniPC. Kevin m’en offre l’opportunité avec une approche détaillée nourrie de son expérience.  Ce guide, rédigé à quatre mains, vous propose de profiter d’un serveur de données parfaitement fonctionnel, efficace et économique. 

Un MiniPC totalement passif, l'idéal pour ce genre de mission puisqu'il ne va générer aucun bruit.

Un MiniPC totalement passif, l’idéal pour ce genre de mission puisqu’il ne va générer aucun bruit.

 

Installer un serveur sur MiniPC c’est facile ? long ? Cher ?

Si les craintes sont toujours grandes devant les efforts à accomplir, il est en réalité devenu assez simple d’héberger son propre petit serveur chez soi. S’il reste des étapes intermédiaires impossibles à dépasser et qui exigeront des compétences techniques extérieures à ce guide : comme l’ouverture d’un port sur son routeur. Le reste ne demande que de suivre les instructions à la lettre. D’un point de vue matériel pur, la chose est devenue triviale. Dans un placard ou dans un garage, dans une gaine technique pas loin de sa box opérateur, il suffit d’un MiniPC. L’investissement est minimal, les minimachines sont abordables et ne consomment pas grand chose. En quelques heures de temps, dans le pire des cas, pour une facture électrique minimale, il est possible de remplacer de nombreux services externes avec un engin personnel. C’est donc assez simple, rapide et économique. En plus de cela, la démarche vous libère de frais récurrents qui vous lient à des services externes.

Guide : Installer un serveur sur MiniPC personnel

Principes de base, choix et installation du système

Les usages d’un serveur personnel sont multiples et peuvent se combiner entre eux. On pense d’abord à l’hébergement de ses propres pages web. Si ce n’est plus vraiment l’usage le plus répandu, ce fut longtemps le vrai moteur de cette pratique. L’auto-hébergement étant bien moins couteux pour de petites structures associatives ou des artisans locaux que de louer un serveur externe. Aujourd’hui, il est devenu facile de proposer une page personnelle ou un petit site web sur la toile avec un simple PC classique.

Le choix d’un serveur personnel offre bien d’autres avantages à l’utilisateur. Cela permet par exemple de faire disparaitre la publicité sur tous les appareils connectés sur votre réseau avec Adguard Home. Ordinateurs, tablettes, téléphones, télévisions connectées éviteront de subir ce fléau débilitant. L’installation de multiples services de manière très simple permettra en outre de piloter de nombreux outils. Diffusion de vidéos et de musiques centralisées sur tout son réseau, automatisation de tâches avec N8N, gestion de mots de passe avec Vaultwarden, téléchargement automatisé avec Radarr, gestion des finances avec ActualBudget… Et mille autres emplois véritablement à la carte proposés par ce type de solution.

Pour de multiples raisons, l’installation se fera autour de la distribution Linux Ubuntu Server LTS 24.04. Le choix de cette distribution est pragmatique. Ubuntu est gratuit, mature et accessible. Il dispose d’énormément de documentation et de ressources en ligne. De quoi vous permettre de poursuivre au-delà de ce guide en répondant facilement à vos propres demandes et même de vous dépanner en cas de souci technique spécifique.

La version « Server » désigne une orientation spécifique d’Ubuntu. Une solution plus légère que la version classique qui ne fournit pas d’environnement graphique comme un bureau par exemple. Tout se fait en ligne de commande avec l’avantage d’une grande vélocité même sur de petites configurations. L’indication LTS est un acronyme « Long Time Support » qui indique une durée de mises à jour de sécurité qui va jusqu’à 5 ans. L’indication « 24.04 » indique simplement le numéro de cette version d’avril 2024.

Le Beelink MINI-S13 est un bon compromis pour un Mini serveur.

Le Beelink MINI-S13 est un bon compromis pour un Mini serveur.

Un MiniPC basique comme petit serveur 

Le choix est très large puisque n’importe quel MiniPC moderne devrait faire l’affaire. Le minimum requis est un processeur pas trop gourmand, 4 Go de mémoire vive et 128 Go de stockage. Un bon compromis est une solution de type Intel N100/N150 avec 8 ou 16 Go de mémoire vive et 256 Go de stockage de type SSD. Ce choix permet d’avoir un engin performant, économe en énergie et peu bruyant. Plus votre minimachine aura de mémoire vive, plus elle pourra assurer de tâches en parallèle. Plus le stockage sera important, plus il sera possible de stocker des données (films, musique, téléchargements). Il sera bien sûr possible d’ajouter des stockages externes au besoin.  

Il est plutôt déconseillé d’utiliser un « vieux PC » classique ou même un PC de type serveur à recycler. Ces engins seront probablement plus puissants mais au détriment de leur consommation, de leur encombrement et de leur bruit. Pour les tâches à accomplir, une minimachine basique fera mieux l’affaire ne serait-ce que d’un point de vue facture électrique. Le Beelink S13 est typiquement un bon choix parce qu’il propose deux solutions de stockage, un port Ethernet 2.5 Gigabit, une construction robuste et qu’il affiche en plus des fonctions particulièrement appréciables comme la possibilité de redémarrer automatiquement à la reprise de son alimentation après une panne de courant.

Avec un processeur Intel N150 il coute environ 250€ en version 12/500 Go en ce moment.

 

Les éléments indispensables

Premier élément, on l’a vu, un MiniPC. Il doit être prêt à l’emploi. C’est-à-dire complet et fonctionnel, prêt à démarrer. Il doit également être connecté à votre réseau local et donc à Internet. Pour réaliser l’installation du serveur, il faudra temporairement lui ajouter un écran et un clavier.

Deuxième élément, une clé USB vierge pour accueillir le système Linux afin de l’installer sur le MiniPC. Une clé de 4 Go suffira, essayez d’en choisir une en USB 3.0 minimum pour une installation rapide. Pour ma part j’ai un faible pour les Sandisk en métal. Ce ne sont pas les plus rapides mais elles sont extrêmement robustes. N’achetez pas une clé « 4 Go » car une fois l’installation terminée, vous pourrez réemployer la clé à autre chose. Un modèle 64 Go à 11-12€ sera un meilleur investissement. Si vous avez déjà une clé « publicitaire » ou autre de 4 Go, même lente, elle fera bien l’affaire.

Il vous faudra par ailleurs vous renseigner auprès du fabricant de votre routeur ou du distributeur de votre BOX ADSL/Fibre pour rediriger un port. Cette démarche étant dépendante de chaque matériel, il est impossible de proposer un guide vraiment détaillé. Une recherche avec les mots clés adaptés « port forwarding marque du routeur référence » ou « redirection port box nom-de-l-operateur » devrait vous aiguiller pour parvenir à vos fins. Vous trouverez néanmoins plus bas toute l’aide disponible pour parvenir à vos fins.

Certains éléments seront tout à fait optionnels mais ajouteront des fonctionnalités supplémentaires, comme l’exploitation d’un nom de domaine ou d’un sous-domaine. Si vous avez acheté votre propre domaine, cela permettra de profiter d’une adresse plus simple à retenir. La possibilité d’avoir une IP fixe associée à votre machine est également importante. Là encore, une multitude de guides et d’informations sont disponibles au cas par cas et le guide vous donnera des clés.

Préparation de la clé USB

Le travail d’installation est toujours le même : il faut d’abord télécharger le système à installer, le déplacer vers une clé USB en suivant un protocole spécifique, puis glisser la clé dans la machine que l’on veut installer. Pour mener cette tâche à bien on va commencer par télécharger Ubuntu en suivant ce lien. La page https://ubuntu.com/download/server propose d’autres options de téléchargement, en torrent notamment. À la fin de ce téléchargement, vous allez récupérer une image « ubuntu-xx.xx.x-live-server-amd64.iso » sur votre machine.

Pour le transfert de cette image vers votre clé USB afin que l’installation se lance vous avez plusieurs méthodes. Si votre PC habituel est sous Linux vous pouvez utiliser l’utilitaire Gnome Disks que vous pourrez installer sous la plupart des distributions via le paquet gnome-disk-utility. Lancez le et suivez les instructions pas à pas. Si votre PC est sous Windows, vous pouvez utiliser l’utilitaire Rufus que nous avons déjà croisé. Téléchargez-le en version portable ou installable et lancez-le. Puis, insérez la clé USB qui servira à monter l’image d’Ubuntu dans votre machine, si possible sur un port USB 3.0.

Un écran de ce type apparait. Cliquez en 1 pour bien sélectionner la clé USB que vous venez d’insérer et sur laquelle seront poussés les fichiers d’Ubuntu. Attention à choisir la bonne cible, Rufus va choisir par défaut des périphériques USB mais vérifiez bien qu’il s’agit du bon pour ne pas effacer de données.  En 2 vous allez trouver l’image d’Ubuntu Server que vous avez téléchargée. Cliquez sur « sélection » et pointez vers le fichier « ubuntu-xx.xx.x-live-server-amd64.iso ». Cela affichera le même type de démarrage que sur l’image ci-dessus. En 5 vous avez d’ailleurs un rappel de l’image utilisée.

En 3 vous pouvez modifier le nom du volume, ce n’est absolument pas nécessaire mais cela peut vous aider à reconnaitre la clé. En Rufus vous indique si tout est prêt pour lancer l’opération : la clé est bien identifiée par le système, l’image d’Ubuntu est chargée, il vous suffit de cliquer sur démarrer et de patienter pendant le transfert des données. Cela va prendre plus ou moins de temps suivant la vitesse de votre clé USB. Une fois l’opération terminée, enlevez la clé de votre PC et insérez-la dans votre MiniPC/futur serveur. 

Pour que votre MiniPC choisisse de lancer la clé USB et non pas son propre stockage, il va falloir entrer dans son BIOS en pianotant frénétiquement sur une touche dès le tout début du démarrage de la machine. Là encore, pas de solution miracle, la documentation technique de votre machine devrait vous indiquer quelle touche choisir. En général il s’agit de F1, de Suppr ou de Echap.

Une fois dans le BIOS, allez dans l’onglet BOOT (ou toute variation parlant de BOOT ou de démarrage) comme en 1 et repérez l’ordre des priorités de démarrage. Choisissez l’USB en Boot Option #1 comme visible ici en 2. Il est fort possible que votre machine identifie la clé par son nom et indique dans la liste « Ubuntu Server » ce qui facilitera le réglage. Appuyez ensuite sur la touche indiquée en 3 pour sauvegarder. Dans cet exemple, il s’agit de la touche F4. Allez ensuite sur l’onglet « Exit » en général tout à droite sur la barre supérieure en 4. Puis cliquez sur la touche indiquée pour sauvegarder vos réglages et sortir du BIOS. La machine va redémarrer sur la clé et passer à la suite des opérations.

On installe Ubuntu Server !

Premier problème à résoudre pour installer un serveur sur MiniPC, il faut lui trouver un nom ! Cela parait anodin mais c’est une étape importante puisque c’est ce nom qu’il va falloir retenir et partager avec famille, amis et contacts. Évitez donc les noms barbares et complexes mais peut être également les choses crues. Vous ne voulez pas épeler au quotidien Pléistocène ni avouer que votre serveur s’appelle kékédu78. Vous aurez par ailleurs besoin de ce nom pour accéder à votre serveur depuis l’extérieur. Pensez-y donc dès maintenant. 

Pour réaliser ce guide, Kevin a choisi comme nom de serveur « garage » et comme sous-domaine « garage.kgaut.net ». kgaut.net étant un nom de domaine lui appartenant. Un service installé deviendra donc un sous-domaine de ce sous-domaine. Par exemple service.garage.kgaut.net. Cela reste simple et lisible, facile à retenir.

Installer un serveur sur MiniPC

Une fois le MiniPC démarré avec la clé contenant Ubuntu, celle-ci est lue et vous propose cet écran pour passer à la suite. Pressez simplement la touche Entrée de votre clavier, le système va démarrer sur Ubuntu, cela peut prendre quelques minutes puis vous devriez arriver sur l’écran suivant.

La navigation durant toute l’installation se fera uniquement au clavier. Avec la touche tabulation ⇥ à gauche de votre clavier pour passer d’un champ à l’autre. Les flèches serviront à naviguer entre les options. La touche espace permettra d’activer et de désactiver une case à cocher et la touche Entrée validera vos choix. Choisissez donc votre langue favorite et faites Entrée, vous arriverez sur le choix de la disposition du clavier.

La disposition French / French correspond aux claviers AZERTY « classiques » disponibles en France. à l’aide de la touche tabulation naviguez ensuite jusqu’à « Terminé » et faites Entrée pour basculer sur le choix du type d’installation.

Nous allons installer une configuration par défaut, il suffira donc de faire Entrée pour arriver à la partie configuration réseau.

Si vous êtes en Ethernet, si votre MiniPC est directement branché avec un câble réseau sur votre BOX opérateur par exemple, la configuration réseau devrait être automatique. C’est la solution la plus simple. Si vous avez un module sans fil Wi-Fi, c’est également ici que vous pourrez scanner les réseaux disponibles afin d’en choisir un pour vous y connecter.

Une fois la connexion établie, faites Entrée pour configurer un éventuel proxy. Pour simplifier les choses, nous allons partir du principe que vous n’en avez pas et continuer sur une configuration standard. Laissez donc l’option Proxy vide et choisissez de passer à la suite en faisant « Terminé ».

Vient l’étape du choix du miroir. Ce nom désigne le serveur d’où seront téléchargés les éléments nécessaires pour assurer l’installation du système. Normalement, celui par défaut convient parfaitement, vous pouvez presser Entrée pour la configuration suivante.

Il s’agit de la gestion du stockage sur la machine. A priori là encore les options par défaut sont parfaites. Cela permet au système d’employer la totalité du stockage en créant un « groupe LVM » c’est à dire un système de volume logique. Cela permettra de partitionner plus facilement le stockage existant. Il vaut mieux éviter de chiffrer sa partition avec l’option « Encrypt the LVM group with LUKS ». Le souci de cette option est que cela oblige de pianoter un mot de passe au démarrage du MiniPC. Or nous n’allons probablement pas garder de clavier attaché à celui-ci. 

L’étape suivante est un simple récapitulatif des choix faits pour le stockage. En cas d’erreur, vous pouvez retourner en arrière ou simplement choisir Terminé pour lancer l’installation.

Le système vous demandera alors votre nom d’utilisateur, le nom de votre serveur et autres mots de passe. Ce dernier doit être robuste car il sera nécessaire pour tous les réglages futurs de votre serveur Ubuntu. Pas question d’employer des classiques comme 1234, password ou Louvre par exemple.

L’étape suivante vous invite à activer Ubuntu pro, une option qui offre un support plus long avec 15 ans de mises à jour. Cette option est gratuite pour une utilisation non commerciale limitée à 5 postes et payante pour un usage pro. Elle n’est pas forcément nécessaire pour un serveur de ce type, on pourra faire évoluer la machine facilement vers d’autres versions d’Ubuntu manuellement. Vous pouvez donc l’ignorer ou l’activer suivant votre profil.

Vous voilà sur une partie cruciale du dispositif, sa configuration SSH. C’est par ce biais que vous pourrez prendre le contrôle de votre machine dans le futur. Installer un serveur sur MiniPC se fait en direct avec un écran et un clavier mais à terme, le MiniPC sera seul et sans interfaces. Il faudra alors le piloter via une autre machine grâce à cette configuration SSH. Cela permettra notamment d’utiliser des clés d’authentification plus pratiques que des mots de passe à rallonge.

Choisissez donc d’activer l’installation du serveur OpenSSH en cochant la case à l’aide de la touche Espace une fois que vous l’avez en mis en focus avec la touche tabulation1. L’interface nous propose d’ajouter immédiatement une clé SSH, ce n’est pas la peine. Il sera plus confortable de le faire plus tard. 

Passez donc à l’étape suivante en choisissant Terminé.

Le système propose ensuite d’installer des outils par défaut. Vous pouvez passer cette étape et aller à la suite.

Le système se déploie ensuite progressivement sur le stockage du MiniPC. Suivant votre port et votre clé USB cela peut prendre plus ou moins de temps.

Quand l’installation est terminée, le système vous invite à redémarrer le MiniPC. Choisissez cette option. La machine va vous demander de retirer la clé USB de votre MiniPC pour ne pas redémarrer dessus puis le système va ensuite se relancer. Cette fois-ci sous Ubuntu Serveur. Bravo, vous avez terminé cette première phase.

Le premier écran est… sobre. Le système vous demande simplement de vous identifier avec les éléments indiqués en amont : nom d’utilisateur et mot de passe. Une fois que vous aurez montré patte blanche, vous pourrez passer à la suite.

Prise en main du serveur

/!\ Il est possible de copier-coller les lignes de commande dans votre terminal avec la combinaison de touches Ctrl + Shift + v /!\

La première étape consiste à installer les éventuelles mises à jour de l’ensemble des paquets du système. Pour cela deux lignes de commandes très simples :

Pour le chargement des mises à jour disponibles, pianotez : sudo apt update
Pour le lancement de ces mises à jour : sudo apt upgrade

Cette fameuse commande sudo est une indication pour le système que vous voulez éxecuter quelque chose. Elle résume l’ordre « Super User DO » qui indique que vous avez le droit de le faire en tant qu’administrateur du serveur. C’est pour cette raison qu’Ubuntu va systématiquement vous demander votre mot de passe afin d’exécuter l’action. L’air de rien, vous pouvez déjà ajouter « Admin Linux » dans votre CV.

Le système liste ensuite les opérations qu’il va effectuer, vous demande de confirmer en appuyant sur O et entrée. Une fois cela fait, on peut passer à la suite.

Pour pouvoir piloter le MiniPC à distance, il va falloir tester sa connexion SSH. C’est seulement après cette étape qu’il sera possible de débrancher clavier et écran. La première chose à faire consiste donc à connaitre l’IP de la machine, c’est-à-dire son adresse sur votre réseau local. On utilise pour cela la commande ip -c a 

Celle-ci va révéler l’IP de la machine. Ici l’IP est 192.168.1.214, chez vous ce sera très probablement différent. Cela dépend de chaque réseau local. À ce stade, personne ne peut accéder à votre machine directement depuis internet.

Depuis un autre PC, ouvrez un terminal2 depuis une autre machine reliée au même réseau que votre nouveau serveur et tapez la commande : ssh USER@IP

Dans le cas présent cela donne : ssh kevin@192.168.1.214 

Il est possible que lors de votre première connexion vous ayez un avertissement car c’est la première fois que vous vous connecterez à cette machine en SSH. Validez puis entrez votre mot de passe et vous serez alors connecté. Vous pourrez ainsi exécuter exactement les mêmes actions que dans les premières étapes de ce guide. Mais en étant à distance depuis votre machine habituelle. C’est magique !

Définition d’une ip fixe

L’IP de votre serveur est attribuée d’office par votre routeur ou votre box internet. Cela pose un problème assez classique. Cette source peut décider de changer cette adresse après un redémarrage par exemple. Or, comme on l’a vu, elle est désormais nécessaire pour se connecter en SSH et prendre le contrôle du MiniPC. Il faut donc définir une IP et la « fixer ». Il est évidemment impossible de présenter une solution pour toutes les configurations de Box proposées par les opérateurs ou des routeurs de l’ensemble des fabricants. Le plus simple est donc de donner en pâture à votre moteur de recherche favori des mots clés choisis comme « assigner IP fixe [Modèle de Box] » pour trouver comment faire. De nombreux guides sont disponibles mais tous varient en général autour des mêmes thèmes. Il faut se connecter à sa Box via son navigateur internet. S’identifier, aller dans la gestion des réseaux et chercher les options DHCP / IP Fixe.

Un exemple de configuration dans un routeur

Un exemple de configuration dans un routeur

Pour ce qui est de l’adresse IP en elle-même, vous pouvez choisir ce que vous souhaitez si cela peut vous aider à la mémoriser. Le plus simple est tout de même de garder celle qui a été affectée automatiquement par le serveur.

Certains routeurs demandent d’affecter chaque adresse IP Fixe à une adresse MAC. Cette dernière est unique et sert de signature pour votre matériel. C’est une sorte de N° de série unique pour chaque produit. Là encore, des guides sont disponibles sur Internet pour trouver l’adresse MAC de votre MiniPC Serveur facilement en pianotant une ligne de commande. Avec ipconfig /all vous allez trouver son adresse MAC à la ligne Physical Adress. Cela ressemblera à quelque chose comme 5E:FF:56:A2:AF:15. En faisant pointer l’adresse IP Fixe de votre routeur vers l’adresse MAC vous lui expliquez ce qu’il doit faire du trafic qui pointe vers cette IP. 

Une fois cette étape passée, vous pouvez être fier de vous. Vous pourrez dire que vous savez installer un serveur sur MiniPC. Vous allez pouvoir débrancher le clavier et l’écran de la machine et la positionner où bon vous semble.

Un peu de sécurité pour la connexion SSH

L’emploi d’une connexion SSH est déjà sécurisé, c’est un protocole robuste. Mais pour améliorer les choses nous allons effectuer plusieurs réglages. Il est tout à fait possible de ne pas suivre à la lettre toutes ces recommandations. Elles sont indépendantes et facultatives, il est cependant recommandé de les effectuer. Ce n’est pas très long et bien plus sécurisant.

  •  Changement du port SSH par défaut.

Le port SSH classique est le port 22. C’est une règle d’installation commune sur la majorité des systèmes. Ce qui est un indice important pour toute personne cherchant à pénétrer votre réseau. En laissant ce port sur 22 par défaut, vous leur indiquez tout simplement la voie à suivre pour tenter de percer votre mot de passe. C’est par ce port par défaut que viendront la plupart des tentatives d’attaque. Il est donc très intéressant de le changer pour un port moins classique.

Pour l’exemple, nous allons basculer ce port 22 vers le port 21422. Pour cela on va modifier la configuration de openssh

Sur votre ligne de commande pianotez sudo vim /etc/ssh/sshd_config 
vim est un éditeur de texte disponible depuis le terminal qui va permettre de modifier ce fichier sshd_config de manière à lui indiquer un nouveau port. Ainsi, une fois ouvert, le fichier vous indique sur sa ligne 23 : #Port 22
Passez vim en mode insertion en appuyant sur la touche i, enlevez le # de la ligne pour activer l’ordre d’indiquer un port précis puis changez 22 par 21422

Vous aurez donc désormais à la place de #Port 22 une ligne qui se résume en Port 21422

Appuyez sur Echap pour arrêter l’édition du document, appuyez ensuite sur w pour écrire (write) le fichier et donc le sauvegarder. Puis sur q pour quitter vim.

Vérifiez que le nouveau port est correctement renseigné en pianotant cat /etc/ssh/sshd_config | grep "Port"

Si tout est correct, vous pouvez redémarrer le service SSH en indiquant sudo systemctl restart ssh

Ouvrez alors un second terminal sans fermer le premier, il est recommandé d’utiliser un autre terminal en plus de celui déjà connecté. Comme cela, en cas de souci de configuration, vous ne serez pas coincé en dehors de votre serveur. Après un redémarrage, votre prochaine connexion en SSH exigera la précision du nouveau port choisi puisque Ubuntu Server n’utilisera plus le port par défaut.

Dans notre exemple, au lieu de pianoter ssh kevin@192.168.1.214 il faudra ajouter le port dans votre demande de connexion avec ssh kevin@192.168.1.214 -p 21422. Le -p associé au numéro du port choisi fera ce travail.

  • Désactiver la connexion SSH du compte root

Le compte root est défini comme le « Super Administrateur » de votre serveur sous Linux. Ce compte a absolument tous les droits, même celui de faire des bêtises. Par mesure de sécurité, il est très fortement recommandé de désactiver la connexion SSH en mode root par défaut, surtout si votre serveur est un jour ouvert vers l’extérieur. S’il est vraiment nécessaire d’effectuer des actions d’administration qui demandent ce mode, il sera toujours possible d’utiliser l’instruction sudo, comme nous l’avons fait jusqu’à présent. Concrètement, avec ce type de serveur, l’utilisation du compte root est très rarement nécessaire.

Pour désactiver cette connexion root par défaut, il va falloir de nouveau modifier la configuration ssh via le fichier /etc/ssh/sshd_config. 

Vous pouvez donc pianoter à nouveau sudo vim /etc/ssh/sshd_config puis rechercher la ligne 42 :

#PermitRootLogin prohibit-password 

Vous devez modifier la ligne comme suit en appuyant sur i :

PermitRootLogin no

En pensant bien à enlever le # en début de ligne pour éviter que le système ignore votre commande. Appuyez sur Echap, w, q comme plus haut. Puis redémarrez le service SSH :

sudo systemctl restart ssh

  • Activer la connexion uniquement par clé SSH

Toujours dans le but d’accroitre la sécurité d’un serveur Linux directement exposé sur internet, il est possible de se connecter à celui-ci sans mot de passe. En utilisant uniquement une paire de « clés » beaucoup plus sécurisées. 

Dabord une clé privée qui doit absolument rester confidentielle et disponible uniquement sur la machine depuis laquelle vous vous connecterez au serveur.
Ensuite une clé publique qui sera une réponse à la première, présente sur les machines sur lesquelles vous souhaitez vous connecter et donc notre serveur.

Il est fortement recommandé que chaque clé privée ne soit attachée qu’à une seule et unique machine. Si vous voulez vous connecter avec un terminal de smartphone, un second PC ou autre, il faudra en générer de nouvelles. Votre clé publique peut quant à elle être présente sur plusieurs serveurs. Il est également tout à fait possible qu’un serveur dispose de plusieurs clés publiques afin d’autoriser la connexion depuis plusieurs machines différentes.

Pour générer cette paire de clés, la méthode est assez simple. Depuis le PC de connexion que vous voulez authentifier à votre serveur Ubuntu il va falloir pianoter quelques lignes de commande. Sous Linux c’est simple, un terminal suffira. Sous Windows vous devrez utiliser PowerShell3 que vous appellerez avec la commande touche Windows + Powershell.

ssh-keygen -t ed25519 -C "kevin@monpcfixe"

Le premier ordre demande la génération d’une clé SSH, le code ed25519 indique au système d’employer un chiffrement très résistant aux attaques. La partie entre guillemets est un commentaire supplémentaire. Il permet d’identifier plus facilement la clé. Cette syntaxe pseudo@nom_machine permet de faire un tri plus rapide sur ses serveurs et ainsi d’éventuellement révoquer des clés caduques.

Si le chemin par défaut vous convient, vous pouvez appuyer directement sur Entrée pour lancer l’opération. Sinon précisez simplement le chemin d’enregistrement de votre choix comme dans l’exemple ci-dessus. Le système va également vous demander d’écrire une passphrase. Un mot de passe qui vous sera demandé à chaque utilisation de la clé SSH. Cette dernière étape est optionnelle. Si vous ne souhaitez pas ajouter de passphrase, faites simplement Entrée.

Vous avez désormais les deux clés sur votre machine habituelle, rien sur le serveur distant sous Ubuntu pour le moment. Il va falloir y remédier.

Dans l’exemple ci dessus le fichier minimachine est la clé privée, à ne surtout pas diffuser et à garder sur la machine qui se connecte. Le fichier minimachine.pub est la clé publique que l’on pourra transmettre au serveur sur le MiniPC. Pour envoyer cette clé sur le serveur installé sur son MiniPC, il faut utiliser la commande suivante:

ssh-copy-id kevin@192.168.1.214 -p 21422

Évidemment il faudra modifier cette commande pour refléter vos propres réglages. Changer le nom kevin par votre nom choisi plus haut. Indiquer la bonne adresse IP ainsi que le nouveau port retenu. Après avoir appuyé sur entrée, il faut s’authentifier encore une fois avec son mot de passe. 

Le système indique ensuite de tester sa connexion.

On pianote donc à nouveau un ssh kevin@192.168.1.214 -p 21422 depuis un terminal en l’adaptant évidemment à vos propres réglages, et on peut observer que l’authentification se fait sans mot de passe.

Voilà, vous avez fait les premières étapes d’installation et de sécurisation de votre minimachine comme serveur. Pour la suite, Kevin prépare plusieurs choses importantes. La première sera d’ouvrir le serveur vers l’extérieur puisqu’à ce stade il n’est accessible qu’en réseau local. Cette étape nécessite le passage en IP fixe décrit dans ce guide. Sinon les entrées extérieures ignoreraient comment s’orienter vers le MiniPC. A terme, on pourra utiliser un nom de domaine simple a retenir plutôt qu’une adresse IP.  

Pour assurer une couche supplémentaire de sécurité, il sera utile d’installer un outil qui surveillera les tentatives de connexion. Fail2ban permet par exemple de repousser toutes les tentatives de connexion pour la durée de votre choix après trois échecs d’une adresse IP. Cela évite d’avoir un serveur robot qui va tenter de pénétrer votre système des centaines de fois chaque minute en testant tous les mots de passe possibles. 

Une fois que tout cela sera fait, nous pourrons découvrir les joies de l’hébergement de fichiers, du téléchargement, du partage de vidéo et autres gestions de mots de passe.

A propos de Kevin :

Kevin est développeur et formateur indépendant php et spécialisé sur le CMS Drupal. Il aime bidouiller des infrastructures cloud mais aussi plus traditionnelles comme un bon vieux petit serveur dans son garage… Vous pouvez en savoir plus sur son travail sur le site kgaut.net. Il est par ailleurs présent sur Mastodon à l’adresse @Kgaut

Guide : Installer un serveur sur MiniPC personnel © MiniMachines.net. 2025

  •  

La hausse de la mémoire vive va impacter tout le secteur

On suit l’évolution de la hausse de la mémoire vive depuis plusieurs semaines en se focalisant surtout sur la flambée des prix de ces produits particuliers. On a également pu observer un impact sur d’autres appareils comme les MiniPC, les portables et les cartes de développement. Car évidemment, c’est enfoncer une porte ouverte de le dire, mais tous les appareils qui contiennent de la mémoire vive, vont augmenter leurs tarifs.

C'était le bon temps, avant la hausse de la mémoire vive

C’était le bon temps, avant la hausse de la mémoire vive

Ce que certains ne réalisent peut être pas encore, c’est que la hausse de la mémoire vive va pareillement impacter les composants qui n’en contiennent pas ou pas encore. WCCFTech relate ainsi une baisse de 40 à 50% des ventes de cartes mères par rapport à 2024. Baisse tout à fait compréhensible puisque si le budget alloué pour une mise à jour technique n’est plus respecté avec la hausse de la mémoire vive, c’est tout un projet qui tombe à l’eau. Personne ne va acheter une carte mère en cette fin 2025 en espérant une baisse des tarifs de la DDR dans la foulée.

Si on peut raisonnablement penser que cette chute de moitié des ventes en novembre est également liée à une situation particulière en 2024 avec une période de ventes plus fastes et un Black Friday plus marquant. Cela n’en est pas moins inquiétant. Dans le lot des marques les plus impactées, on retrouve sans surprise les fabricants les plus grand public : Asus, Gigabyte, MSI et ASRock. Les constructeurs de cartes mères professionnelles ou de serveur sont logiquement moins sujets à être ralentis.  Et c’est d’autant plus vrai que tous les modèles de nouvelles cartes mères ont basculé vers la DDR5. Quasi plus aucun fabricant ne propose de cartes en DDR4. A raison d’ailleurs puisque la DDR4 est autant impactée que les autres. On imagine assez facilement que les autres dominos vont suivre.

16 Go mini

La hausse de la mémoire vive va faire chuter les ventes de toute l’informatique

Car une baisse des ventes de cartes mères impacte logiquement tous les autres secteurs. Ce sont des processeurs qui ne sont pas vendus, des dissipateurs et des ventilateurs à poser dessus, des boitiers, des unités stockages, des alimentations… Et, probablement dans une moindre mesure, mais tout de même : claviers, souris, écrans et accessoires variés. Même les logiciels vont être à la peine, les licences de Microsoft pour commencer.

Les serveurs d’IA, au cœur de cette problématique avec leur appétit vorace pour la mémoire vive, jettent consciencieusement des pelletées de sable dans les rouages de tout le secteur. Et cela ne devrait pas se calmer. Suivant les analystes, cette extension démentielle de serveurs devrait perdurer jusqu’en 2027… À moins que cela ne déraille avant et que la « bulle IA » n’éclate avant. 

Les cartes graphiques, les smartphones, les tablettes, les portables, les PC complets comme les MiniPC vont être impactés. Plus encore qu’on ne le pense. Certains constructeurs prévoyant déjà une « marge de manœuvre » pour anticiper une éventuelle poursuite de la hausse. À la fois parce qu’ils estiment que la situation va perdurer et empirer. Mais aussi pour éponger pour certaines pertes liées à la fourniture de matériel basée sur des contrats signés sur des tarifs antérieurs.

Alors que certains analystes parient sur une hausse prochaine pouvant atteindre encore 100% de plus d’ici les quelques jours qui nous séparent de 2026, la situation devient réellement très compliquée.

hausse de la mémoire vive

Quelques anticipations pour l’année prochaine

L’appétit de l’ogre va empirer, les fabricants de mémoire vive vont avoir du mal à proposer assez de composants mémoire pour la satisfaire et surtout les contrats passés entre le clients historiques que sont les grandes marques de portables et de composants commerciaux vont finir. Rendant ainsi les fabricants libres de toute nouvelle tarification. L’arrivée de contrats courts, collant plus au marché, est probablement ce qui nous attend dès le second trimestre de 2026. Au lieu de lissser leurs prix sur une année complète, les fabricants de mémoire vont determiner un tarif par lots. Ce qui suivra plus précisément la hausse.

Je ne serais pas surpris que des minimachines en tous genres débarquent donc en force en version barebone. C’est à dire livrées sans mémoire vive, sans stockage et sans système. Quand cela est possible puisque beaucoup de constructeurs ont choisi de basculer des références sous mémoire LPDDRx, des composants soudés directement sur la carte mère. Même topo pour les portables dont les prix vont soit s’envoler, soit leurs composants dégradés, soit être livrés nus. En laissant l’acheteur se débrouiller pour trouver lui-même sa mémoire vive. Cela signerait le retour en force de solutions livrées avec 8 Go de mémoire vive par défaut, au prix des solutions que l’on a connu il y a quelques mois en 16 ou en 32 Go de mémoire vive. Portables et MiniPC seraient livrés avec moins de mémoire et probablement moins de stockage pour le même tarif ou pour plus cher. On a vu que des solutions comme les Raspberry Pi, particulièrement impactées par la hausse, baissaient la capacité de leur mémoire vive.

Une carte graphique entourée de mémoire vive

Les cartes graphiques pourraient exploser encore une fois puisque Nvidia – et peut être AMD dans son sillage – réfléchirait à ne plus fournir de package processeur graphique et mémoire GDDR aux fabricants. Les achats autrefois mutualisés par Nvidia de ces composants qui lui permettaient de vendre ses puces, se faisant alors directement par les constructeurs de cartes graphiques. Ce qui entrainerait mécaniquement une hausse. Cela n’est qu’une rumeur pour le moment mais cela a du sens au vu du contexte.

Que va-t-il se passer pour le secteur des pièces détachées ? Difficile à dire pour le moment même si deux scénarios peuvent s’envisager. Le premier est une baisse des tarifs du stock existant pour l’écouler coute que coute.  Le second est un statu quo avec une baisse de la production et une augmentation des prix pour conserver un chiffre d’affaires décent. Dans tous les cas, nous assisterons sans doute à une reconfiguration complète du paysage des pièces détachées. Les constructeurs actuels, qu’ils fabriquent des alimentations, des dissipateurs ou des boitiers, vivent sur leurs volumes. Si leurs volumes baissent, leur situation se complique.

L’autre domino qui risque de se faire mal à cause de cette hausse de la mémoire vive, c’est l’emploi. Outre le fait qu’une baisse de production va ralentir l’activité, on sent que l’arrivée de l’IA donne des excuses toutes faites pour licencier. Cela sera évidemment le cas sur les chaînes de fabrications qui vont baisser leurs cadences. Mais cela pourrait également impacter les antennes des marques en France tout comme entrainer la chute de plusieurs revendeurs qui vont devoir encaisser le gros coup de frein appuyé sur leurs ventes et leur chiffre d’affaire.

Vers une amélioration pour 2028 et après ?

Difficile de savoir ce que sera le marché en 2028. Cela dépend pour beaucoup du succès des géants de l’IA. Si la situation continue et que plusieurs entités se bagarrent toujours pour avoir la plus  grosse capacité de calcul, il n’y pas de raison que la hausse de la mémoire vive ne s’arrête. Certes, certains fabricants de mémoire retroussent leurs manches pour augmenter leur production. SK Hynix par exemple a indiqué multiplier sa production de composants mémoire par huit pour 2026. Mais cela ne veut aps dire que cette arrivée en masse de nouvelles puces ne sera pas absorbée directement par les serveurs d’IA. On a également vu que de nouveaux constructeurs comme le fabricant chinois CXMT pourrait venir au secours de son industrie. Mais cela ne serait sans doute pas suffisant pour faire face aux défauts de production orientée vers le marché PC. 

Pour vous dire à quel point l’avidité des fabricants de mémoire vive est devenue importante: la branche Samsung qui fabrique la mémoire vive pour le groupe aurait refusé de livrer de la mémoire à la branche smartphone du même groupe. Mémoire nécessaire pour lancer la production du prochain Galaxy S26. En cause, une augmentation drastique du prix du composant mémoire nécessaire. Le module de 12 Go de LPDDR5X serait passé de 33$ en début d’année à 70$ aujourd’hui. Si un constructeur ne se fait pas de largesses à lui même pour suivre le marché, il ne faut pas s’attendre à ce qu’il en fasse à des clients classiques.

Au final, la hausse de la mémoire vive risque d’avoir des conséquences très compliquées pour le marché PC comme pour l’emploi dans les années à venir. Certes, des grandes entreprises d’IA vont émerger aux US. Elles vont embaucher quelques personnes pour veiller à la bonne marche de leurs énormes datas center. Elles vont employer ponctuellement des sociétés pour faire sortir de terre des structures colossalles. Mais, à terme, l’emploi généré sera faible. Très faible même face aux risques encourus pour l’emploi chez les constructeurs de PC traditionnels. Et tout l’écosystème de marques, grossistes et revendeurs qui en découle. Les structures qui vivent du marketing lié à ce marché vont également en pâtir. Je ne serais vraiment pas surpris qu’on constate d’ici 2028 un déficit important sur le secteur. Et cela aussi bien sur ses ventes que sur son emploi. Avec des effets en cascade probablement encore difficiles à déterminer tant ils sont tentaculaires.

La hausse de la mémoire vive va impacter tout le secteur © MiniMachines.net. 2025

  •  

Steam Machine 2025 : l’évolution technique et conceptuelle de Valve

Valve a annoncé le mois dernier la sortie de trois produits simultanément. La Steam Machine 2025, un parfait exemple de minimachine dédiée au jeu. Le Steam Controller, une manette de jeu pensée pour l’accompagner. Et le Steam Frame, un casque VR compatible avec l’ensemble et pouvant fonctionner de manière autonome. Dans ce billet, je vais surtout m’intéresser ce que tout cela signifie pour Valve.

L'Alienware Steam Machine de 2015 n'a pas été réellement commercialisée en masse

L’Alienware Steam Machine de 2015 n’a pas été réellement commercialisée en masse

La Steam Machine 2025 ou la revanche de Valve

Dix ans après son premier essai, Valve revient donc dans les salons avec une nouvelle Steam Machine. Pour prendre un peu de recul et comprendre les étapes passées ces dix dernières années, il est nécessaire de faire un petit bilan sur la tentative de 2015. À l’époque, Valve est déjà Valve. À savoir un grand studio de développement de jeu à la tête de licences importantes. Un studio reconnu comme un très bon développeur, capable de proposer des jeux au succès international de manière répétée. Valve est par ailleurs à la tête de Steam, magasin de distribution de jeux en ligne et véritable clé de voute d’une bonne partie de cette industrie.

Cette boite en bois contenait en 2015 les prototypes des Steam Machines de Valve.

Cette boite en bois contenait en 2015 les prototypes des Steam Machines de Valve.

Ce que n’est pas encore Valve en 2015 par contre, c’est un fabricant de matériel. La marque n’a aucune expérience dans le domaine. Ce sont des développeurs. Pour lancer leur premier modèle de Steam Machine, la stratégie adoptée est alors assez simple. La marque va bien concevoir sa propre solution materielle mais ne la distribuera pas. Ce sera une série de prototypes n’ayant pas d’autre rôle que de faire du marketing. L’éditeur va par contre développer son propre système d’exploitation et le proposera à tous ses partenaires. La première Steam Machine de Valve aura donc servi uniquement de cobaye technique et de produit marketing. Ce sont des constructeurs plus classiques qui seront en charge de proposer leurs propres PC sous Steam OS. A eux de les produire et de les distribuer. Valve reste donc encore un concepteur de logiciels et ne change pas de ligne. Elle accepte tout juste de proposer une manette qui collera avec les usages de son projet. En 2015 la société ne fabrique pas de console à destination du public.

Valve met en scène la fabrication de sa manette dans cette vidéo assez hypnotisante

Je ne dirais pas que c’est un échec…

Cette stratégie n’a pas très bien fonctionné. La Steam Machine de 2015 a rencontré plusieurs problèmes majeurs. D’abord son écosystème logiciel n’était pas adapté à la mission qui lui était confiée. La proposition SteamOS ne parvenait pas à faire mieux ni même souvent aussi bien que Windows en terme de jeu. Les tests montraient qu’il était contre productif pour un joueur d’acheter une Steam Machine. Un jeu lancé sous Steam OS fonctionnait souvent moins bien que sur un engin équivalent sous Windows. Pire encore, énormément de titres phares n’étaient pas compatible. Valve s’est manifestement jeté à l’eau bien trop tôt.

Alienware Alpha, la seule vraie Steam Machine commercialisée en masse.

Second souci, tout aussi grave et découlant entièrement du premier, personne n’y croyait vraiment. Des marques ont semblé jouer le jeu en proposant un engin sous Steam OS. Mais personne n’a réellement cherché à poursuivre la distribution de ces machines. Très vite, on a compris que tout le monde s’était frotté à Valve pour profiter de sa lumière marketing. Puis était reparti de son côté pour reprendre son train-train de PC sous Windows. Cela s’explique par plein de raisons différentes, dont une en particulier : la grande dépendance des fabricants de PC envers Microsoft. Le papa de Windows était alors le détendeur de la seule formule efficace pour vendre des PC grand public. Prononcer le mot Linux en présence de constructeurs de machines avait en 2015 le même effet que sortir un chapelet de gousses d’ails à une réunion de vampires.

L'assembleur français Materiel.net avait lancé sa propre Steam Machine, en espérant sans doute de manière très sincère sa réussite.

L’assembleur français Materiel.net avait lancé sa propre SteamMachine, en espérant sans doute de manière très sincère sa réussite.

Microsoft était également à ce moment-là une des principales aide au marketing dans l’informatique grand public. Il finançait des campagnes de pub massives pour leurs partenaires. Les froisser en proposant un système alternatif, c’était donc risquer de perdre cette manne. Pour certains, le pari a été de tenter de faire pression sur l’éditeur en leur montrant que vendre un PC sous Linux était possible. Mais leur stratégie réelle n’était pas de vendre des engins sous Steam OS; c’était d’essayer de baisser les prix de Microsoft. Ils ont certes sorti une Steam Machine, fait un peu de pub en ligne et parcouru des tas de salons où ils l’ont exposée. Mais ils n’en ont quasiment pas produit ni vendu.

Le démarrage de l’Alienware Alpha sous Windows ou sous Windows + Steam Big Picture

L’aventure a donc tourné court. Certains constructeurs, ceux qui n’avaient pas trop investi dans le projet, ont simplement rangé leurs prototypes sur une étagère. Un des seul acteur à avoir vraiment créé une solution de ce type a été Alienware. Mais la marque a simplement eu dès le départ l’idée d’en détourner le concept. Lançant en parrallèle deux versions d’un même engin, le premier sous Steam OS et le second sous Windows. Au final, l’Alienware Steam Machine s’est rapidement transformée en Alienware Alpha pour sa commercialisation. Et au lieu d’un fonctionnement sous SteamOS, cette version Alpha proposait au démarrage de basculer sous un Windows 8.1 normal, soit de basculer sous Windows 8.1 mais en lançant le mode Big Picture de Steam par défaut. Mieux que rien pour Valve mais pas vraiment le soutien espéré.

La première Steam Machine n’a donc pas survécu.

Dix ans plus tard, Valve revient à la charge dans un contexte qui a énormément changé. L’éditeur est devenu entre temps un véritable constructeur de PC. Il a prouvé ses compétences techniques en la matière avec le Steam Deck. La console mobile a été pensée, développée et optimisée en interne. Elle s’est depuis vendu à des millions d’exemplaires2 ce qui est un succès incroyable pour un engin grand public proposant du jeu sous Linux. Cette réussite a confirmé plusieurs choses qui sont très importantes pour comprendre la nouvelle Steam Machine.

D’abord que la philosophie de Valve, différente de tout ce que les constructeurs de PC et de consoles ont toujours tenté, est viable. Ensuite que leur Steam OS avait toute sa légitimité sur le segment du jeu PC. Enfin, et c’est très important, que Valve n’avait pas besoin de passer par des constructeurs tiers pour réussir. Si la première console Steam Machine a tenté de séduire des partenaires pour se lancer, la seconde est totalement autonome. Valve va la construire, la mettre en avant, lui fournir son système et la distribuer. Conception, production, marketing et distribution. Tout seul. Tous les risques et les bénéfices de l’opération. Mieux encore, si cela fonctionne, les constructeurs et le grand public, devraient suivre.

Le marché du jeu a également largement évolué.

Le marché du jeu a également largement évolué.

Un marché du jeu qui a été transformé

Valve a compris une chose très importante avec sa console portable Steam Deck. Le marché du jeu vidéo a énormément changé ces dernières années. Si la majorité des constructeurs de machines de jeu dans le monde PC et dans le monde console continuent à mettre en avant la performance brute comme seul critère de qualité. Les joueurs ont quant à eux largement fait évoluer leur mentalité. Le succès du jeu indépendant a sans doute contribué à cette réalisation, mais le simple fait que des consoles comme la Switch de Nintendo soit un succès a montré qu’il existait d’autres voies. 

J’y vois plusieurs  phénomènes se télescoper. D’abord, les anciens « gamers » ont vieilli. Moins de temps disponible pour jouer avec une vie de famille, du travail et des responsabilités. Moins d’envies également face aux jeux ultra compétitifs qui demandent des machines ultrapuissantes mais aussi des réflexes qui s’émoussent avec le temps et le manque de pratique. Ces joueurs ont donc changé leurs habitudes et ne vont plus s’orienter vers les titres les plus gourmands. Leur appétit a créé de nouvelles catégories de joueurs qui ne jurent pas forcément par la performance pure.

Steam Deck

Ensuite l’augmentation du nombre de joueurs ne s’est pas fait forcément dans la même direction qu’auparavant. S’il y a plus de joueurs en 2025 qu’en 2015 ou en 2005, leur appétit n’est plus du tout le même. Les « gamers » des années 2000-2010 étaient forcément des passionnés d’informatique. Il fallait tout de même encore beaucoup remonter ses manches pour jouer sur PC dans de bonnes conditions il y a 20 ans, ce n’est plus le cas aujourd’hui. En 2025 un ordinateur classique permet de jouer très convenablement à des tonnes de jeux grand public. Le marché s’est donc logiquement « amateurisé ».

Le jeu Among US a connu un succès planétaire avec d'autres ressorts que la qualité graphique...

Le jeu Among US a connu un succès planétaire avec d’autres ressorts que la qualité graphique…

Pour accompagner ce mouvement, il y a eu l’explosion du jeu sur smartphone et tablettes avec tout un univers de nouveaux titres et de nouvelles pratiques de jeu. Des  développeurs indépendants ont envahi les étagères de Steam en proposant des titres qui auraient paru bien étranges à un joueur des années 2000. Acheter un jeu qui consiste à nettoyer au laveur haute pression tout un pâté de maison ? Cela ne semble pas très drôle a priori et pourtant le jeu a connu un grand succès. Certains jeux sont devenus des expériences sociales plus que des concours de nombre de pixels à l’écran : Fall Guys, Among Us et bien d’autres n’exigent pas des configurations folles. Pas plus qu’un niveau de pratique délirant. Chacun peut y jouer et trouver ses marques rapidement. Les gros éditeurs à succès ont tout fait pour rendre leurs jeux compétitifs les plus facile d’accès. Ainsi des succès majeurs de ces dernières années comme Fortnite ou League of Legend peuvent se jouer sur une foule de plateformes. Pas besoin d’avoir une machine très haut de gamme pour s’y frotter.

Enfin, un marasme matériel s’est installé et a fini par lasser des joueurs avec des hausses de tarifs à répétition. Beaucoup ont fini par jeter l’éponge et ne plus avoir envie de mettre à jour leur machine. Acheter une nouvelle carte graphique était juste un plaisir coupable pendant des années. Cela coûtait cher, mais c’était rentabilisé par la possibilité offerte de jouer à de nouveaux titres avec de belles progressions en performances. Avec des prix qui ont flambé plus que de raison ces dernières années, c’est devenu pour beaucoup un investissement désormais non seulement impossible mais surtout totalement déraisonnable. Il y a 10 ans, ne pas avoir une configuration vraiment performante vous empêchait de lancer énormément de nouveautés. Aujourd’hui ce n’est plus le cas. Des machines qui ont plusieurs années peuvent encore proposer d’excellentes prestations de jeu. Quitte a dégrader quelque peu la qualité de l’image en baissant des détails ou sa définition.

L’ensemble de ces éléments se sont alimentés entre eux. Les développeurs ont compris qu’ils n’étaient pas obligés de forcer la main des joueurs pour qu’ils s’équipent toujours mieux. Certains grands succès du jeu aujourd’hui tournent parfaitement sur de configurations modestes. Mieux, une bonne partie du public ne cherche plus forcément des effets graphiques a couper le souffle. 

Un regard qui a également évolué sur le matériel

C’est d’ailleurs très visible sur ce marché particulier. Le budget des joueurs n’a pas vraiment disparu, il s’est déplacé. De moins en moins de monde ne va accepter de mettre à jour la totalité de sa machine ou même de changer de carte graphique au vu des prix des composants. Il n’en reste pas moins que les joueurs sont capables de dépenser leur argent. Simplement, ils le font autrement, de manière plus diluée. Cela donne de nouvelles dépenses. Avant, un joueur changeait de carte graphique ou de processeur régulièrement. Désormais, il se fait plaisir avec un bon clavier, un casque audio de qualité, une meilleure souris, un bon écran, un setup de streaming ou une chaise adaptée. Le budget est toujours présent, quasi toujours le même sur l’année. Mais les joueurs trouvent plus de satisfaction dans des accessoires que dans des composants. C’est assez amusant de voir quelqu’un qui refuse catégoriquement de dépenser 700 ou 900€ dans une nouvelle carte graphique ne se rend pas vraiment compte qu’il en a dépensé autant en un an dans des accessoires luxueux pour jouer. Le marché gaming a réussi a dégouter les joueurs de son haut de gamme. Pas par manque d’appétit des premiers intéressés pour plus de performances. Mais par simple calcul.

Un portable de jeu très classique

Un portable de jeu très classique

Le problème des constructeurs de PC classiques est également lié à leur dépendance totale dans un écosystème qu’ils ne maitrisent pas. Ils sont totalement attachés à Microsoft pour réaliser leurs ventes et doivent par ailleurs compter sur des fournisseurs pour exister : AMD, Intel et Nvidia fournissent à eux trois quasiment toute la matière nécessaire au renouvellement de ce marché. Ce sont eux qui lancent les nouvelles puces, fournissent les raisons de mettre à jour les machines et participent aux financements publicitaires des marques. Il est impossible aujourd’hui pour un constructeur traditionnel comme Asus, Dell, HP ou Lenovo de lancer un ordinateur de jeu sans compter sur la force de frappe et le discours marketing de leurs partenaires materiel.

Regardez un PC portable « Gaming » de marque et comparez le à un portable concurrent. Qui raconte une histoire derrière ? Le fabricant ? Non. Plus vraiment. La partie design est devenue quasi identique partout. Ou alors elle est totalement secondaire puisque les machines sont presques toutes pareilles. Ce qui prime c’est le listing des composants qu’on ne voit pas. Les puces embarquées, la mémoire, le stockage. La qualité de la dalle de l’écran a parfois plus d’impact que la marque du fabricant. Si AMD, Intel et Nvidia ne sortaient plus de nouvelles puces, le marché PC n’aurait plus d’histoire a raconter pour vendre ses machines.

Steam Machine 2025

Valve est loin de tout cela. La marque fait certes appel à AMD pour ses processeurs mais ce n’est pas ce poste qu’elle a mis en avant. D’ailleurs, si la presse s’est immédiatement employée a tenter de traduire ce que la puce de la Steam Machine allait proposer par rapport à un processeur plus classique, la marque s’est gardée de tout rapprochement de ce type. Le constructeur ne propose pas un PC comme les autres, la marque vend une expérience de jeu qui se détache très clairement du materiel pour s’approcher d’une expérience plus simple. On retrouve ici le mélange de deux inspirations très fortes. D’abord celle d’Apple qui s’est depuis longtemps débarrassée du syndrome de la performance brute pour s’orienter vers une expérience plus globale. En reprenant les rennes de la totalité de son materiel et de son logiciel, Valve suit en partie le chemin de la marque à la pomme.

SteamOS est la clé de voute de l’opération. C’est le fruit de nombreuses années de développement. Si on considère l’ambition de 2015 de la marque et donc des années passées a le développer en amont, SteamOS doit bien être au stade d’une adolescence avancée. Ce travail de longue haleine a permis de sortir de l’ornière de la concurrence. Cela a payé pour le Steam Deck avec des résultats qui dépassaient de loin ce qu’aurait pu proposer la même solution équipée à l’identique sous Windows. Non seulement cela a permis de proposer de meilleures performances mais également de se débarrasser du problème poser par Windows dans le jeu.

L’autre point clé important à saisir pour comprendre la naissance de cette Steam Machine si différente du reste du marché vient de l’esprit de Valve lui même. Pour bien comprendre l’enjeu derrière cette machine, il faut se rappeler la philosophie qu’a appliqué la marque depuis toujours. Cette vieille vidéo d’un jeune Gabe Newell explique un rouage important de la marque. La question posée à l’époque concerne le piratage des jeux et à quel point cela pose un problème à Valve.

La réponse de Gabe Newell est alors assez simple. Pour lui le piratage n’est pas un problème qu’il faut résoudre par plus de sécurité pour empêcher la copie illégale des jeux. Ce n’est pas non plus le résultat d’un problème de tarification. Le piratage c’est juste la conséquence d’un mauvais service. Les gens piratent parce que les jeux vidéos sont pénibles a acheter et a utiliser. Si le service s’améliore, le piratage va mécaniquement baisser. Et le temps a prouvé que sa vision était juste.

Ce mantra éclaire énormément de choses dans le fonctionnement global de Steam. Simplifier l’achat, rendre l’usage d’un jeu confortable. Vous voulez un jeu ? Il suffit d’avoir une carte bleue. Le titre acheté sera associé à votre compte, téléchargeable rapidement depuis des serveurs bien dimensionnés. Disponible quand vous le souhaiterez. L’éditeur sort une mise à jour ? Elle est automatisée sur Steam qui fait tout le boulot à votre place. Vous cherchez une solution parce que vous êtes coincé dans votre progression ? Une communauté est là, sur les pages du jeu, pour vous aider. Vous avez un bug ? Idem. Vous avez aimé le jeu ? Pas de soucis, Steam peut en recommander plein d’autres du même genre. Steam n’est pas parfait, loin de là, mais pour ceux qui ont connu les queues devant les magasins spécialisés pour acheter une boite avec un CD de jeu et une documentation ridicule. Jeu qu’il fallait installer d’abord avant de télécharger une mise à jour énorme. Jeu qui exigeait que vous glissez la galette de plastique dans votre lecteur pour démarrer… Tout les efforts menés par Valve ont bien changé la donne. En proposant un meilleur service aux joueurs, Steam les oriente vers ses pages et les détourne du piratage.

C’est cet axe là qu’il faut avoir en tête pour comprendre la création de la Steam Machine 2025. J’ai regardé toutes les interviews des équipes de Valve que j’ai pu trouver au sujet de cet engin et lu un maximum d’articles. Plein de choses m’ont fasciné mais la plus importante a été la philosophie des ingénieurs en charge de sa conception. Vous savez quel est le premier élément qui a été construit pour démarrer le projet Steam Machine ? Son ventilateur. Le gros ventilateur qui sert à refroidir l’ensemble.

Les ingénieurs de Valve ont commencé par construire une solution de dissipation qui leur a donné un chiffre. Celui du TDP adapté au format qu’ils envisageaient pour la minimachine. Cette base de travail a permis de demander à AMD des puces spécifiques. Sur mesures. Des composants qui devaient donner le maximum de performances dans un certain cadre de refroidissement. Le processeur comme le circuit graphique devaient pouvoir fonctionner sans chauffer ni forcer le ventilateur a monter dans les tours. Valve est parti de la nuisance sonore qui pourrait incommoder le joueur pour décliner tous les composants de son produit. Et tout est de cet ordre là. J’en parlais dans mon billet sur la Steam Machine : l’usage de la manette qui allume la console, la manette qui se magnétise au dock de charge, les LEDs qui préviennent de la fin du téléchargement. Le boitier pas trop encombrant. Le système qui se maintient à jour tout seul. Les antennes Wi-Fi séparées pour améliorer les débits… 

Vous voyez la différence d’approche ? Tout est pensé depuis le point de vue du joueur et non pas depuis l’objectif de faire tourner un jeu. Ce n’est pas le jeu à la mode qui dicte la liste des composants. L’idée est de se demander comment les clients de Valve vont réagir face à l’engin. Quels sont les points de friction qui pourraient en limiter l’usage ? Comme pour le Steam Deck, tout est pensé pour faciliter le jeu. Pas pour promettre simplement d’afficher plus de pixels, dans des plus hautes définitions. Non, on veut pas jouer plus vite, plus fin ou avec plus d’informations à l’écran. On veut que le l’acheteur soit simplement mieux servi. Qu’il soit content de l’expérience de jeu. Pourquoi ? Parce qu’un utilisateur satisfait va tout simplement commander des jeux sur Steam. Ce n’est pas plus compliqué que cela.

Quand un constructeur traditionnel développe une machine de jeu, ce n’est pas sa façon de la concevoir. Je vous en parlais au sujet de HP et de la hausse de la mémoire vive. Son objectif premier est de coller à une grille tarifaire précise. Une case dans son catalogue. Seconde idée, trouver un argumentaire qui, dans le cadre du jeu, est toujours le même : des performances les plus élevées possibles. Il prend donc un ensemble de jeux réputés pour leur gourmandise et d’autres plus populaires et les passe à la moulinette de son produit. Il en ressort des chiffres. Un nombre d’images par seconde censé indiquer la meilleure jouabilité possible. Si cela a une certaine logique, c’est un calcul qui oublie un élément central de l’équation : le joueur. Pour singer cet élément, la recette est toujours la même. Mettre en scène un joueur professionnel qui est censé incarner la réussite en matière de jeu. Sauf qu’a bien y regarder, les joueurs pros n’ont pas la même approche du jeu que ceux promus par les constructeurs. Leur materiel et différent et ils n’embarquent jamais un écran en ultra haute définition par exemple.

Ce qui est intéressant avec la Steam Machine 2025, c’est d’avoir compris tout cela. La marque ne promet pas les meilleurs chiffres possibles en jeu. Pas de 300 images par seconde dans tel ou tel titre à la mode. Elle vous promet simplement de la jouabilité sur une grande part de votre catalogue. Sans bruit, sans pop-up de publicité intempestif déguisé en « service ». Sans un système d’exploitation compliqué ni de manipulations hasardeuses. Sans même devoir saisir un clavier pendant toute la vie du produit. Valve promet du confort au joueur parce que la marque part du joueur pour construire sa machine. 

Pour le Steam Deck on a vu que c’était le meilleur calcul. La meilleure publicité pour la console portable a été faite directement par ses clients. J’ai vu les plus dubitatifs des acheteurs face au système tomber sous le charme de cet engin. Des témoignages déclencher des achats. Des vieux joueurs n’ayant plus trop de temps pour ce loisir se mettre a écumer leur fond de catalogue de jeux inachevés du jour au lendemain. J’ai vu des machines débarquer dans des forums, des entreprises, des groupes de copains et faire des remous chez les autres. D’un premier acheteur en pause le midi entouré de ses collègues. Puis trois qui s’éclatent en coop, puis cinq, puis dix personnes décidant que leur prochain achat informatique ne serait pas une nouvelle carte graphique mais cette machine portable.

Et je pense que cette formule mobile a également toutes ses chances de fonctionner dans les salons.

À gauche, un ingénieur de chez Valve, vous ne verrez jamais un "communicant" avec les bras dans le dos dans cette position en retrait.

À gauche, un ingénieur de chez Valve, vous ne verrez jamais un « communicant » avec les bras dans le dos dans cette position en retrait.

Une vision très rafraichissante du marché

Un  point intéressant chez Valve est dans son approche technique. Quand la presse US a été invitée a dialoguer avec Valve pour la présentation de la Steam Machine, qui a t-elle rencontré ? Pas des commerciaux ni des communicants spécialisés. Pas des joueurs stars mis en avant comme des ambassadeurs de la marque. Non, ce sont les ingénieurs en charge du produit qui ont été dépêchés au contact de la presse. Les personnes qui ont réfléchis et conçu l’objet. Qui y croient. Ceux-là même qui pouvaient justement expliquer leur cheminement technique. Pas toujours super à l’aise, on le sent, devant les caméras et les personnalités de certains vidéastes. Mais des gens qui savent vraiment de quoi ils parlent et qui ont un avis tranché et argumenté sur les choix qui ont été faits. L’exemple type est dans cette vidéo de Gamers Nexus où une question très technique est gérée de manière directe et précise. Allant au delà même de la question initiale avec foule de détails. Je peux vous assurer que ce genre de question est généralement sans réponse dans une présentation presse classique chez un fabricant de PC lambda.

Autre élément vraiment très appréciable dans cette communication… Valve n’a aucun agenda a vendre au sujet de l’IA et cela se ressent. La marque va bien utiliser une solution de génération d’image FSR basé sur l’IA mais elle n’en fait pas tout un plat. L’engin ne cherche pas a mettre en avant un assistant quelconque ou un service exploitant ce type de technologie. Si vous avez suivi l’évolution du marché informatique ces derniers mois, c’est peut être la seule conférence de presse depuis plusieurs trimestres a ne pas vous parler d’Intelligence Artificielle. 

Mieux encore, la marque ne promet pas de trucs fous, n’emploie pas des mots à tord et à travers, ne lance pas de superlatifs délirants toutes les deux phrases. La vidéo de présentation se concentre sur les éléments techniques et pratiques que la console et sa manette apportent. Sur du concret. Sur le confort apporté au joueur et le côté ludique de l’engin. Et pas la promesse que votre nouvel achat va vous transformer en Newton, Mallarmé ou Vélasquez.

Valve se fait également un malin plaisir a rappeler une évidence que certains ont tendance a oublier. La Steam Machine 2025 sera votre machine, pas celle du constructeur. Vous en ferez bien ce que vous voulez. Si vous désirez installer un autre système d’exploitation, la désosser, la mettre à jour, grand bien vous fasse. On vous offre même la possibilité de la customiser.

La Steam Machine 2025 n'est pas "condamnée" au jeu.

La Steam Machine 2025 n’est pas « condamnée » au jeu.

Cet ensemble d’éléments est tout simplement devenu inimaginable chez la majorité des constructeurs : parler à un ingénieur ? Impossible. Les envoyer présenter le produit et inviter en face d’eux des gens qui savent de quoi ils parlent ? Encore plus fou. Ne pas plier le genou face à l’IA et à l’immense vague de pognon qui pourrait venir vous submerger en prêtant allégeance à telle ou telle entreprise ? Simplement délirant.

Je ne dis pas que Valve est une boite parfaite avec une vision utopique du monde, mais son approche reste vraiment purement technique, et cela fait énormément de bien de le constater.

La Steam Machine 2025 a tout pour réussir

Valve a dans ses cartons un outil en avance sur les autres marques. Pas en termes techniques mais d’un simple point de vue usages. Si les constructeurs traditionnels se sont servi du projet en 2015 pour attirer les projecteurs avant de l’abandonner. Ils n’ont plus rien fait depuis. Aucune grande marque de PC à l’international n’a vraiment travaillé à son indépendance. Tous sont strictement tenus en laisse par les constructeurs de puces et Microsoft. C’est triste à dire mais regardez un PC de 2015 et un PC de 2025 et vous avez la même machine. Celle de 2025 sera certes plus rapide avec plus de fonctionnalités mais elle n’apportera rien de fondamentalement innovant. Un peu de biométrie par-ci, des écrans plus définis, un stockage plus rapide, plus de mémoire vive etc. Mais fondamentalement les deux engins sont dans la même logique : proposer toujours plus de performance. Le Steam Deck et par extension la nouvelle Steam Machine, font un pas de côté. Le but recherché n’est pas la performance brute, c’est le confort de l’utilisateur. Et le confort c’est important pour un joueur.

Ce qui est amusant au final c’est qu’en 2015 Valve comptait sur des partenaires pour qu’ils intègrent son système d’exploitation. En 2025 déjà on voit des constructeurs se rapprocher d’un Valve qui ne demande plus rien pour profiter de son Steam OS dans leurs machines. On voit également que le projet a débordé dans le monde réel avec de nombreuses distributions Linux basées sur le travail de développement de Steam OS. Des milliers d’installations sauvages sur des PC classiques comme sur des consoles concurrentes prouvent déjà le succès de la formule.

Valve a mis 10 ans a relancer sa Steam Machine mais a semble-t-il d’ores et déjà gagné son pari.

Avec ce billet, je voudrais rendre hommage à Dan Field qui viens de nous quitter, bien trop tôt. Si vous n’avez pas connu ce vidéaste Français sur Youtube, il a été un véritable défricheur pour toute une génération de joueurs à la recherche de pépites dans le jeu indépendant. Jeux dont je vous parle justement dans ce billet qui ont fait venir toute une nouvelle population de personnes vers le monde PC. Véritable passionné, Dan a proposé pendant de très longues années un contenu vidéo riche et foisonnant. Il avait énormément d’interactions avec sa communauté, travaillait a présenter le travail de nombreux développeurs indépendants et semblait d’une douceur et d’une gentillesse indéboulonnables.

Steam Machine 2025 : l’évolution technique et conceptuelle de Valve © MiniMachines.net. 2025

  •  

La Chine établit de nouvelles règles pour les batteries USB

En juillet, je vous parlais de graves problèmes rencontrés par le marché des batteries. Pour résumer le souci en quelques lignes, des fabricants de ces accessoires très populaires ont commencé à rappeler leurs produits suite à plusieurs incidents assez graves. Départs de feu, incidents pendant des vols commerciaux, explosions de batteries USB et même des drames suite à des incendies aussi violents que rapides.

Le gouvernement chinois a décidé de regarder d’un peu plus prêt le marché des batteries USB et a exigé que tous les modèles passent désormais obligatoirement par un organisme de contrôle. Sans cette vérification, il devenait impossible de vendre les produits en Chine mais aussi plus difficile de les utiliser. Les compagnies aériennes notamment ont décidé de bannir tout modèle ne présentant pas cette certification.

batteries USB

batteries USB

Que s’est-il passé avec les batteries USB en Chine ?

C’est une histoire assez classique. Comme les fabricants de batteries emploient des composants qu’ils ne fabriquent pas, ils font appel à des sous-traitants. Ces derniers proposent des produits avec différents niveaux de qualité qui vont se retrouver ensuite dans plusieurs types de produits. Quand un fabricant d’ordinateur portable achète des cellules de batterie pour ses appareils, il choisit un composant de qualité. Le risque qu’une mauvaise batterie endommage la totalité d’un produit onéreux est trop grand. Mais quand une marque fabrique une batterie USB, le prix est majoritairement composé par le coût des cellules qu’elle contient. La partie électronique et l’emballage sont bien moins importants dans l’équation.

Vous voyez le problème ? Quand une sous marque va décider de se lancer sur le marché, elle va choisir la seule voie possible pour se distinguer : le prix de vente. Elle ne peut pas lutter contre le marketing des grandes marques. Elle ne peut pas non plus briller en recherche et développement. Elle fait donc au plus simple, prend tous les raccourcis et achète les composants les plus entrées de gamme pour lutter sur le prix. Au passage, elle va éviter de faire certifier son appareil puisque cela coute cher mais surtout cela aurait des chances de ne pas passer les contrôles qui peuvent être drastiques. Enfin, elle ment sur la capacité de son produit. Proposant une batterie 40 000 mAh sur le packaging alors qu’elle n’embarque que 10 ou 15 000 mAh de cellules. Avec cette recette, elle est beaucoup moins chère que les marques et peut trouver preneur.

En grignotant des parts de marché ainsi, des centaines de sous marques ont lentement érodé le secteur. Les grandes marques ont commencé à avoir du mal à justifier leurs tarifs. Si tout le monde voit bien la différence entre un restaurant étoilé et une enseigne de fast-food, c’est plus difficile de faire comprendre pourquoi untel vend une batterie 40 000 mAh à 19€ alors que la marque propose 20 000 mAh pour le double.

Face à cette concurrence déloyale, certaines marques ont décidé de baisser la qualité de certains de leurs produits. Acheter des cellules moins cher, ne plus passer les certifications et gonfler les capacités artificiellement pour des gammes « low cost » plus accessibles. Histoire d’améliorer leurs ventes. Le problème pour ces industriels c’est que, contrairement aux marques noname aux noms exotiques que l’on trouve désormais en pagaille, ils peuvent et ils doivent rendre des comptes.

Et c’est exactement ce qu’il s’est passé cet été. Suite aux divers incidents graves qui ont eu lieu, le gouvernement chinois a décidé de durcir les règles de commercialisation. 

Des incidents de vol à cause de batteries mobiles défectueuses ont réveillé les autorités Chinoises

Des incidents de vol à cause de batteries USB défectueuses ont réveillé les autorités Chinoises

 

Un second tour de vis avec une certification plus stricte

Désormais, le gouvernement chinois va plus loin. La certification reste évidemment obligatoire, mais elle va être plus draconienne avec des tests plus poussés. Dès le mois de juin prochain, il sera impossible de vendre une batterie légalement en Chine sans une nouvelle certification. Aujourd’hui, les fabricants doivent respecter la norme actuelle et les distributeurs tout autant. Ce qui veut dire que si un contrôle surprend un commerçant qui distribue une batterie non certifiée, il risque une amende, la confiscation de son stock et sa destruction à ses frais. Il n’y a pas eu de « moratoire » ni de période pendant laquelle les vendeurs et les industriels ont pu écouler leurs marchandises non conformes. Comme il s’agissait d’un risque pour le public, ces produits non certifiés ont tout simplement étés bannis.

Dès le mois de juin prochain, ces produits actuellement conformes ne le seront plus à leur tour. La Chine laisse donc six mois aux industriels pour se mettre à jour avec de nouveaux impératifs. La bonne nouvelle, c’est que pour avoir cette nouvelle certification et vendre des batteries USB, il va falloir proposer des solutions beaucoup plus sérieuses dans leur conception.

Des batteries USB qui communiquent avec l’utilisateur

Outre les éléments déjà en place, la nouvelle norme va imposer une lecture facile de l’état technique de la batterie. Deux moyens sont possibles. Le premier passera par une interface intégrée à l’objet qui donnera le détail de sa charge. Un petit écran LCD qui affichera la capacité restante, les protocoles employés, la vitesse de charge mais aussi l’état de santé des cellules, le nombre de charges qu’elle ont connues et la puissance réellement embarquée. Des éléments qui sont relevés par les puces des modèles de grandes marques qui utilisent des technologies de charge avancées mais qui ne sont absolument pas gérées par les composants d’entrée de gamme. 

L’ajout de cet écran aura évidemment un coût alors une parade logicielle pourra être trouvée. Le fabricant pourra proposer une application qui ira lire les informations de la batterie pour renseigner l’utilisateur sur son smartphone via un bête câble USB. 

Deux remarques par rapport à ce premier poste. D’abord, rien n’empêchera un fabricant peu scrupuleux de proposer de fausses informations sur un petit écran. Indiquer 40 000 mAh quand la batterie n’en propose que 10. Déclarer un seul cycle de charge en sortie d’usine malgré l’emploi de cellules recyclées. La différence c’est que si une marque fait cela, elle ne fabrique pas seulement un produit low-cost non certifié, elle fabrique un produit interdit et peut donc être poursuivie pour cela. Ce n’est plus une amende qu’elle risque, c’est une peine beaucoup plus lourde.

L’autre point est la destination de cette communication. On imagine que le propriétaire de cette batterie communicante sera ravi de savoir que son appareil en est à 300 cycles de charge ou qu’elle envoie 15 watts vers son smartphone. Mais ces éléments, l’acheteur les connait déjà d’une manière ou d’une autre. Il sait qu’en ayant acheté sa batterie il y a deux ans et en la chargeant en gros une fois par semaine, elle est à un certain nombre de charges. Il sait également qu’elle envoie du 15 watts vers son smartphone parce qu’il l’a achetée pour ça. Le véritable destinataire de ces informations est donc quelqu’un d’autre et je suis tenté de croire qu’il s’agira des autorités chinoises. En particulier des personnels en charge des embarquements d’avion. Il suffira de brancher une batterie à un appareil de contrôle pour vérifier son état et autoriser ou non, sa présence à bord d’un appareil.

Une durée d'utilisation recommandée de 5 ans

Une durée d’utilisation recommandée de 5 ans

Cela, couplé à une obligation pour le fabricant d’indiquer la date de fabrication et une date d’exploitation recommandée, seront des indices forts pour l’acheteur et les autorités. La nouvelle norme imposant en effet pour le constructeur d’indiquer si la batterie a une durée d’usage estimée en années. 2, 3 ou 5 ans suivant un certain protocole de charge. Ce qui indiquera à l’acheteur la qualité de l’électronique et des cellules embarquées.

Un appareil de test d’impact classique

La nouvelle norme va plus loin

La norme actuelle effectue déjà des tests assez lourds : résistance aux chocs, à la température, aux vibrations et même à l’impact. On sait ce que donnent certains composants chimiques au contact de l’eau ou de l’air. Des combustions et des explosions spectaculaires. Pour éviter ces risques, les nouvelles batteries USB devront passer des tests encore plus complets pour avoir le droit à une certification.

Le test d’impact imposera de résister à une charge équipée d’un poinçon montée sur un appareil de test. C’est une procédure assez standard dans l’industrie mais capitale dans le monde des batteries. Un protocole précis servira à évaluer la résistance de la coque des batteries pour éviter une déformation qui pourrait toucher les cellules ou un percement encore plus grave. 

Des tests de résistance aux vibrations pour évaluer leur impact sur les soudures, élément qui peut faire entrer les batteries en court-circuit. Et même un passage au four des différents modèles avec pour mission de sortir vivant et non altéré d’une cuisson à 135 °C pendant une heure. Un scénario catastrophe qui évitera de transformer une batterie oubliée sur un tableau de bord de voiture en été en bombe artisanale.

Les mesures classiques de surcharge ou de mauvaise utilisation seront évidemment toujours d’actualité. Avec la généralisation du format USB Type-C à de plus en plus d’appareils, il ne faut pas qu’une batterie réagisse mal à une surcharge. Ici, elle pourra même alerter d’un souci en cas d’utilisation d’une source non adaptée via son petit écran intégré.

50 000 mAh pour 20€, vraiment ?

Une excellente nouvelle pour le consommateur

Le premier réflexe est de se demander quel impact aura cette nouvelle norme sur son pouvoir d’achat. Combien vont couter ces nouvelles batteries ? La réponse est assez simple, dans tous les cas, ce sera forcément moins cher. 

D’abord la norme aura pour effet de débarrasser les places de marché de tous les modèles « noname » qui polluent l’offre normale. Ces modèles sont certes fort peu chers, mais ils ont tous les défauts du monde. Ils mentent sur leurs capacités réelles et quand on rapporte leur tarif à leur véritable pouvoir de charge, se retrouvent souvent au-dessus des solutions de grandes marques. Ils sont dangereux de par leur conception et les composants qu’ils utilisent. Ils peuvent également poser des soucis de surtension pour les appareils que vous branchez dessus. Leur existence n’est liée qu’au simple fait qu’ils mentent aux clients finaux. Ils ont fait croire qu’il était possible de proposer 56 000 mAh dans un objet de 200 grammes à 20€. 

Oui, le ticket d’entrée du marché sera plus élevé . Pas en euros par rapport aux capacités réelles mais simplement sur la somme déboursée en amont pour obtenir un de ces engins. Aujourd’hui, il ne faut qu’une poignée d’euros pour obtenir une batterie noname qui « suffit » bien à l’utilisateur. Tout le monde ferme les yeux sur les matériaux utilisés et les risques incendies. Avec la bonne vieille méthode d’auto persuasion du « ça n’arrive qu’aux autres » au sujet des incendies. Demain, il faudra dépenser plus pour une batterie plus efficace, garantie dans la durée, communicante et capable de réellement charger plusieurs fois votre smartphone avant de la mettre elle même sur secteur.

On achètera bientôt une batterie USB de qualité, une fois tous les 3 ou 5 ans, à 40 ou 50€. Au lieu d’en acheter une par an à 15 € en essayant de se faire croire qu’on a oublié son prix global. C’est non seulement bon pour son portefeuille mais également excellent pour sa santé mentale et la planète. C’est en effet un bon moyen d’éviter la génération d’énormément de déchets électroniques.

batteries USB

J’achète ou j’attend ?

Que faire alors ? Attendre juin 2026 pour acheter une batterie USB ? Si vous pouvez attendre, attendez. Avoir un modèle développé avec ces nouvelles fonctions sera évidemment positif. Mais si vous regardez le marché actuel vous avez déjà des marques qui proposent des engins répondant presque au cahier des charge évoqué. Les grands noms de la batterie ont fait évoluer leurs gammes depuis un moment. L’idée de l’écran qui indique le niveau de charge est probablement né des modèles existant qui le proposent déjà. Si vous avez besoin d’un de ces accessoires aujourd’hui piochez simplement dans les catalogues des bonnes marques : Anker, Baseus, Ugreen, Samsung, Xiaomi…

Le vrai risque est en fait lié à la fin de traine du marché noname. Dans les mois qui vont venir, tous les modèles bas de gamme vont dévisser et leurs tarifs s’effondrer. Les vendeurs qui inondent les places de marché vont baisser les prix de leurs batteries bas de gamme parce que cela leur coutera moins cher de les vendre à perte que de devoir les envoyer au recyclage. Ils vont donc tenter de vous proposer leurs produits dangereux et mensongers par tous les moyens possibles.

Il faudra donc absolument résister à ces offres de batteries « 20 000 mAh » proposées à quelques euros seulement. Cela sera dans tous les cas une mauvaise affaire.

 

Ugreen Nexode 130W : 20 000 mAh de bonheur mobile (promo à 49.99€)

Source : ITHome

La Chine établit de nouvelles règles pour les batteries USB © MiniMachines.net. 2025

  •  
❌