Vue normale

Asus et les fabricants de PC, les yeux pris dans les phares du Macbook Neo

23 mars 2026 à 16:36

Il y a quelques jours, Monsieur S.Y. Hsu, un des principaux dirigeants d’Asus, expliquait que l’annonce du MacBook Neo était un véritable choc. En pleine crise des composants, avec une mémoire vive inaccessible et des hausses de prix en cascade, de nombreux autres acteurs du monde PC ont réagi de la même manière. Si seul un dirigeant d’Asus en a fait l’écho dans les médias, toutes les bases de toute la galaxie PC historique ont tremblé.


« Historiquement, Apple a toujours été positionné sur des prix élevés. Proposer un produit aussi abordable est un choc pour toute l’industrie. » S.Y. Hsu. Asus. 

 

Tout le monde savait qu’Apple préparait un ordinateur « abordable ». La rumeur courait depuis plusieurs trimestres et de nombreuses fuites avaient déjà éventé la surprise. La seule inconnue, je devrais dire le seul espoir, que partageaient encore les industriels du monde PC, était le positionnement de gamme de cet engin. L’annonce d’un MacBook Neo à 599€ pour les étudiants et 699€ pour monsieur tout le monde a finalement été brutale. Ce portable se positionne sur l’entrée de gamme est le seul véritable élément de surprise qui tenait encore un peu la route au moment de l’annonce. Beaucoup d’acteurs espéraient encore une solution de gamme supérieure quelque peu bradée par Apple. Un portable qui aurait donné un peu plus de souffle au monde PC. Un monde qui ne sait plus vraiment comment répondre sur le terrain des machines les plus accessibles. 

Ce choix d’Apple, porté sur l’entrée de gamme, fait donc grincer des dents. On n’a jamais vu un MacBook aussi peu cher. Ce choix tarifaire est précis, il n’est clairement pas né du hasard. Ce prix correspond à une tranche particulièrement visée par les constructeurs de PC classiques sous Windows. Il s’agit d’un budget d’entrée sur le marché. Celui que consentira un jeune couple qui s’installe. Un étudiant qui se lance dans un cursus de FAC ou d’école prépa. C’est également le montant accordé par beaucoup pour un achat informatique en général. C’est le « price point » des gens qui ont besoin d’un ordinateur mais qui ne s’intéressent pas spécialement à l’informatique. Autrement dit, un segment important du marché. Un segment qui peut potentiellement faire très mal aux concurrents sous Windows.

On comprend donc le désarroi des marques comme Asus qui, face à ce nouveau concurrent sur un segment épargné par l’ombre habituelle d’Apple, découvrent qu’ils ne sont plus à l’abri de sa concurrence. Qu’ils vont devoir faire au moins aussi bien, si ce n’est mieux. Et ça ne sera pas facile.

À gauche le EeePC de 2007. À droite le Macbook Neo de 2026

À gauche le EeePC de 2007. À droite le Macbook Neo de 2026

Et pourtant, ce désarroi est difficile à comprendre. Surtout pour Asus.

En 2007, j’étais encore dans le business, je vendais encore des PC. Je côtoyais alors les commerciaux des grandes marques de portables et leurs représentants. J’ai vécu la période de l’annonce des netbooks d’Asus. Ses fameux EeePC 701. Des engins qui se présentaient comme une alternative au monde portable traditionnel avec un tarif jamais vu alors de 299€. Chez les concurrents, j’ai vu passer toutes les étapes du deuil de leurs marges.

D’abord, le déni. Autour d’Asus5 beaucoup n’y ont pas réellement cru. Pendant longtemps, le concept de netbook est resté très nébuleux pour les autres constructeurs. Lorsque les EeePC ont été annoncés comme des prototypes, les responsables des autres marques n’ont pas voulu les voir comme des solutions réellement commerciales mais plutôt comme de la poudre aux yeux. Refusant simplement d’imaginer cette concurrence comme possible. Eux qui proposaient alors essentiellement des portables 15.6″ sous Windows deux à trois fois plus chers, ne pouvaient simplement pas croire qu’il soit commercialement viable de lancer un engin de 7 pouces sous Linux. Encore moins sous « Xandros ». Une distribution Linux totalement inconnue au bataillon. Le nombre de fois où j’ai entendu que le premier EeePC serait forcément un flop commercial s’il venait à sortir du simple fait qu’il ne soit pas livré sous Windows…

Il y a eu ensuite la colère. Je m’en souviens parfaitement parce qu’à l’époque, mon premier billet sur Blogeee.net était un paragraphe très sobre. J’annonçais juste qu’Asus France me confirmait la distribution du netbook dans l’hexagone. À la suite de cela, différents contacts professionnels m’ont demandé des informations. Le prix de l’engin les rendait tous malades. Le EeePC 701 était annoncé à 299€ TTC chez nous. Avec encore quelques traces de déni qui perduraient, j’entendais à cette annonce des responsables de gammes de PC pianoter sur leurs calculettes ou leurs clavier. Ils imaginaient l’impact d’un tel produit sur leurs propres ventes. Et, souvent, cela s’accompagnait d’une montée de colère.  « Ils vont tuer le marché » était la remarque la plus courante. Avec un tel produit, Asus risquait de faire un mal profond au reste de l’industrie ainsi qu’à lui même. Un choix incompréhensible pour tous les autres acteurs car personne n’imaginait qu’Asus pourrait en tirer le moindre avantage.

La troisième étape a été une sorte de négociation technique. Du marchandage pour s’auto-réconforter et se rassurer pour l’avenir. Plusieurs marques essayaient de montrer combien il était plus intéressant de choisir leurs PC portables 15.6″ traditionnels, certes plus chers, mais ô combien plus compétents. Généralement, on cherchait à me rendre « rationnel » en mettant dans la balance la quantité de mémoire vive du EeePC. Sa capacité de stockage ridicule. Son écran « dépassé ». Son processeur « minable » ou… son absence de Windows. Un discours qui s’est poursuivi encore et encore pendant des mois. Même si pendant ce temps, les différents acteurs fourbissaient leurs réponses. Ils imaginaiejnt des portables classiques construits de manière à faire concurrence aux EeePC. Avec des prix qui baissaient mais également des capacités qui s’ajustaient pour tenter d’amortir le choc.

Lors de la sortie des tous premiers netbooks, cela a été électrique. Alors qu’Asus peinait à livrer assez d’engins pour faire face à l’énorme demande du public, alors que des forums se formaient pour indiquer aux autres internautes l’état des stocks des différents revendeurs… les constructeurs ne comprenaient plus. Ce succès a été « un vrai choc » pour certains qui ne vendaient plus grand-chose. La loi immuable des vases communicants reportant dans cet achat d’un netbook le budget normalement alloué pour un nouveau portable. Je me souviens d’un public chauffé à blanc. Tout le monde voulait voir la solution d’Asus. Toucher l’engin pour y croire. La presse ne parlait que des netbooks, la toile bruissait au son des EeePC. C’était la phase clairement dépressive de la concurrence. Dernière étape avant la conclusion de cette arrivée de la gamme EeePC sur le marché français : l’acceptation.

Une acceptation qui s’est finalement traduite par un geste simple : la copie. Les concurrents se sont tous mis à suivre l’exemple d’Asus. Acer en tête avec ses Aspire One avant d’être rapidement suivi par toutes les autres marques du marché : Dell, HP, Lenovo, MSI, Medion, Samsung… Tout le monde a fini par proposer des netbooks entre 299 et 399€. Le segment a rapidement basculé vers cette mode. En quelques trimestres, le marché du PC est passé de l’effarement général à l’embrassement pur et simple de cette nouvelle mode.

Asus se retrouve donc en 2026 dans la situation de ses concurrents en 2007

Le Macbook Neo d’Apple crée donc la surprise. C’est un « choc » pour l’industrie. Exactement comme les premiers netbooks ont été un choc pour les concurrents d’Asus. Comment réagir aujourd’hui alors qu’Apple va réussir à transformer un énorme problème en opportunité ? Peu de constructeurs ont la moindre idée de comment faire. Il faut dire que presque plus personne ne fait d’effort de réflexion autour des usages de leur public.

Asus est un bon exemple car la marque a eu des lueurs de génie par le passé. Je suis sincèrement admiratif de plusieurs de leurs idées. Celle du netbook par exemple. Un appareil qui nous parait aujourd’hui totalement désuet mais qui avait une énorme popularité alors. Pour plein de bonnes raisons. Parce qu’il répondait à des usages simples, à une curiosité et à des besoins qui naissaient. Asus a aussi été la marque capable de proposer des Transformer Book. Des engins qui ont, eux aussi, connu un énorme succès avec la même recette : un ordinateur  abordable pour des utilisateurs qui n’en demandent pas plus.

Le point commun entre ces machines et le MacBook Neo est assez évident. Le succès est lié à une approche commune. Désosser la proposition classique d’un portable moderne et lui enlever les fioritures inutiles. Atteindre la proposition la plus stricte, l’usage élémentaire décrié par les experts mais réellement nécessaire au plus grand nombre. Éliminer le fantasme de la machine capable de tout faire pour se concentrer sur des compromis.

Le MacBook Neo apporte simplement l’essentiel des usages de l’informatique d’aujourd’hui dans un emballage séduisant. L’engin n’est pas parfait mais il va répondre aux besoins et aux questionnementx du grand public. Tout en effaçant la question habituelle du « meilleur choix » possible. Apple rassure, c’est une marque qui jouit d’un gros pouvoir de séduction. Transposez simplement la situation « ordinateur portable » vers d’autres gammes de produits et vous comprendrez le problème. Il y a toujours une marque qui dispose d’une aura particulière, d’une réputation qui fait consensus, qu’il s’agisse de lave-linge, de plomberie ou de champagne. Je suis certain que vous avez à l’esprit des références qui ont fait leurs preuves et qui satisferont tous ceux à qui vous les conseillerez.

Imaginez maintenant que la marque que vous aviez en tête lorsque je vous ai parlé de lave-linge propose désormais un produit efficace au prix des concurrents. Un truc simple, sans fonctions avancées généralement inutile mais qui se contente de faire son boulot bien et longtemps. Quel réflexe auriez-vous si on vous demandait conseil pour un achat ? C’est ce qu’on appelle un « No Brainer ». Un choix que l’on fait par réflexe sans faire appel très longtemps à son cerveau. Si un collègue ou un lointain cousin vous demande quel ordinateur acheter pour son entrée en FAC. Une solution simple pour suivre ses cours toute la journée ? Une demande ponctuée par le classique « J’y connais rien ». La meilleure réponse sera sans doute Apple et son MacBook Neo, surtout si vous êtes trop loin pour l’aider et vous en occuper. C’est exactement là dessus que compte Apple. Concentrer l’intérêt de sa marque sur ce nouveau segment. Là où des utilisateurs peu connaisseurs s’éparpillaient égarés entre quinze marques différentes de PC en errant dans les rayons d’un distributeur, le Neo sera un phare vers lequel tous les néophytes vont se tourner.

Que font les constructeurs de PC depuis des années ? 

Les fabricants de PC sous Windows payent aujourd’hui leur manque flagrant d’intérêt pour les usages réels de leur clientèle. Ils payent également leur confiance aveugle dans un Microsoft complètement perdu. L’éditeur s’est rendu indispensable auprès de toutes les marque et les a conduit dans le mur. En proposant de cofinancer leur marketing, il a totalement transformé leur vision du marché. Aujourd’hui, les constructeurs de PC ne tentent plus de proposer des produits pour leurs utilisateurs. Ils essayent avant tout de rentrer dans les chaussures techniques imposées par Microsoft.

Cela fait maintenant plusieurs années que toute la production PC tourne autour de l’utilisation de Copilot, une IA locale dont tout le monde se fout. Microsoft a bien tenté de l’imposer au chausse pied à chaque utilisateur. En vain, Copilot avait 18.8% de parts de marché en juillet 2025. Un chiffre artificiellement gonflé par les abonnements gratuits liés à l’écosystème Windows. Il s’est réduit de 39% en quelques mois pour passer à 11.5% de parts de marché en janvier. Les chiffres sont terribles pour Microsoft . Avec un utilisateur qui n’a pas d’autres accès que Copilot comme IA, le taux d’adoption est de 68.8%. Mais dès que vous ajoutez ChatGPT dans la balance, cela tombe à 18%. Si vous additionnez Gemini au mix des choix possibles alors le choix de Copilot passe à 8%.

Avec un système qui permet de pousser en avant, souvent avec la même sollicitude qu’un gaveur d’oie,  son IA vers 450 millions d’utilisateurs de Windows, Microsoft est encore à la traine. Seul un utilisateur sur 10 préfère le truc amené sur un plateau avec le système. La drôle d’impression de voir le match Internet Explorer, Chrome et Firefox se répéter encore et encore.

Le problème de cette politique c’est qu’elle a conduit les constructeurs de PC  suivre aveuglément Microsoft dans son délire. Copilot par-ci, Copilot par là. Au fur et à mesure que le système d’exploitation se pourrissait de l’intérieur, les fabricants habitaient son cadavre. Tentant de faire croire à l’intérêt d’une offre IA dont ils justifiaient fort mal les usages. Entre le dégout de certains pour l’IA en général et la volonté d’un choix spécifique d’une IA indépendante qui fonctionne, l’effet sur le public a été dévastateur. 

Depuis des années, on ne voit rien de véritablement pertinent se dégager de l’IA locale. Microsoft joue des coudes pour tenter de rattraper son retard sur les services concurrents. Imposant à tous une touche de clavier Copilot qui ne sert pourtant qu’à un utilisateur sur 10 dans le meilleur des cas. Windows exige désormais des fonctionnalités spécifiques avec des puces embarquant un NPU dont une minorité va se servir. Les utilisateurs se sont fait forcer la main sur des paris esthétiques d’interface et de design au dépend de leur véritable intérêt : impossible de trouver certaines diagonales avec une connectique classique. L’important est de proposer une ligne fine. Je ne parlerais pas de Windows 11 dont la qualité a baissé au fil des mois après avoir été imposé par Microsoft en mettant au rebut des machines encore fonctionnelles. Un système qui devient épouvantable, perclus de bugs, avec des menus illisibles et l’apparition de résultats plus publicitaires qu’utiles.

Alors oui, certains constructeurs proposent des nouveautés, des évolutions techniques. Mais ce sont souvent des effets de manche sans grand intérêt pour le public. Un écran qui se déroule ? Un pavé tactile un peu plus grand, la multiplication d’enceintes, l’apparition de LEDs de toutes les couleurs, en pagaille et même au dos des écrans de portable. Des fonctions biométriques en double, en triple même. La disparition des connecteurs du quotidien au profit de solutions peu utiles aux utilisateurs grand public. Qui en France sait réellement tirer parti d’un Wi-Fi7 ou d’un Ethernet 2.5 Gigabit ? Une minorité. Les lignes bougent beaucoup plus lentement que ce que le marché aime à nous faire croire.

Un gros bonbon rose

Un gros bonbon rose

Prendre du recul et mesurer le grand écart de l’offre

Se poser cinq minutes et se rendre compte que proposer un engin sobre et efficace, construit autour d’usages réels, semble être devenu impossible. Il faut de l’IA. Il faut des fonctions gadget. Il faut de l’esbrouffe et des LEDs parce qu’il semble impossible de réinventer la roue. Puisqu’on ne peut pas techniquement faire mieux que les concurrents en se battant avec les mêmes armes alors on va travailler sur d’autres sujets. Le pari fait par Asus en 2007 avec le Netbook était de se dire : « construisons un PC qui réponde à quelques usages précis et utiles identifiés dans ceux du grand public. » Du traitement de texte, de la navigation Web, des e-mails et quelques autres trucs multimédia. Rien d’autre.

Le MacBook Neo répond aux mêmes besoins, mis à jour à la sauce 2026. Que fait un utilisateur lambda avec un ordinateur personnel aujourd’hui ? Du web, des emails, des travaux bureautiques et du multimédia. La marque a évidemment ajouté à cette base les éléments modernes nécessaires tout en collant aux usages promis par son système d’exploitation. Les outils fournis par défaut par Apple pour gérer la vidéo UltraHD, fabriquer de la musique, dessiner, retoucher, apprendre, créer, tous sont là et la puce embarquée saura les piloter sans problème.

On me parle d’un écran au rabais. Je ne sais pas dans quel monde les gens qui disent cela vivent. Regardez la tête des PC portables à ce niveau de prix. Certains ont une dalle OLED mais au détriment de tout le reste de la machine. Ceux qui proposent un tout assez homogène et qualitatif n’ont pas d’écran haut de gamme, loin de là. Il est certain que le Neo sera moins bien loti qu’un Macbook Air ou Pro niveau qualité d’affichage. Mais est-ce une surprise ? Et surtout, est-ce que l’écran « au rabais » sera moins bon ? Non, il sera parfait pour tous les usages visés. Encore une fois, Apple ne promet pas une machine de travail professionelle.

On me parle d’absence de clavier rétro-éclairé. De mémoire trop limitée. D’écran qui ne propose pas du 240 Hz. De l’impossibilité de lancer des jeux 3D modernes, de Chromebooks bien moins cher, de connectique limitée… Si ce dernier point est vrai, le reste m’apparâit à des années lumière des usages réels du grand public. Monsieur et madame Toutlemonde qui entrent dans un magasin d’info. Une de ces enseignes de Zone Commerciale qui propose d’un côté des grilles pain et de l’autre des PC, ne vont pas chercher des machines capables de faire x milliers de points à un benchmarks. Pas plus qu’ils ne s’intéressent à la présence d’un clavier RGB ou un Wi-Fi7. Leur principal objectif est d’avoir une machine solide, rassurante et pas trop compliquée à comprendre pour un budget ferme. Le Neo y répond admirablement bien là où la concurrence a bien du mal à mettre en avant son offre. C’est pour cela que c’est un choc.

Un MacBook Neo très réparable selon iFixit

Un MacBook Neo très réparable selon iFixit

La crise de la mémoire vive et le tas d’or d’Apple

Évidemment, la situation de ces derniers mois est compliquée pour les fabricants de PC qui ne savent pas comment se sortir de la situation actuelle. La pénurie de composants, l’augmentation généralisée des tarifs. Tout cela crée de nombreux problèmes pour un marché en pleine panique.

Et c’est bien tout le souci aujourd’hui. Parce qu’Apple est en train de transformer ce qui aurait dû être un véritable cauchemar en une réussite marketing exemplaire. Il y a quelques semaines vous avez pu lire dans la presse des titres évoquant un Apple aux abois face à un Samsung qui faisait de bonnes affaires. La marque à la pomme aurait accepté de payer le prix demandé par Samsung pour sa mémoire vive. Sans marchander et sans sourciller.

Contrairement aux autres fabricants, Apple a dans ses coffres une fortune colossale. Réellement colossale. Et la marque s’est servi de cette fortune pour assurer sa production. Elle l’a certes payée cher, très cher auprès de Samsung mais elle a assuré une disponibilité pour les mois à venir. Le fabricant ne manquera pas de mémoire vive pour ses smartphones, ses tablettes et ses PC.

Il est évident qu’Apple ne gagnera pas autant d’argent avec son MacBook Neo dans les mois qui viennent qu’avec les autres portables de sa gamme. Mais une chose est sûre, la marque va proposer un nouveau standard de prix et de fonctionnalités. Un standard qui sera fiable et efficace et face auquel les constructeurs de PC vont devoir se mesurer. 

Asus est désemparé parce qu’il se retrouve comme ses concurrents. Face à une offre ayant une grosse popularité à un prix plancher. Un ordinateur qui fera le boulot avec un matériel interne déjà amorti, un système optimisé par Apple, indépendamment d’un éditeur tiers. Et comment faire face ? Microsoft commence tout juste à réagir en annonçant se pencher sur le chantier de la gourmandise en mémoire de Windows 11. En se demandant enfin si le gavage de l’utilisateur à coup de Copilot était une bonne idée. Cela fait des années que les constructeurs de PC ne pensent qu’en augmentant la performance de leur machines pour justifier des tarifs qui ne bougent pas. Comme si on avait besoin chaque année d’alourdir un marteau pour enfoncer le même clou. Apple les prend à revers avec un produit plus accessible et tout le monde panique.

Coup double pour le Neo

Que va faire Apple avec le MacBook Neo ? D’abord faire connaître MacOS à une toute nouvelle génération d’utilisateurs. Jeunes actifs, professionnels ayant besoin d’une machine pour des usages simples, étudiants, lycéens, propriétaires d’un iPhone, utilisateurs de la marque à la recherche d’une machine de voyage. Une véritable moisson de gens qui vont découvrir ou redécouvrir MacOS sur un engin fiable pendant les prochaines années. L’engin est clairement un produit d’appel, facilement réparable et il jouera pour la marque le rôle d’une campagne de communication. Neo veut dire nouveau et il faut bien le comprendre comme « nouveau client » et pas comme « nouveau portable.

L’engin ne sera pas qu’un VRP pour le système d’Apple, ce sera également un étrier pour s’engager plus fermement dans son ecosystème. Si une formation initiale est faite sur un OS, il est toujours difficile d’en changer ensuite. Les premiers pas sur un Neo conduiront sans doute à un Air ou un Pro. L’important ici est de faire adopter MacOS.

Pendant que l’industrie du PC cherchera peut être enfin a proposer des ordinateurs orientés vers de vrais usages et pas sur des idées fantasmées d’IA ou de débauche de gigahertz, pendant que Microsoft fera pénitence sur ses errements copilotés, pendant que la mémoire vive et le stockage continueront d’assécher le marché, Apple va ratisser de nouveaux clients. Et avec ce prix d’appel, la marque va ratisser très large… Jusqu’à la probable apparition d’un Neo de seconde génération.

 

MacBook Neo : la minimachine parfaite d’Apple pour 2026

Asus et les fabricants de PC, les yeux pris dans les phares du Macbook Neo © MiniMachines.net. 2026

DLSS 5 : Il n’y a pas de magie dans l’IA de Nvidia

19 mars 2026 à 11:56

L’histoire est assez simple. Pour le lancement de son système de génération d’images DLSS 5, Nvidia a proposé différentes vidéos mettant en scène des jeux avec et sans son filtrage. Les exemples proposés sont spectaculaires et on peut voir des univers totalement changer d’ambiance une fois l’algorithme activé.

Visages redessinés, textures appuyées, décors et ambiances bouleversées… Les jeux passés à la moulinette de l’IA du DLSS 5 ont causé un certain émoi chez les joueurs. Quand on passe des dizaines d’heures dans un univers spécifique, quand on apprécie le travail mené par les équipes créatives d’un jeu et qu’on voit ce travail bouleversé par un filtre, il est absolument normal de s’inquiéter.

Quand on mélange cela avec l’ambiance qui règne en ce moment autour de l’IA, cette inquiétude devient viscérale. On a déjà parlé à plusieurs reprises des errements de ces algorithmes qui ont tendance à manier le pinceau de la retouche avec la grâce d’un dinosaure et à jouer avec les réglages des différents effets les plus lourdingues avec des gants de boxe. Impossible de ne pas voir la pose d’un « nouveau visage » sur un personnage de jeu vidéo autrement que comme un masque grotesque. 

Image native sans DLSS 5

Image native sans DLSS 5

L’erreur de Nvidia est d’avoir cru au classique effet « wahou »

Nvidia a roulé sa bosse en termes de technologie et de communication avec le public. La marque est présente depuis des années sur ce terrain. Mais, souvent, son approche marketing se limite à deux aspects. De l’évangélisation technique avec l’explication de ses technologies qui sont très souvent assez complexes à appréhender. Puis, dans un second temps, l’exposition de l’intérêt de celles-ci avec des démonstrations techniques. Et, il faut l’avouer, depuis presque 30 ans que les GeForce sont en vente sur le marché PC, cette seconde phase suffit généralement à convaincre tout le monde. 

Voir pour la première fois le décor d’un jeu se refléter fidèlement sur une carcasse de voiture. Découvrir une illumination d’objet qui s’adapte au mouvement de l’éclairage que porte un personnage ou observer les comportements physiques d’un univers se mettre en scène dans une logique de pesanteur ou de fluidité, tout cela pose son petit effet Wahou sur les rétines de l’observateur. Que l’on comprenne ou pas comment tout cela fonctionne, le fait est que l’impact dans le jeu est suffisant pour convaincre. Et d’ailleurs, moins on comprend, plus cet effet est « magique » pour le joueur.

Image retravaillée par le DLSS 5

Image retravaillée par le DLSS 5

On ne touche pas aux doudous des joueurs !

Problème, cet effet a été considéré comme un argument suffisant pour la présentation du DLSS 5. Et cela du seul point de vue technique. Pour un ingénieur de chez Nvidia ou pour toute personne qui s’intéresse aux technologies employées dans le système plus qu’au jeu lui-même, cette démonstration est éblouissante. Le rendu apporté en temps réel par le DLSS 5 dans les titres mis en scène est techniquement incroyable. 

Mais du point de vue d’un joueur, ce n’est absolument pas ce qui est retenu. Chez Nvidia, la confiance dans le système a été portée sur la capacité et l’expertise du DLSS 5 comme système d’optimisation et d’affichage en tant que tel. Cela a certainement été conforté par les récents tests sur le DLSS 4.5 qui indiquaient que les joueurs préféraient le rendu généré au rendu natif.

En réalité, loin de l’aspect technologique, ce que le joueur lambda a vu, c’est le maquillage outrancier d’un univers qu’il connaissait déjà. Pour certains, changer le visage de son héros avec qui il a passé des dizaines et des dizaines d’heures est atroce. C’est comme si on échangeait un doudou pour un autre ou qu’on changeait un acteur par un autre au milieu d’un film. Ce n’est simplement pas intelligible.

Dès que ces vidéos ont été publiées, il est devenu impossible de nuancer ce qui était proposé par le DLSS 5. Dans la vidéo ci-dessus, on ne reconnait plus le personnage mis en scène par rapport à sa version native sans DLSS. Et c’est vraiment le principal problème de cette annonce. Tout le monde a immédiatement pensé à une IA hors de contrôle. Comme si un magicien malicieux prenait place dans votre carte graphique pour affubler les jeux de ces rendus pilotés par une IA sans supervision. Impossible d’expliquer ensuite si oui ou non ce « masque » porté par le personnage a été généré uniquement par l’IA ou en collaboration avec le studio de développement. Impossible de se dire que cela provient d’un travail de fond mené par les designers du jeu qui ont imposé leurs choix artistiques pour l’entrainement du DLSS 5. On ne peut plus y voir qu’une Sloperie2 de la part d’une machine sans goût ni sentiment.

C’est d’autant plus flagrant pour moi que cette image m’en a rappelé une autre que je vous proposais il y a quelques temps pour parler d’IA et de VPC. Les deux images se sont superposées immédiatement dans mon regard. Provoquant ainsi un rejet quasi épidermique de la proposition. Impossible pour moi de continuer à regarder ces images sereinement. Il a fallu que je laisse un peu de temps à mon cerveau pour refroidir et essayer d’appréhender le sujet de manière plus réfléchie. Et, à bien y regarder, en écoutant les arguments des différents acteurs mis en scène dans toute cette histoire, la proposition de Nvidia avec le DLSS 5 est un peu plus intéressante que cette simple histoire de maquillage de personnages à la truelle.

Le gros problème de cette démonstration technique est d’avoir pris des jeux existants. Des jeux qui ont déjà gagné le cœur des joueurs, et d’avoir poussé le côté technique de la démonstration au lieu d’ajuster un mélange entre avancées technologiques et ambiance connue.

L’effet est logiquement le même que la découverte d’une personne en face à face alors qu’elle use et abuse de filtres IA pour paraitre différente sur ses photos en ligne. Ou la découverte d’un lieu ultra-touristique photographié sur les réseaux sociaux et qui s’avère être un cadrage d’un angle précis. Cadrage qui cache la réalité de la scène toute entière souvent moins étonnante ou esthétique. L’aspect totalement artificiel de ce qui est proposé par le DLSS 5 parait non seulement faux mais également totalement incongru au joueur qui connait déjà le jeu présenté.

Il n’y a pas de magie dans ce rendu

Nvidia l’affirme, les visages générés par l’algorithme, les décors léchés et les textures appliquées, sont bien réalisés en partenariat avec les éditeurs de jeu. Sous leur propre direction artistique. Cela veut dire que l’IA ne fantasme pas le visage de tel ou tel personnage à partir de rien. Qu’il ne changera pas d’une machine à l’autre ou d’une partie à l’autre. Le « masque » est décidé en amont et restera le même pour tout le monde. Il est généré par les équipes qui construisent l’âme graphique du jeu. À bien y regarder, toutes proportions gardées, l’approche de cette métamorphose IA ressemble à une version « premium » d’un pack de textures « 4K » proposées au téléchargement après la sortie d’un jeu lancé en FullHD. Bref, ce n’est pas un sortilège jeté à votre jeu vidéo, c’est juste une option comme une autre.

Nvidia n’aurait dû présenter qu’une démo purement technologique du DLSS 5

Employer des jeux déjà commercialisés a été une erreur. L’attachement des joueurs pour les personnages est trop fort pour qu’une réaction autre qu’épidermique puisse exister. Nvidia propose de changer des souvenirs. Des émotions. C’est totalement impossible. La marque n’aurait dû faire ce que fait un moteur de jeu comme Unreal pour présenter ses technologies. Telle que la démo que vous voyez ci-dessus. Proposer soit un jeu à venir, soit un jeu qui n’existe pas mais qui permet de mettre en scène ses nouveautés. Cela aurait permis de mettre en avant la participation des studios dans le développement des effets générés par l’IA mais surtout de se détacher du côté émotionnel que chacun entretient avec les jeux.

Nvidia l’a fait, la vidéo ci-dessus est une de ces présentations technologiques. Mais ce n’est pas celle-là qui a été retenue. Elle n’a quasiment pas été publiée ni reprise sur les réseaux sociaux. C’est logique puisqu’elle n’évoque rien à personne, ni en positif, ni en négatif. C’est juste une démo technique où on peut apprécier la technologie mise en avant.

Ne proposer que cette démo n’aurait pas impacté Nvidia puisque les éléments présentés ne tournent pour le moment que dans des conditions très particulières. On parle de solutions graphiques employant un matériel que personne ne possède combinant deux cartes GeForce haut de gamme. Le DLSS 5 n’est pas encore prêt à trouver sa voie chez la majorité des joueurs.  Le moteur est prévu pour cet automne, mais il faudra probablement beaucoup plus de temps avant que ce système se déploie véritablement auprès du grand public. Et d’ici là, les jeux concernés seront différents de ceux présentés.

Il faudra faire attention à l’avenir à la présence de ce filtre dans les démos de jeu

Ce que je redoute au final, ce n’est pas le maquillage façon clown d’anniversaire des prochains jeux. C’est plutôt la tendance qui risque d’apparaitre de démonstrations de jeu sous leur meilleur angle avec le DLSS 5. Exactement comme la carte postale présentant une vision « Instagram » d’un lieu touristique. Vision qui, une fois sur place, n’est pas tout à fait aussi glamour. Les studios et les éditeurs de jeu auront certainement tendance à mettre en avant des jeux au réalisme poussé au travers du processus proposé par Nvidia. Et si l’approche esthétique sera bien pilotée en interne, elle ne concernera pendant très longtemps qu’une minorité de joueurs.

Or, si on vous met en scène un jeu « sublimé » par un filtre que vous ne pouvez pas appliquer, vous allez acheter autre chose que le produit présenté. Encore une fois, s’il n’y a pas de magie dans l’algorithme, il y’en a toujours une dose dans le marketing.

DLSS 5 : Il n’y a pas de magie dans l’IA de Nvidia © MiniMachines.net. 2026

Assurance auto tiers ou tous risques : quelle formule choisir pour votre véhicule ?

Par : Patrick
19 mars 2026 à 07:51

En 2026, les primes d'assurance automobile devraient encore augmenter de 4 à 6 % selon les cabinets Facts & Figures et Addactis, une progression largement supérieure à l'inflation générale.

Assurance auto tiers ou tous risques : quelle formule choisir pour votre véhicule ? est un article de Blog-Moteur, le blog des passionnés d'automobile !

TrendForce : une hausse de 40% du prix des portables en 2026

10 mars 2026 à 14:19

Après Gartner et sa disparition des machines à moins de 500$, c’est au tour de TrendForce de se suspendre à la sonnette d’alarme. Le cabinet d’analyse estime que les portables pourraient voir leurs prix enfler de 40% rien que pour l’année 2026.

TrendForce

TrendForce

La problématique n’a pas changé, les difficultés d’approvisionnement en mémoire et stockage continuent de peser sur le segment portable. Tellement que le cabinet TrendForce estime que les prix pourraient augmenter de 40% cette année. Un portable « classique » à 1000€ à la rentrée de septembre 2025 pourrait couter 1400€ d’ici quelques mois. Le delta d’augmentation pourrait être inférieur si les constructeurs essayent d’absorber une partie du surcoût.

TrendForce : une hausse de 30% rien que pour la RAM et les SSD

L’impact du prix des composants mémoire et stockage devient de plus en plus grand. En 2025, la part estimée de ces composants sur le prix global d’un ordinateur portable était estimée à 15% en moyenne. Cela pouvait varier suivant les gammes, évidemment, mais cela dans ces proportions. Dès ce premier trimestre, TrendForce estime que cette part aura doublé. Passant à 30% du prix global d’une machine. Si la part du coût de ces composants était très basse ces dernières années, cette augmentation va être aussi brutale qu’importante pour les machines prévues les prochains mois.

Cet impact premier va avoir de multiples répercussions accessoires. Les deux principaux fabricants de processeurs du monde PC ont indiqué à leur tour une hausse des prix. Intel dans un premier temps, et AMD dans la foulée. Les deux peinent à fournir des puces en assez grand nombre. Chez Intel, les solutions entrée de gamme ont depuis plusieurs semaines subi une première hausse. Chez AMD, certaines puces très présentes dans les MiniPC ont tout simplement disparu. Tant et si bien que de nombreux constructeurs de MiniPC font appel à des fonds de catalogue. D’autres évolutions pourraient suivre plus tard dans l’année avec d’autres retards de livraison.

TrendForce

Pour ce premier trimestre, TrendForce  estime que le prix global du trio « moteur » de chaque machine passerait au global à 58% du total d’un ordinateur portable. Il était de 45% à la même période en 2025. Évidemment, pour les MiniPC, cette part est encore plus importante puisque sur les portables le prix total du produit comprend l’écran, la mémoire et un ensemble de postes variés allant de la ventilation à la webcam en passant par des enceintes et des charnières. 

Il est probable que cette première étape de hausse sera rapidement franchie lors des prochaines livraisons. Avant que les tarifs soient réévalués à moyen terme. Notamment pour la période de rentrée scolaire de septembre, qui pourrait être catastrophique sur le marché PC. À la fois en nombre de ventes et en volumes produits. Cet impact aura des répercussions à plusieurs niveaux et les marchés smartphone comme tablette ne seront pas épargnés. 

Ces prix à la hausse qui pourraient également avoir leurs propres conséquences. Certains constructeurs, anticipant une baisse des livraisons suite à la hausse des tarifs et face à des composants moins nombreux, vont drastiquement limiter leur production. Cette baisse de production ne permettra pas de diluer les couts de fabrication et de design dans un nombre important de machines vendues. Si votre usine et vos salariés coutent la même chose pour produire 10 000 machines par mois au lieu du double, c’est une augmentation notable du prix de l’assemblage qui se reflètera sur chaque engin. Ces analyses de TrendForce ont été publiées sans tenir compte de la situation en Iran et de l’impact qu’elle pourra avoir sur les prix de l’énergie. On imagine que l’augmentation des coûts et la difficulté des approvisionnements pourraient par ailleurs se refléter sur les chiffres de ventes et les tarifs.

Reste à savoir comment le marché PC va suivre. Si les hausses continuent, l’attrait des nouvelles machines va rapidement s’effriter. La plupart des acheteurs qui ont une machine fonctionnelle vont la faire durer au maximum en attendant des jours meilleurs. Une solution serait de renouer avec des propositions Low-Cost débarrassées des options superflues qui se sont accumulées au fil des années lorsque les machines profitaient de composants vendus à très bas prix. Une sorte d’économie d’urgence avec des engins plus sobres, plus simples, concentrés surtout sur l’essentiel. Une proposition que l’on retrouve par exemple dans un MacBook Neo qui, s’il n’a probablement pas été imaginé comme cela, se retrouve propulsé comme le Héraut d’un marché semé d’embûches. 

Qui va nous proposer un 12-13″ avec une puce simple, un peu de mémoire évolutive, 256 Go de SSD accessibles et un bon écran sans fonctions secondaires à un prix plancher le premier ? Face à Apple, il serait temps d’y penser.

TrendForce : une hausse de 40% du prix des portables en 2026 © MiniMachines.net. 2026

MacBook Neo : la minimachine parfaite d’Apple pour 2026

9 mars 2026 à 16:44

Le MacBook Neo d’Apple est un ultraportable de 13 pouces qui s’intègre parfaitement bien dans un marché en crise. A 699€, 100€ de moins pour les étudiants, ce nouveau Mac se positionne parfaitement pour affronter les années qui viennent.

Le MacBook Neo n’est pas né en réaction à la crise des composants actuelle, il est dans les tuyaux depuis des années. C’est un changement assez important dans une politique toujours assez haut de gamme qui n’a jamais vraiment cherché à proposer des produits sur un segment accessible. Un changement qui a d’ailleurs mené immédiatement à une levée de boucliers chez certains puristes.

Mis en cause ? Les choix d’Apple sur certains postes, le recours à un SoC déjà employé dans ses iPhones par exemple, est presque considéré comme un outrage. Des choix techniques à rebrousse-poil des générations de Macbook précédents sont vus comme un retour en arrière. Il me semble que c’est mal comprendre la philosophie de ce nouveau produit.

Une minimachine parfaite ?

Les lecteurs réguliers du blog auront compris que le titre de ce billet est provocateur. Aucune machine n’est parfaite ou plutôt il y a autant de solutions parfaites que de profils existants. Le « parfait » d’un utilisateur en rebutera un autre et annoncer que tel ou tel engin est parfait, c’est imposer son point de vue et ses usages à tout le monde. Le MacBook Neo n’a rien de parfait pour certains mais coche toutes les cases d’une utilisation particulière.

Nous sommes en 2026 et lorsque je me déplace en conférence de presse, j’embarque un ordinateur portable de 12.5″ équipé d’une puce qui a désormais 11 ans. Une véritable éternité en termes d’informatique. Il s’agit d’un processeur Intel Core M3-6Y30 double cœur épaulé par 4 Go de mémoire vive DDR3L et un petit stockage SSD SATA de 128 Go. Cette machine c’est un Xiaomi Notebook Air 12,5″, lancé par la marque en 2017. Il a pour moi tous les avantages possibles. Il est léger, son écran est très beau, il est fanless et son clavier bien que QWERTY est aussi pratique qu’agréable. Je l’ai payé 550€ en 2017 en l’important de Chine. En France, il aurait sans doute été proposé plus cher.

Apple lance un MacBook Neo qui colle admirablement bien à ce profil de portable. On retrouve un engin silencieux, dépourvu de ventilation, avec un clavier confortable, un bien plus bel écran, deux fois plus de mémoire, un processeur plus récent et une autonomie largement plus importante. Pour mon usage, et sur le papier, ce MacBook Neo est donc parfait. Il est proposé à 699€ ou 599€, si on est étudiant ou prof. Pas loin de mon Xiaomi donc, avec une garantie Apple locale.

Le plus étonnant dans l’annonce d’Apple pour ma part ne vient pas de la marque. Mais de mes contacts. Le nombre de messages, mails et autres alertes que j’ai pu recevoir mettant en avant sa philosophie Netbook est étonnant. L’idée que ce n’est pas le meilleur portable du marché dans le sens pas le plus puissant. Plutôt un engin suffisant pour accompagner n’importe qui au quotidien, est régulièrement mis en avant. Je suis parfaitement en phase avec cette idée. C’est évidemment une machine assez chère par rapport à un netbook de l’époque2. Mais en considérant le matériel embarqué, la philosophie est vraiment assez proche.

Le MacBook Neo en détail

A bord de cette machine, un SoC de smartphone. L’A18 Pro, présent dans les iPhone 16 Pro. Est-ce un signe de faiblesse ? À en croire certains, oui. Mais je suppose que pour ceux-là, l’idée qu’ils se faisaient d’un MacBook « low-cost » était le doux rêve de pouvoir obtenir le dernier cri de la marque juste pour moins cher. Ce qui n’a évidemment aucun sens. Apple a décliné un SoC de smartphone dans un portable, est-ce que cela réduit son niveau de performances ? Pas le moins du monde. Les premiers tests et retours de l’engin montrent au contraire que la puce est devant le SoC M1 de la première génération d’Apple Silicon.

Et, c’est amusant car à l’époque de la sortie de ce M1, qualifié de révolutionnaire, la puce était alors parfaite pour un utilisateur classique. Elle était admirable, capable de prouesses extraordinaires par rapport à ce que proposait un Mac sous puce Intel. C’était il y a six ans maintenant. Le SoC qui équipe ce MacBook Neo est, quant à lui, sorti il y a seulement deux ans. Il est plus rapide en monocœur (beaucoup) et en multicœur (moins). Il a toujours dans le ventre assez de performances pour faire face aux usages du quotidien aisément. Il a surtout l’avantage d’avoir été déjà largement amorti par Apple, ce qui permet de le glisser dans une offre plus abordable. Je lis des gens critiquer le choix de cette puce alors qu’ils expliquent doctement qu’on peut aujourd’hui tout faire avec un iPhone. Une sorte de capharnaüm argumentaire toujours étonnant qui semble puiser ses sources dans un puits de mauvaise foi sans fond.

Les premiers tests en ligne du Neo révèlent des capacités de calcul supérieures à celles d’un MacBook Air M1 en simple et multicœur. Ce qui revient à dire que le dépit quant à l’emploi d’une puce de smartphone pour équiper cet engin est purement théorique. Je devrais écrire cosmétique. Si Apple avait choisi de maquiller le nom de la puce employée en inventant une nouvelle gamme, pour ne pas dire qu’ils employaient une puce de smartphone, je suppose que bien moins de monde aurait grommelé sur ce choix. Même avec des performances identiques.

A côté de cet A18 Pro, le recours à 8 Go de mémoire vive. Mémoire unifiée au processeur et donc non évolutive. Là encore, des grincements de dents. Mais le choix de ces 8 Go est simplement le seul possible pour Apple cette année. 4 Go serait évidemment trop juste et 16 Go trop cher. Apple a choisi 8 Go car cela n’interdit absolument aucun usage logique du MacBook Neo. J’ai pu lire que cela empêchera des déploiements d’intelligence artificielle en local ou l’ouverture de multiples programmes créatifs sur l’engin. La réponse à ces critiques est assez simple.

L’objectif d’Apple n’est pas de se tirer une balle dans le pied en sortant un ordinateur portable à 699€ capable de concurrencer ses propres machines haut de gamme. C’est précisément de venir chercher un public différent. L’important pour le Neo c’est de permettre d’ouvrir plusieurs onglets dans son navigateur, un traitement de texte, un tableur et de suivre une éventuelle visioconférence en parallèle. De pouvoir faire de la retouche d’image, du montage vidéo, de la musique… Peut-être pas tout cela simultanément mais avec suffisamment de confort pour que cela soit agréable. Et les 8 Go embarqués sur MacOS devraient le permettre

Le stockage est limité à 256 Go. Une version du MacBook Neo est disponible en 512 Go pour 100€ de plus et offre en prime le TouchID pour sécuriser ses usages avec son empreinte digitale. 256 Go c’est assez peu, mais cela n’est pas incapacitant… Cela dépend fortement de vos usages. Pour un étudiant, un utilisateur classique qui va surtout générer du texte et envoyer des emails, en association avec un stockage en ligne, c’est largement suffisant. Sur mon Xiaomi, je n’ai jamais saturé les 128 Go de base avec ces usages-là. Et, il me restae toujours assez de place pour installer deux ou trois jeux et glisser quelques films. Encore une fois, cet espace limité dépend essentiellement de ce pour quoi le Mac est envisagé. Il forcera peut-être à mettre en place une sauvegarde automatique de ses données, ce qui ne sera pas forcément une mauvaise chose pour le public visé. 

L’affichage est confié à une dalle de 13 pouces en 2 408 par 1 506 pixels. Un affichage confortable avec une densité de 219 pixels par pouce et une luminosité de 500 nits. Pas d’OLED ni d’AMOLED, on reste sur une dalle IPS Liquid Retina assez classique, sans rafraichissement prononcé ni fonctions haut de gamme. Ce qu’il faut pour un usage qui colle au reste de la machine. Apple ne promet pas de réglage colorimétrique pour la dalle mais l’enferme avec le reste des composants dans un châssis en aluminium.

Le point faible de cette machine est probablement sa connectique qui est vraiment décevante. Deux ports USB Type-C dont un seul en USB 3.0. Le second est en USB 2.0 et sera donc réservé à des usages basiques comme le branchement d’une souris. Le port USB 3.0 permettra de sortir un signal DisplayPort pour un écran secondaire en UltraHD 60 Hz maximum. Un jack audio combo 3.5 mm est également présent pour éviter de recourir systématiquement au Bluetooth pour un casque micro. Le reste de l’équipement est assez sobre : des enceintes stéréo Dolby Atmos, une webcam FaceTime FullHD et un module Wi-Fi6E et Bluetooth 6.0. Le clavier ne propose pas de rétroéclairage et le trackpad n’a pas tous les raffinements proposés par les Mac plus haut de gamme.

Enfin, gros point fort, une autonomie annoncée de 16 heures pour l’engin en lecture vidéo malgré un poids modeste de 1,23 kg. Cette autonomie demandera un examen approfondi et une vérification des usages possibles. Ce chiffre obtenu pour un usage de lecture de vidéo contraste avec 11 heures d’usage en navigation web. Avec une autonomie au-delà des 10 à 12 heures d’usage mixte, le MacBook Neo répondra sans doute à un cahier des charges d’étudiant ou de travailleur classique. La batterie est petite, elle propose 36.5 Wh quand un MacBook Air affiche 53.8 Wh et un Pro 72.4 Wh.

MacBook Neo

Le MacBook Neo n’est pas assez bon ?

Beaucoup de critiques sont apparues suite à cette annonce d’Apple. Certaines sont justifiées et en particulier celles sur la connectique de l’engin, tout de même réduite au minimum. D’autres, comme le fait que le MacBook Neo n’est pas livré avec un chargeur3, peuvent tout à fait s’entendre car cela cache forcément une dépense supplémentaire. Mais la majorité des remarques restent absolument hors sol.

Ma réflexion est toujours la même : pourquoi comparer cet engin aux modèles haut de gamme de la marque ? Un MacBook Air débute à 1199€ un MacBook Pro à 1899€. Loin, très loin des 699€/599€ de ce MacBook Neo. Je suis toujours surpris de voir combien certaines critiques tapent à côté du sujet en prenant pour point de départ le postulat que tout le monde va acheter un ordinateur pour faire de la création d’image, de la 3D, du montage vidéo UltraHD ou, désormais, lancer des IA génératives très gourmandes en local. La très grande majorité des ordinateurs du marché servent à surfer, écrire des mails et des fichiers textes, jouer un peu et regarder des vidéos. Calquer son usage propre pour définir ce qui est bon ou mauvais m’apparaît assez contre-productif.

Imaginez-vous entrer chez un vendeur de cycles avec l’envie de vous payer un vélo pour faire des balades le Week-End. Et qu’un autre client du magasin sorte alors d’un rayon et vous explique alors que le vélo à 699€ que vous visez ne serait pas assez bon pour vous parce que le pédalier est également intégré à un autre vélo d’une gamme différente. Pointant alors du doigt un modèle à 1899€ bien meilleur, avec un équipement haut de gamme tout à fait prêt pour la compétition. Je suppose que vous le regarderiez bizarrement. Tellement bizarrement que personne n’aurait en réalité l’audace de vous proposer de dépenser 1900€ si vous annoncez en avoir 700 à disposition.

C’est exactement la même chose pour ce MacBook Neo. Venir expliquer à quelqu’un qui avait jusqu’alors le budget pour un PC entrée ou milieu de gamme de type Chromebook que son MacBook Neo n’est pas assez bon parce qu’équipé d’un SoC de smartphone n’a absolument aucun sens. Bien sûr, personne ne serait contre le fait d’avoir plus de performances. Personne ne rechignerait à profiter d’un MacBook haut de gamme. Mais pas au point de dépenser de l’argent qu’il n’a pas.

 

Le MacBook Neo promet un usage simple

Le MacBook Neo ne promet rien de particulier si ce n’est ce que tout étudiant attend. Pouvoir prendre un engin en main le matin, saisir ses cours, suivre des conférences, travailler du texte, pouvoir créer des illustrations, surfer, regarder un film, suivre ses finances, monter un bout de film. Le tout sans que la machine ne le lâche au milieu de la journée faute de batterie.

Le MacBook Air est vendu comme une machine de montage vidéo

Le MacBook Air est par exemple vendu comme une machine de montage vidéo

Cet usage est simple, il n’a rien de la « noblesse créative » si chère aux Mac habituels et à leurs utilisateurs. Apple ne promet pas que vous serez le nouveau pape de la French Touch, pas le grand reporter en vogue ou un vidéaste accompli. Il promet juste de faire bien des tâches assez classiques. Tout en permettant d’en faire plus au besoin sans problèmes. Si vous regardez la manière qu’a Apple de présenter le MacBook Air ou le Pro vous aurez des écrans mettant en avant des capacités de montage vidéo, de calcul lourd ou de créativité débridée. Ici, c’est beaucoup plus sobre. C’est également beaucoup moins cher.

Le casque de cette jeune fille est à 579€, son MacBook Neo pour étudiante luis sera proposé à 599€

Le casque de cette jeune fille est à 579€, son MacBook Neo pour étudiante lui sera proposé à 599€

La concurrence va devoir réagir et c’est tant mieux pour le marché

Cette image de l’engin dans une chambre de jeune fille est assez parlante. Le casque posé sur les délicates oreilles coûte presque aussi cher que l’engin pour une étudiante. Avec 20€ d’écart entre les deux, ces prix relativisent l’offre d’Apple. Est-ce que le portable est vraiment pas cher ou le casque vraiment trop ? Une chose est sûre, depuis des mois que cette rumeur d’un portable Apple Low-Cost circule, les grandes marques de PC sont aux aguets.

D’autant plus qu’avec la situation actuelle, Apple peut franchement profiter de son MacBook Neo pour gagner de belles parts de marché. Alors que le reste du secteur se creuse la cervelle pour essayer de voir comment continuer à proposer leurs gammes classiques, Apple débarque avec une offre simple et claire. Le MacBook Neo n’est probablement pas la meilleure machine possible, mais dans les temps troublés et incertains qui arrivent, ce sera un repère facile à suivre.

Apple a les moyens de réserver la mémoire et le stockage nécessaires à la production longue de cette machine. Ils vont assurément gagner moins d’argent qu’avec leurs machines Air et Pro. Mais quelle aubaine pour le futur ! Ces engins que les étudiants vont acheter par choix et non pas par dépit sont des chevaux de Troie parfaits pour la marque. Avec cet entrée de gamme qui fera plaisir aux utilisateurs, au contraire d’un Chromebook ou d’un portable Windows entrée de gamme. Car il faut voir ce que propose le secteur pour un étudiant qui a 599€ en poche : un Chromebook Lenovo de 14″, en FullHD, avec un Core i3-N305, 8 Go de mémoire et 256 Go de stockage eMMC ne fait pas beaucoup rêver. En face, un Neo parait vraiment être beaucoup plus adapté.

Il y a quelques jours, je vous parlais de Gartner et de son annonce de la fin des PC à 500$. Un prix HT assez symbolique aux US. L’arrivée de ce portable vendu 599$ HT outre atlantique va sérieusement rebattre les cartes du marché. Tout simplement parce qu’Apple vient de détruire l’analyse de Gartner. Le prix de cette machine est de 499$ HT pour un étudiant aux US. Ce qui va non seulement donner un coup de fouet aux ventes mais obliger les vendeurs de PC à s’aligner. Comment continuer a vendre des PC sous Windows 11 avec une telle concurrence ? Et comment laisser Apple seul sur ce terrain spécifique ? C’est impossible car la marque pourrait devenir la référence d’une génération entière de nouveaux étudiants. Génération à même de se laisser attraper par MacOS et… ne plus en revenir. 

Le MacBook Neo n’est pas un engin parfait, pas encore

A bien regarder cette machine, on peut voir quelque chose de très évident en filigrane. Le MacBook Neo sort assez cabossé par la crise des composants actuels. Je suis prêt à parier que si l’engin était sorti en mars 2025, il aurait été mieux équipé en mémoire et en stockage. Son prix aurait sans doute été le même mais son équipement aurait été plus abouti. 

La marge de réserve est énorme pour faire progresser ce nouveau modèle : tant au niveau de son SoC que le reste de ses composants. Sa batterie, son clavier, sa webcam dépourvue des fonctions plus avancées. Apple n’a qu’a ajouter quelques détails et il pourra relancer ce modèle l’année prochaine sans faire le moindre effort. Le port USB 2.0 qui devient USB 3.0. L’ajout d’enceintes supplémentaires ou d’un rétroéclairage clavier et nous voilà avec un « Neo 2027 » prêt à l’emploi. Renouvelant naturellement l’intérêt de la gamme.

Je suppose qu’Apple n’a pas décidé de lancer cette gamme au hasard. C’est à la fois un excellent moyen de vendre des machines à un nouveau public, et une superbe solution pour pousser les utilisateurs à choisir un iPhone plutôt qu’autre chose. En attendant, son premier modèle de portable Low-Cost rebat clairement les cartes d’un marché en pleine déconfiture côté PC. Et cela risque de durer un bon moment.

La crise que nous connaissons actuellement sur les composants mémoire et stockage a transformé ce Neo. Cela devait être un portable d’étudiant « entrée de gamme », c’est devenu une solution de sauvetage du marché. Un premier pas pour Apple qui pose intelligemment un jalon dans ce secteur plus abordable sans torpiller le reste de son offre. Le MacBook Neo est taillé pour la majorité des usages et des utilisateurs. Il doit correspondre à 95% des usages du quotidien de la majorité des utilisateurs. Je ne parle pas des créatifs et autres professionnels de l’image ou du son, pas plus que des joueurs et autres utilisateurs qui aiment tirer parti de la dernière goutte de performances d’un PC. Mais, sérieusement, aujourd’hui, si vous aviez à choisir un portable pour un étudiant en 2026 ? Il faudrait que le reste du marché se dynamise sérieusement face à cette offre pour que vous préfériez conseiller un portable « Windows ».

Le MacBook Neo est en vente à 699€ sur Amazon avec une livraison gratuite au 12 mars.

Les étudiants pourront profiter de l’offre à 599€ sur le MacBook Store.

MacBook Neo : la minimachine parfaite d’Apple pour 2026 © MiniMachines.net. 2026

PC low-cost : Gartner prédit la fin de l’entrée de gamme en 2028

5 mars 2026 à 11:07

Je ne suis pas spécialement d’accord avec cette analyse. Je comprends l’argument de Gartner et la logique qui aboutit à cette conclusion concernant la disparition du secteur des PC low-cost. Mais je pense que le marché est assez mal diagnostiqué. En partie parce que Gartner ne scrute pas l’ensemble du marché.

Des PC low-cost qui disparaitraient ?

Des PC low-cost qui disparaitraient ?

Pour Gartner, le secteur PC va traverser une forte crise entre 2026 et 2028. Loin d’une idée de turbulences techniques comme nous en avons connues par le passé, la tension sur les composants risque de durer. Nous avons eu des crises sur la mémoire vive et le stockage. Suite à des catastrophes naturelles, des incendies et autres problèmes techniques. Nous avons connu la pandémie de COVID et les problèmes d’approvisionnement comme de circulation des ressources. Mais pour tous ces évènements, il était possible de prévoir une fin. Une sortie de crise.

La problématique d’aujourd’hui est différente. La hausse spectaculaire des prix de la mémoire et du stockage combinée avec la faiblesse des stocks disponibles devrait durer longtemps. Assez pour faire souffrir tout l’écosystème jusqu’en 2028. Dans cette logique, il semble assez évident que le marché va devoir faire des choix. Et pour Gartner, la réponse est mécanique. Elle tend à augmenter les prix vers plus haut de gamme. Voilà la logique du cabinet d’analyse :

“This sharp increase removes vendors’ ability to absorb costs, making low-margin entry-level laptops nonviable. Ultimately, we expect the sub-$500 entry-level PC segment will disappear by 2028,”

Ce qui peut se traduire par « Cette augmentation importante empêchera les vendeurs d’absorber les coûts [Des composants, ndlr], faisant des ordinateurs entrée de gamme, à faible marge, un marché non viable. A terme, nous estimons que le marché des PC à moins de 500$ aura disparu d’ici 2028. »

Cela s’analyse assez simplement. Comme les constructeurs ne pourront pas encaisser le surcoût lié aux hausses de tarifs de mémoire et de stockage, le prix des PC entrée de gamme va grimper au-dessus de 500$. Ce qui était vendu auparavant 300 ou 400$ ne pourrait plus être proposé qu’à 500$ et plus. Un phénomène que nous constatons en réalité déjà sur plusieurs secteurs avec une belle envolée des prix. Ce mouvement va s’accentuer rapidement désormais puisque les stocks « tampon » constitués par les fabricants avant l’augmentation des prix ont désormais bien fondu.

 

500$ HT = 500€ TTC

500$ HT = 500€ TTC

500$ = 500€ avec 20% de TVA

Cette analyse pourrait être complétée d’ailleurs. On peut estimer que les constructeurs vont naturellement privilégier les machines les plus haut de gamme dans un réflexe de rentabilité. L’indisponibilité de plus en plus chronique de la mémoire vive et du stockage entravent la production de PC entrée de gamme. Ils ne sont plus prioritaires. Pourquoi tenter de fabriquer 1000 machines avec 8 Go de mémoire vive vendues à 500$ si on peut fabriquer 500 machines vendues 1500$ avec 16 Go ? Si la marge réalisée est du même ordre, imaginons 10% pour chaque gamme, il y a plus à gagner à vendre 500 machines plus chères. Ces engins auraient en plus l’avantage de pouvoir beaucoup mieux encaisser d’éventuelles fluctuations passagères de prix.

Reste que le marché informatique est sur un plateau de renouvellement depuis des années. La majorité des particuliers achètent un équipement pour remplacer un modèle jugé trop ancien. Les « premiers achats » informatique existent toujours mais ils sont plus rares, ce sont ceux des étudiants ou des jeunes qui s’installent. Avec la situation actuelle, Gartner prévoit que les clients garderont plus longtemps leurs machines. Et, forcément, que les ventes vont plonger pour les trois années à venir. Il semble évident qu’un client qui a alloué un budget de 400$ pour un PC en 2020 par exemple, ne va pas forcément choisir de remplacer sa machine pour une solution à 1500$ en 2026. Il fera durer au maximum son investissement et trouvera des solutions en cas de panne. Avec une réparation ou un achat d’occasion, par exemple. Le public ne va pas magiquement trouver les ressources nécessaires à l’augmentation de son pouvoir d’achat informatique. Autrement dit, si le marché des ordinateurs à moins de 500$ disparait, il ne sera pas vraiment remplacé par celui situé au-dessus des 500$. Il sera tout simplement perdu.

Les entreprises vont forcément devoir suivre le mouvement à la hausse, faute d’alternatives. Elles feront également durer au maximum leur parc et seront moins sujettes à des changements rapides pour des gains de productivité. Le marché grand public risque de prendre son mal en patience. En procédant à d’éventuelles petites mises à jour ou en mettant simplement son argent de côté en attendant des jours meilleurs. Tout cela se tient. C’est logique et assez clair. Mais cela ne me parait pas tout à fait complet.

MSI Wind U100

MSI Wind U100

La nature commerciale a horreur du vide marketing

Car c’est là qu’entre en jeu un facteur que je pense assez important dans toute cette affaire. L’opportunisme de certaines marques combiné au besoin de certains distributeurs. 

Pendant l’aventure Netbook, avec l’arrivée de la seconde génération de machines en 10 pouces, certains acteurs du monde informatique se sont taillé une brèche opportune sur le marché. MSI par exemple, très connu aujourd’hui, n’avait pas réussi à se faire distribuer en grande surface en France. L’arrivée du MSI Wind a permis de mettre un « pied dans la porte » pour la marque. Cela a été difficile, très difficile. La négociation a été rude, la marque y a laissé une bonne partie de sa marge mais… MSI était en rayon, face au public, sur un marché compliqué. Pour la grande distribution, c’était un pari gagnant parce que les engins avaient le vent en poupe. Ils répondaient à la fois à un besoin mais aussi à une mode. Ils ont servi de produit d’appel avec, parfois là encore, des sacrifices sur le prix de vente.

Comme vous l’aurez compris, pas grand monde n’a gagné d’argent avec les MSI Wind. Les engins étaient proposés peu cher par la marque à une grande distribution qui les vendait également peu cher. Comble de l’opération : MSI en fabriquait aussi pour un de ses concurrents qui était Medion et qui les vendait lui-même à prix cassé. Depuis, MSI a gagné des parts de marché, la marque s’est servi de cette douloureuse entrée pour devenir un acteur reconnu en France sur le secteur des portables.

PC Low-Cost

Quel rapport avec les PC Low-Cost ? Il est assez simple. Le commerce a besoin de ces PC à « 500$ » pour faire vivre leur espace commercial informatique. Sans eux, impossible de vendre l’ensemble des autres éléments de l’offre. Écrans, imprimantes, câbles, souris, claviers, manettes et autres accessoires. Les grands distributeurs, ceux qui sont les premiers à demander aux marques des machines à bas prix, feront tout ce qui sera nécessaire pour continuer à faire vivre leur rayon informatique. Ils gagnent peu avec leurs machines mais se rattrapent en général avec les accessoires supplémentaires. Cette démarche-là a absolument besoin d’un prix d’appel. 

On l’a vu, depuis des années, les fabricants informatiques proposent des formules « à la carte » aux revendeurs. Des machines « exclusives » qui sont composées a partir de composants « communs ». Une version d’un 15 pouces sort chez une marque, elle est alors déclinée avec différents processeurs, plus ou moins de mémoire et de stockage et des options variées. Certains distributeurs jouent sur la mémoire vive, d’autres sur la capacité de stockage. On peut ainsi retrouver de subtiles variations du même ordinateur de base avec une définition d’écran plus ou moins élevée, un système d’exploitation ou non et autres changements pour coller au prix demandé par le distributeur.

Je reste persuadé que certaines enseignes vont tout faire, tous les sacrifices possibles, pour continuer à proposer en rayon des machines abordables. Pas par choix véritable ou goût des petites marges mais parce que ne pas le faire rimerait avec la perte d’une grande partie de leur offre et de leur chiffre d’affaires. Et si les grandes marques ne veulent pas proposer les PC dont ils ont besoin, certaines plus petites verront là une opportunité pour venir s’installer dans les rayons. Pour se faire un nom. Et croyez moi, certaines piaffent d’impatience. Ces marques savent que vendre à marge quasi nulle a un coût, mais que ce coût est inférieur à une campagne de publicité internationale pour exister face aux géants du marché.

Vers une certaine dégadgetisation du marché

Ces dernières années, on a vu des marques ne plus savoir quoi faire pour justifier leurs tarifs : des gadgets sont apparus à la pelle. LEDs à foison, débauche de haut-parleurs, double protection biométrique avec caméra infrarouge et lecteur d’empreintes, pavés tactiles gigantesques, châssis ultra-fins… Les machines ont justifié la fin de la baisse de leurs tarifs en ajoutant de plus en plus de fonctions ou de gadgets externes à leur usage premier.

La course à un affichage de plus en plus rapide est un très bon exemple de ce mouvement. En quelques années, le moindre portable est passé de 60 à 120, 240 ou 265 Hz. Ce qui est très positif à prix constant mais moins apprécié quand les prix s’envolent. L’utilisateur lambda qui cherche un PC à bas coût préfèrera toujours garder son budget intact plutôt qu’acheter une double paire de haut-parleurs, des LEDs qui clignotent, un écran 180 Hz et une double solution biométrique qu’il ne configurera même pas.

Je suppose qu’en ce moment même, une armée d’ingénieurs taille dans les gadgets du monde portable pour réduire la note. Cela passera par des éléments très secondaires et probablement d’autres aspects plus importants des machines mais pas forcément primordiaux de celles-ci. Une légère hausse de la coque, quelques millimètres qui permettront un assemblage moins couteux et une intégration de batteries plus épaisses moins chères à l’achat. La probable disparition des claviers rétroéclairés qui avaient commencé à faire leur apparition sur les portables les plus abordables. Une réduction des surfaces tactiles et autres modifications qui vont tendre vers des engins plus simples et plus abordables. Si une bonne partie du public sera plus sensible à la facture d’un PC low-cost qu’au nombre de gadgets qui serotn embarqués sur son voisin proposé à 100€ de plus, les premiers qui vont réclamer ce mouvement seront les revendeurs eux-même.

L’analyse de Gartner est linéaire

Pour Gartner, les machines sous les 500$ vont disparaître parce que ce marché ne serait plus rentable. C’est assez vrai, proposer un ordinateur portable moderne avec 16 Go de mémoire vive et 512 Go de stockage sous Windows avec une puce Intel ou AMD issue des deux dernières générations derrière parait difficile. Il faut compter dans ces 500$ HT la marge du distributeur, celle du fabricant et de l’éventuel grossiste. Il faut également compter le transport et, évidemment, la fabrication de l’engin. Cela ne laisse pas beaucoup de possibilités pour manœuvrer sur les prix.

Mais, et on l’a déjà vu en action, le marché ne fonctionne pas tout entier comme cela. Sur le segment des MiniPC, segment peut-être le plus agile de l’offre informatique avec une production quasiment à flux tendu et souvent vendue en direct par les marques, la réaction a été rapide. À la suite de la hausse des prix de la mémoire, les fabricants ont immédiatement proposé des engins de type barebone. Une manière de passer entre les gouttes du problème en enlevant mémoire et stockage de l’équation. Puis, assez vite, sont apparues des variantes de leurs machines plus classiques. Des modèles qui ont fait entrer notamment des puces de générations passées. Des processeurs qui avaient disparu des radars ces dernières années chez AMD comme chez Intel sont revenus sur le devant de la scène. 

Les minimachines livrées auparavant systématiquement avec 16 Go de mémoire vive et 512 Go de stockage ont rapidement été déclinées en 12 et 8 Go de RAM. Leur SSD a changé également, passant à 256 ou même 128 Go. Bref, le marché a fait un truc étrange pour les fabricants classiques, il est allé à l’envers. Aujourd’hui, une marque comme Geekom propose un MiniPC avec un processeur lancé il y a 3 ans par AMD, avec 16 Go de mémoire et 512 Go de stockage, pour moins de 400€. Si aucune grande marque ne veut proposer ce genre de prix, ce type de constructeur se fera une joie de venir prendre leur place dans les rayons d’un supermarché.

Les fabricants de MiniPC ont été très rapides car ils fabriquent leurs machines en petites séries et pour certains n’ont pas beaucoup d’état d’âme quant à la perception de leur marque. Qu’on considère certaines de leurs machines comme dépassées ne leur fait ni chaud ni froid. Ces engins sont leur seule ressource et ils feront tout pour la faire vivre. Des grands noms du secteur comme HP, Lenovo, Dell, Acer ou Asus ont une gamme plus large de produits et vendent parfois du service. Pour une marque « noname », ne plus vendre de MiniPC abordable signifie simplement disparaitre.

Des bouleversements importants sur le marché des PC low-cost 

L’ensemble de ces éléments me laisse à penser que le marché du PC low-cost va être bouleversé ces prochaines années. Mais loin de disparaître, il peut rebattre des cartes. L’actualité nous fait découvrir un portable MacBook Neo qui sera facturé à partir de 599€ pour un étudiant et 699€ pour un acheteur classique. Apple y déploie les stratégies nécessaires pour baisser la note : puce ancienne, mémoire et stockage en baisses, ajustements techniques. Rien n’empêchera les constructeurs de PC de faire exactement la même chose maintenant que la marque à la pomme a ouvert la voie.

Et ils n’auront d’ailleurs pas d’autres choix. Comment vendre des portables entrée de gamme au-dessus des 500€ à des étudiants si Apple propose une solution à 599€. Je ne vais pas comparer le Macbook Neo à d’autres engins qui n’existent pas encore en réplique dans le monde PC mais il me parait difficile de croire que le marché classique sous Windows va pouvoir gagner à prix égal ou légèrement inférieur. Surtout avec un Windows 11 si délabré.

Le marché des PC low-cost qui disparaitrait serait une fuite en avant importante du secteur tout entier. Certes les prix vont bouger, largement à la hausse. Mais en jouant sur différents postes, les PC Low-cost vont continuer à y exister. Les constructeurs n’ont d’ailleurs pas réellement le choix, toute l’industrie tient sur un certain volume de fabrication et de vente. Arrêter l’entrée de gamme aurait des conséquences sur ce volume en ralentissant énormément le segment, ce qui affecterait également le prix de fabrication des segments plus haut de gamme. Et le public comme les entreprises ne suivraient plus. Un ralentissement trop important de la production aurait un impact monstrueux sur l’ensemble du secteur et mettrait en péril la solidité des marques les mieux établies.

DDRGate : Il ne faut pas penser sur le temps court

PC low-cost : Gartner prédit la fin de l’entrée de gamme en 2028 © MiniMachines.net. 2026

Passer son permis de conduire à l’heure du digital : l’avènement d’un écosystème complet

Par : Patrick
4 mars 2026 à 15:22

Comment réussir son permis de conduire à l'ère du numérique ? Profitez d'une pédagogie innovante, de tarifs attractifs et d'un accompagnement complet pour devenir conducteur.

Passer son permis de conduire à l’heure du digital : l’avènement d’un écosystème complet est un article de Blog-Moteur, le blog des passionnés d'automobile !

Microslop : le mot que Microsoft ne supporte plus

3 mars 2026 à 11:48

Microslop est une construction comme savent inventer les internautes en un éclair de génie. Une construction que Microsoft ne supporte pas. L’assemblage de Microsoft et de Slop qui désigne les productions imbéciles des générateurs IA, elle colle déjà à la peau de l’entreprise.

La naissance du mot Microslop date seulement de janvier, comme tous les termes qui font mouche, il est massivement repris par la toile. Sous forme de hashtag, en commentaire et autres blagues au détour d’un message publié ça ou là. Ce n’est pas la première fois que le papa de Windows hérite d’un sobriquet peu flatteur. On connaît bien les termes Micro$oft et autre Microflop qui parsèment le web depuis de nombreuses années. Le problème, c’est que le mot Slop est devenu une star en 2025. Il réussit, en quatre lettres, à décrire toute l’aigreur d’un public affolé par le pourrissement rapide du web. Pourriture liée aux générateurs de textes, de vidéos et d’images qui font que désormais on doute de tous et de tout. Le web aura connu un avant et un après le Slop.

Le terme Microslop bloqué : image de Windows Latest

Le terme Microslop bloqué : image de Windows Latest

Microslop contre Goliath

Le truc avec Microslop, c’est que ce simple mot mène une bataille idéologique à lui tout seul. Le mot englobe toute la dérive des investissements colossaux dans l’IA de Microsoft. Avec Copilot+, avec les tentatives de faire avaler de l’IA dans son système d’exploitation, avec le passage de Windows 11 au forceps et ses comportements erratiques, la proposition bien flippante de Recall, la baisse constante de qualité du système et la mise en avant des possibilités très théoriques des NPU sous Windows. Avec le changement physique des claviers de certaines machines. Microsoft s’est fait une jolie réputation de forceur. Ces courtisans qui ont le compliment un peu trop facile et les intentions trop claires pour qu’on leur fasse confiance.

Sur l’IA, Microsoft est passé de système d’exploitation à acteur et semble ne pas comprendre pourquoi le grand public le boude. Le principe d’un système d’exploitation est de proposer une formule de fonctionnement. Un endroit où installer les programmes de son choix et les piloter tranquillement. Depuis longtemps chez Microsoft cette politique n’est plus assez rentable, alors depuis des années la firme déploie différentes stratégies pour aller plus loin.

Cela a commencé avec Microsoft Office qui a été une réussite autant technique que marketing. Presque tout le monde dit Word pour traitement de texte, PowerPoint à la place de présentation ou Excel au lieu de tableur. Cela a donné envie à l’éditeur de proposer d’autres services. Avec Edge par exemple, pour tenter d’en faire le navigateur web par excellence. Cela n’a pas trop bien marché. Edge a été une bataille coûteuse, très coûteuse. Perdue face à Google Chrome. Depuis, d’autres tentatives de devenir leader sur un secteur en dehors du marché du système d’exploitation sont apparues et la plus importante en date est celle de l’IA. 

L’IA parce qu’un de ses principaux enjeux est de rebattre les cartes actuelles de la recherche en ligne. L’objectif pour les géants mondiaux de l’IA comme OpenAI, Anthropic, Google ou Microsoft, c’est de fournir un service en amont. De garder les utilisateurs sur ses pages au lieu de le voir partir ailleurs. Vous l’avez sûrement vu, désormais les moteurs de recherche et les navigateurs proposent des fonctions IA dont le but est de répondre à vos questions avant de proposer des résultats de recherche. L’objectif de Microsoft est de faire cela au sein même de Windows. Que chaque question ne sorte pas du système mais reste bien enfermée à l’intérieur. L’idéal serait que cela devienne un réflexe utilisateur. De la même manière qu’on appuie sur la touche Windows et qu’on commence à pianoter le début d’un programme à lancer, on appuierait sur la touche Copilot pour interroger l’IA maison.

On comprend mieux pourquoi Microsoft n’aime pas Microslop. Si le grand public venait à déconsidérer les recherches sous Windows et Copilot en général, cela serait catastrophique pour la marque. C’est un peu le risque pourtant quand on cherche à faire rentrer au chausse-pied l’usage de l’IA partout et pour n’importe quoi.

Microslop bannit des serveurs Discord de Copilot.

Il y a peu, des internautes se sont rendus compte que le mot « Microslop » était banni de certains serveurs Discord. La technique est simple, les modérateurs ont des listes de mots qu’ils ne veulent pas voir. En général des insultes, des termes spécifiques qui n’ont pas lieu d’être sur un site public. Une « liste noire » de mots est ainsi tenue par la modération et tout message qui en utiliserait un empêcherait sa publication. L’utilisateur qui emploie le mot recevant un message qui indique qu’il a enfreint les règles du canal comprend donc assez vite où est l’interdit.

Évidemment, comme l’internaute moyen adore tout ce qui est interdit et qu’il suffit de changer une lettre pour que le mot survive à cette modération. La contrainte se transforme rapidement en jeu. Ainsi Microslop se transforme en Microsl0p ou Micro$lop qui, eux, fonctionnent. Devant le nombre de possibilités et l’inventivité des utilisateurs, les modérateurs finissent par limiter l’accès à certains serveurs. Ce qui met précisément le feu aux poudres et renforce l’image sulfureuse du terme et de Copilot. 

Ce que Microslop nous apprend

La stratégie choisie par Microsoft est la pire possible. Elle montre plusieurs choses dans un condensé qui illustre parfaitement le problème lié aux LLM et autres IA génératives.

D’abord, la stratégie consistant à faire disparaitre quelque chose et qui a l’effet absolument inverse est documentée depuis longtemps en ligne sous le nom d’Effet Streisand. Si les équipes de modération avaient laissé couler, le terme aurait sans doute constitué un bruit de fond constant mais n’aurait jamais fait l’actualité. L’irritabilité connue de Satya Nadella quant à ce mot Microslop a certainement poussé certains a faire du zèle et interdire un mot qui aurait dû rester libre d’emploi. La censure joue ici son rôle de combustible.

Ensuite, que Copilot n’aurait jamais pu inventer le terme MicroSlop. Ce qui apparait pourtant comme une évidence dès la première lecture dans son contexte à toute personne connaissant le mot Slop. Il fallait un terme pour ces images générées par une IA qui ne saisit pas ce qu’elle affiche. Les humains avec trois bras, les chiens avec une tête de chaque côté du corps, ces scènes « historiques » où un roi franc est habillé comme Louis XIV ou ces villes romaines où l’on distingue des palettes et des caddies… La contraction Microslop est une invention humaine parce qu’un LLM n’est qu’un faiseur de puzzle qui reprend les mots des autres. Rien de plus. Les IA sont incapables d’inventer des choses poétiques ou des slogans ayant un fort impact. Elles seront aussi bien perdues devant la description du monde par les yeux d’un nouveau courant de peinture que par l’efficacité d’une comptine d’enfant.

Enfin et surtout, en jouant sur la censure du mot, Microsoft nous montre le danger de ces IA. Faire une recherche au travers de Copilot, c’est faire une recherche au travers de la vision du monde de Microsoft. Et, si ce regard sur le monde a pour but de faire disparaitre un mot du paysage, quels autres termes, quels autres angles, quels autres produits sont ou seront également amenés à disparaitre ? Microsoft illustre ici en un seul choix tout le problème de laisser son univers se réduire à la volonté d’un censeur.

Vous avez déjà tenté de faire une recherche sur des logiciels alternatifs à celui que vous utilisez au quotidien ? Une mise à jour a rendu votre logiciel préféré de gestion d’images inexploitable ou moins pratique, et vous entrez dans un moteur de recherche quelque chose comme le nom du logiciel et le mot-clé « alternatives ». Le moteur de recherche propose alors une liste de liens vers des solutions. En général, les premiers résultats sont des listes établies par des logiciels concurrents qui vont mettre en avant leur solution tout en présentant les autres de manière moins flatteuse. Que se passera-t-il si vous faites une recherche d’une alternative aux outils bureautique de Microsoft au travers de Copilot ? Est-ce que celui-ci vous présentera Libre Office ? Vous dira-t-il qu’il est gratuit et suffisant pour la très grande majorité des usages ? 

En censurant Microslop, même sur un service comme Discord, Microsoft nous rappelle qu’une entreprise de ce type est toujours sur la corde raide entre la protection de ses intérêts et l’information libre et non faussée. Cette IA Copilot qui est intégrée au chausse-pied dans Windows reste une boite noire sur laquelle nous n’avons aucun contrôle ni aucune information de fonctionnement. Si demain Microsoft voulait que certaines informations d’actualité ne remontent plus de ses calculs, cela serait tout à fait possible. 

Au-delà du Slop et de ce qu’il a déjà fait au web à cause des géants de l’IA et des outils mis à la disposition du public, l’enjeu de la censure possiblement exercée par un géant de la tech comme Microsoft est un enjeu beaucoup plus vaste et inquiétant.

Microsoft recule

L’éditeur a depuis fait savoir que la censure du mot Microslop était temporaire et que le serveur Discord Copilot a été fermé pour lutter contre les spams. On ne saura jamais si c’est vrai ou si la réalité d’un effet Streisand est irrévocablement destinée à être rappelée après toute tentative de censure. Toujours est-il que la modération promet une réouverture du canal de discussion et de l’emploi du mot préalablement banni. Je n’épiloguerai pas sur les raisons réelles ou supposées de ce retour à la normale. Le fait que Microsoft, comme toutes les autres IA, puisse remodeler le monde au travers du regard qui leur convient le mieux est évident. C’est notamment pour cela que vous devez pousser vos recherches en ligne au-delà de ce que vous propose une IA par défaut. Qu’un petit tour sur une encyclopédie vous sera toujours plus utile qu’un résumé piloté par un LLM. 

Au moins, vous serez certain d’une certaine complexité de l’analyse, de lire des avis pouvant être contradictoires et en mesure de voir des images fiables. Vous aurez même parfois des explications qui iront contre vos convictions. Choses qu’ont bien du mal à faire les IA aujourd’hui.

Microsoft n’aurait que 3% d’utilisateurs payants de Copilot

Source : Windows Latest

Microslop : le mot que Microsoft ne supporte plus © MiniMachines.net. 2026

CRP DISABLD : la lèpre qui ronge les périphériques PC

27 février 2026 à 12:19

Je découvre depuis avant-hier des dizaines et des dizaines de remontées suite à une simple recherche sur les mots clés CRP DISABLD. Il semble que cela soit un mal qui affecte un nombre incalculable de périphériques PC au format USB : souris, claviers, casques et même webcam, écrans ou vidéo projecteurs. Et cela depuis plus de 10 ans.

De nombreuses marques sont touchées, Asus, Razer, NZXT, LG, Corsair… Avec à chaque fois le même scénario. Un périphérique qui fonctionnait jusque-là parfaitement n’est soudainement plus reconnu par le système. C’est généralement visible après le redémarrage d’une machine ou un changement de port USB. Le système ne réagit plus lorsque vous manipulez le périphérique et il affiche alors soit directement, soit par l’entremise de votre pilote, le message « CRP DISABLD ».

CRP DISABLD

Ce message est accompagné d’un comportement surprenant. Votre souris, votre casque, votre webcam ou votre clavier USB sont vu comme… une clé USB. De fait, vous pouvez découvrir en le branchant qu’il se comporte comme un nouveau stockage dans votre gestionnaire de fichiers. Pas une très bonne affaire car il ne peut contenir que quelques mégaoctets au mieux. Ce stockage qui ne contient en général qu’un seul et unique fichier. Quasiment toujours le même, appelé firmware.bin. Ce fichier est accessible en lecture, il peut être ouvert et le fichier lu. Il est plus rarement possible d’y écrire pour modifier des données ou les remplacer.

10 mois d'attente sans réponse du SAV.

10 mois d’attente sans réponse du SAV.

Pas de réponse de nombreux SAV

J’ai pu retrouver des traces de ce CRP DISABLD sur des forums et des SAV de différents fabricants depuis… 2014. À chaque fois, le même scénario est décrit par les utilisateurs. Leur périphérique ne donne soudainement plus aucun signe de vie. Leur système leur explique même qu’il faut d’abord éjecter les périphériques de stockage avant de les déconnecter alors qu’ils viennent de débrancher leur souris pour « tenter un autre port ».

Un an, zéro réponse

Un an, zéro réponse

Et, très souvent, les questions posées par les internautes aux différents supports sont « sans réponse »2. Les sujets restent ouverts pendant des semaines sans que l’utilisateur ne trouve d’aide. D’autres fois, des internautes tentent d’aider mais « tapent à côté ».

Tout simplement parce qu’il n’y a pas vraiment de réponse possible. La plupart des souris, webcams et autres appareils touchés par le bug ne peuvent pas être réparés. Les internautes posent des questions, s’énervent et abandonnent. Souvent les modérateurs des forums jouent la montre. Au pire, ils font le mort ou ferment les demandes de support sans raison. Au mieux, ils invitent à contacter un service après-vente par téléphone ou via un chat.

Personne ne sait vraiment d’où vient le bug CRP DISABLD

Je n’ai pas encore poussé mon analyse au maximum mais j’ai fait le tour des différents bugs et j’en suis arrivé à une conclusion assez simple. Le problème naît tout bêtement d’une erreur de « firmware » du périphérique. Pour une raison ou une autre, le fichier qui explique à l’ordinateur comment il doit piloter l’appareil n’est plus fonctionnel. Il n’est plus lu comme un « guide de procédure » par la souris ou le clavier mais comme un fichier tout à fait banal par l’ordinateur, sans filtre.

Lorsqu’un périphérique est alimenté par le port USB d’un PC, il est alors piloté par une puce, un microcontrôleur, qui va instantanément lire le firmware embarqué. Celui-ci recense toutes les actions possibles et tout le catalogue des équipements embarqués. Les clics, le défilement de la molette et les déplacements pour une souris. Les touches pour un clavier, la manière de piloter la caméra et le micro pour une webcam. Si ce firmware est absent, illisible ou non pris en compte, le système d’exploitation de votre ordinateur ne peut pas exploiter ces éléments pourtant toujours fonctionnels. Il ne voit que la connexion USB qui mène à la mémoire de l’appareil. Rien d’autre.

Or, il semble assez courant que ce firmware devienne illisible, ce qui mène au bug CPR DISABLD. La raison de cette altération peut être très variable. On pense évidemment à une erreur de mise à jour du périphérique ou à un débranchement de celui-ci pendant cette mise à jour. Il semble évident que les fichiers puissent se corrompre avec le temps ou que différents bugs techniques finissent par les altérer.

Pour avoir lu plus d’une trentaine de descriptions de ce problème chez différentes marques, le scénario évoque toujours la même chose : un matin, ce qui fonctionnait très bien la veille, ne fonctionne plus. Et personne ne sait vraiment pourquoi.

Sur un écran LG, la facture matérielle est salée, alors des tutos existent

Sur un écran LG, la facture matérielle est salée, alors des tutos existent

Un bug qui n’a pas toujours de solution… économique

Ce qui embête le plus les différents SAV, c’est qu’il n’existe pas de solution. Enfin, pas vraiment de solution économique au problème. Certains appareils peuvent être réparés très facilement. C’est le cas le plus souvent des produits les plus haut de gamme. D’autres ne peuvent tout simplement pas être dépannés. Enfin, façon de parler. Parce qu’en réalité, mécaniquement parlant, les appareils sont parfaitement fonctionnels. Simplement, de nombreux constructeurs ne prévoient pas d’option pour pouvoir reflasher leurs périphériques si le firmware n’est plus reconnu.

La majorité de ces appareils disposent d’une fonction de flashage de mémoire permettant de les actualiser. Mais, malheureusement, pour que la procédure fonctionne, il faut que l’appareil en difficulté signale sa présence au logiciel de mise à jour installé sur votre PC. Or une souris qui n’a plus de firmware ne communique plus correctement avec le reste du système, elle ne dit plus qui elle est. Le logiciel de la marque ne la voit pas et il est alors impossible de forcer une mise à jour.

Certains constructeurs ont une parade. C’est le cas de NZXT par exemple. Qui propose une solution toute bête : l’utilisateur peut simplement remplacer le fichier firmware.bin défectueux avec un simple copié-collé. Lorsque le bug CRP DISABLD touche un de leurs claviers et qu’il apparait comme une clé USB. Un remplacement de firmware suffit. On débranche ensuite son clavier, on attend un peu pour être certain que la maigre mémoire embarquée soit désalimentée et se vide. Puis on rebranche pour retrouver un clavier fonctionnel. Valve avait proposé la même procédure pour son Steam Controller en 2015.

Pratique mais, au dire de certains, dangereux. Un système aussi libre d’accès serait la porte ouverte à l’envoi discret d’un firmware pouvant contenir un keylogger. Un petit bout de programme permettant d’enregistrer et de transmettre toutes les frappes d’un clavier, par exemple. Ce scénario parait un peu tiré par les cheveux car il supposerait une infection du matériel et du logiciel sur votre machine. D’une part, les protocoles qui pilotent ce type de périphérique sont très limités. Mais surtout, à partir du moment où vous avez un programme sur votre PC dont la tâche serait d’infecter votre périphérique, il n’est pas utile d’aller plus loin. Ce programme peut déjà infecter le système. Tout peut déjà être intercepté. On imagine mal une solution qui rendrait la tâche plus compliquée et moins fiable pour un pirate en doublant l’infection logicielle tout en la rendant sensible à un changement de matériel.

Pour d’autres appareils et d’autres marques, il faut recourir à l’appui sur un bouton ou à une manipulation de touches spécifiques. Manipulations qui vont ouvrir les droits en écriture sur cette mémoire qui n’est que lisible par défaut. Si vous avez déjà travaillé avec un microcontrôleur, c’est l’équivalent du bouton BOOT ou ISP présent sur beaucoup de montages, bouton qui ouvre les droits en écriture pour programmer un appareil. 

Sur un forum Asus le modérateur explique une procédure à effectuer sur une souris pour entrer en mode "flashage"

Sur un forum Asus le modérateur explique une procédure à effectuer sur une souris pour entrer en mode « flashage »

Problème, la majorité de ces périphériques ne proposent pas ce bouton. Pour des raisons économiques et peut-être pour des raisons de sécurité, les constructeurs ne les proposent plus. Il existe parfois deux points de contact sur le circuit imprimé de l’appareil qui permettent de remplacer ce bouton, mais ils ne sont pas accessibles sans désosser totalement l’appareil. 

Une folie écologique

Résultat, de nombreux services après-vente n’ont pas d’autre choix que d’assumer la reprise d’une souris, d’un clavier ou d’un casque pourtant parfaitement fonctionnels. Il faut rapatrier l’objet, l’ouvrir, faire le point de contact et forcer le firmware avec un outil spécifique. Puis renvoyer le périphérique vers le client. Un processus coûteux, trop coûteux, surtout pour des objets dont le prix en sortie d’usine ne dépasse rarement que quelques dollars.

Pour un câble sans fil, il faut couper tous les câbles livrés

Pour un câble sans fil, il faut couper tous les câbles livrés

La « solution » alternative trouvée est donc de forcer le client à jeter sa souris, son clavier ou sa webcam à la poubelle avant de lui renvoyer un autre produit. Et cela malgré le fait que cette erreur CRP DISABLD n’affecte en rien le fonctionnement matériel du produit. Comment forcer un client à jeter une souris à la poubelle à distance ? Rien de plus simple. Vous lui demandez de prendre en photo l’objet avec l’ensemble de ses câbles coupés. Chez Razer, il y a un guide qui décrit comment couper le cordon de sa souris, son enceinte et de bien d’autres appareils

Il faut le faire en suivant un certain protocole : exposer le numéro de série du périphérique défaillant sur la photo, inscrire son numéro de dossier sur un papier et montrer de manière explicite le cordon de l’appareil coupé. Une fois le cliché pris, on l’envoie au SAV de la marque qui valide ensuite l’envoi d’un nouveau périphérique.

On comprend que la procédure est là pour éviter que les internautes ne demandent un nouveau produit en disant que le leur n’est pas fonctionnel, ce qui serait évidemment impossible à assumer pour les marques. En forçant la destruction du produit, le SAV est certain que la procédure ne sera pas utilisée frauduleusement. Mais il y aurait des alternatives en proposant simplement de pouvoir remonter un fichier firmware.bin aussi simplement que le fait NZXT.

Que faire donc si vous rencontrez ce problème de CRP DISABLD ?

Pas grand-chose d’autre que de contacter le fabricant si vous êtes sous garantie. Il vous guidera sur les éventuelles procédures de sauvegarde et proposera de télécharger des outils de mises à jour pour tenter de récupérer votre matériel. Cela échoue souvent mais n’hésitez pas à réclamer dans ce cas un remplacement du produit. Si vous n’êtes plus sous garantie, vous pouvez parcourir le site de votre fabricant pour tenter de trouver une solution de mise à jour de firmware. Mais il y a de fortes chances qu’elle échoue. Comme expliqué plus haut, le logiciel est pensé pour vérifier la présence de votre matériel avant de le flasher, or avec ce bug CRP DISABLD, votre matériel a perdu toute identification.

En désespoir de cause, vous pouvez tenter deux choses supplémentaires qui semblent parfois fonctionner si j’en crois différents témoignages. La première est de trouver un périphérique absolument identique au votre, de le brancher sur votre machine avec celui défaillant à portée mais non connecté. Puis, de tenter de lancer la procédure de mise à jour du firmware. Après que l’outil de mise à jour indique qu’il a bien repéré l’appareil fonctionnel et avant de lancer la procédure, d’intervertir le matériel fonctionnel et le matériel présentant l’erreur CRP DISABLD sur le même port, puis de lancer l’opération. Si j’en juge par divers témoignages, cela marche parfois. A tenter donc si vous voulez racheter le même périphérique après la fin de votre garantie.

L’autre solution consiste à fouiller forums et bas-fonds d’internet pour tenter de trouver un firmware compatible et un outil de programmation forcée échappé d’un centre de SAV. Le tout est généralement accompagné d’une manipulation particulière. Mais attention, cette pratique n’est à exécuter qu’en dernier recours. Le risque de rendre son appareil définitivement hors service est possible.

CRP DISABLD : la lèpre qui ronge les périphériques PC © MiniMachines.net. 2026

La location de voiture, pilier d’une mobilité flexible et responsable

Par : Patrick
26 février 2026 à 11:20

Dans un monde où les emplois du temps s’intensifient et les envies de voyage se multiplient, la location de voiture reste une solution particulièrement adaptée et polyvalente.

La location de voiture, pilier d’une mobilité flexible et responsable est un article de Blog-Moteur, le blog des passionnés d'automobile !

Steam Néo Fest de février 2026 : des démos de FPS qui oscillent entre catastrophe et bonne surprise

Par : Estyaah
25 février 2026 à 11:36

C’est reparti pour le Steam Néo Fest, comme tous les trois mois. Cette fois-ci, on vous a mis à contribution sur le Discord NoFrag, pour qu’on ne soit pas les seuls à bosser ! Bon, on a tout de même fait un live hier soir pour tester quelques trucs, dont certains en coopération. Il y a évidemment du bon et du moins bon – surtout du moins bon –, donc on vous fait un petit récap. N’hésitez pas à rajouter vos découvertes en commentaire ; on pourra les intégrer le cas échéant.

Si vous n’avez pas que ça à faire, et que vous voulez juste de bonnes démos, on vous conseille John Carpenter’s Toxic Commando pour la coop et Distant Shore: BRETAGNE pour du solo.


Les bonnes démos

John Carpenter’s Toxic Commando

Genre : Coopération

À l’approche de sa sortie prévue pour le 12 mars 2026, cette démo de John Carpenter’s Toxic Commando fait office de crash test pour Saber Interactive (le développeur) et Focus Entertainment (l’éditeur). Vu ce qu’ils nous proposent, ils devaient être assez confiants tout de même : on sent qu’ils sont largement allés piocher dans leur précédent jeu World War Z, mais surtout dans l’excellent, mais néanmoins TPS, Warhammer 40,000: Space Marines 2, notamment sur la mécanique de progression. Ils ont évidemment aussi repris la fonction « swarm », qui permet à ces masses d’innombrables zombies de se déplacer de manière fluide et organique, et c’est franchement impressionnant. Oui, c’est assez rapidement bordélique, mais le gunfeel est correct et la conduite, lourde sans être pataude, laisse un arrière-goût étonnamment plaisant. Et la musique colle bien avec l’ambiance série B des années 80. Niveau perf, cela semble assez mitigé selon la configuration, puisque certains trouvent le framerate un peu limite sur certaines zones, tandis que d’autres n’ont pas ressenti du tout de ralentissements. Mais on reste probablement dans le haut du panier. En bref, c’est un jeu qui sera sans doute très plaisant à trois ou quatre pour quelques soirées, voire plus, et qui proposera sans doute un peu de contenu sur la durée.

Testeurs : Apokalyps, Bulince, Estyaah

John Carpenter’s Toxic Commando sur NoFrag // Steam // Chez notre partenaire Gamesplanet à 36 € // Date de sortie : 12/03/2026

Distant Shore: BRETAGNE

Genre : Puzzle game & parkour

On était déjà chauffés par la présentation vidéo, mais on doit dire que la prise en main est encore meilleure qu’espérée. Distant Shore: BRETAGNE est un puzzle game dans lequel on manipule des éléments métalliques (des caisses, des structures, des poutres…) grâce à des gants magnétiques. On balance un point d’ancrage bleu et un point d’ancrage orange, puis on peut les rapprocher ou les écarter. Et ça fonctionne étonnamment bien. C’est extrêmement fluide et réellement innovant. En plus, la direction artistique est très chouette. Il y a une grosse notion de parkour, et les mouvements sont également très corrects. C’est la meilleure démo que l’on a pu tester de toute la sélection.

Testeur : Estyaah

Distant Shore: BRETAGNE sur NoFrag // Steam //  Date de sortie : Inconnue

Luna Abyss

Genre : Bullet Hell

Un bullet hell dans un univers étrange et original. La direction artistique est très réussie : c’est magnifique, on ne se perd jamais dans les décors immenses et ça tourne super bien. Les combats se déroulent à chaque fois dans des sortes d’arènes dans lesquelles il faut gérer les priorités sur les ennemis. Il y a un lock possible pour permettre d’éviter les projectiles, ce qui n’est pas de trop parfois. Dans la démo, on dispose de deux armes différentes : l’une pour détruire les boucliers et la seconde pour faire des dégâts, et ça marche très bien. On regrette juste le freeze de quelques frames lorsque l’on tue chaque ennemi. Un autre effet serait sans doute plus agréable pour fluidifier le gameplay. Mais on sent qu’il y a une certaine qualité globale dans le titre. On est impatients de voir la version finale arriver.

Testeurs : Belzaran, Estyaah

Luna Abyss sur NoFrag // Steam //  Date de sortie : 2026

Starship Troopers: Ultimate Bug War!

Genre : Rétro-FPS

Développé par Auroch Digital, qui a fait Warhammer 40 000: Boltgun, Starship Troopers: Ultimate Bug War! est un rétro-FPS un peu dans la même veine (gros pixels, mais déplacements vifs, mécaniques de gameplay un peu évoluées et lumières modernes), mais cette fois-ci dans un monde plus ou moins ouvert, qui fait débat. Certains trouvent que ça donne un sentiment d’être dans un monde cohérent, mais d’un autre côté, d’autres estiment que les zones sans vie brisent un peu l’immersion. En revanche, le gunfeel est plutôt correct, et on s’amuse bien à défourailler des arachnides. Notip d’Apokalyps : ne jouez pas en mode normal, c’est pour les bébés.

Testeurs : Apokalyps, Estyaah

Starship Troopers: Ultimate Bug War! sur NoFrag // Steam //  Date de sortie : 16/03/2026

Fractal

Genre : Puzzle game

C’est Portal, à priori sans portail, développé sous Unity avec de gros pixels. C’est joli et ça a l’air bien, mais je suis resté bloqué sur le deuxième niveau pendant le stream.

Testeurs : Estyaah

Fractal sur NoFrag // Steam //  Date de sortie : Inconnue

Iron Blight

Genre : Survival horror

Un rétro-FPS avec de gros pixels façon PSOne, mais au gameplay très inspiré des Resident Evil. L’interface diégétique est top, et il semble y avoir pas mal de munitions. Le feeling est très chouette. C’est développé en solo par celui qui travaille également sur l’immersive sim Aquametsis, dont la direction artistique n’est pas aussi réussie que ce nouveau projet, mais qui promet un gameplay beaucoup plus profond.

Testeur : Estyaah

Iron Blight sur NoFrag // Steam //  Date de sortie : Inconnue

Call of the Elder Gods

Genre : Puzzle game / walking sim

La suite de Call of the Sea, un walking sim dans l’univers de Lovecraft avec une direction artistique plutôt chouette avec du cel shading. Cet épisode est également très réussi artistiquement, et la démo propose un mélange de narration et d’énigmes. La difficulté semble plutôt correcte. C’est très prometteur pour la version complète.

Testeur : Estyaah

Call of the Elder Gods sur NoFrag // Steam //  Date de sortie : Inconnue

WILL: Follow The Light

Genre : Walking sim

On avait participé aux playtests d’il y a quelques mois, qui ressemblaient fort à une démo, donc on va partir du principe que c’est la même chose qu’on a eu entre les mains. Et on avait beaucoup aimé : de petites interactions à gauche et à droite, une direction artistique très réussie, et une narration intéressante. On avait juste trouvé dommage de rencontrer quelques petits puzzles qui ne s’intégraient pas vraiment dans la diégèse du titre, sans doute insérés par les devs par crainte que le joueur s’ennuie.

Testeur : Estyaah

WILL: Follow The Light sur NoFrag // Steam //  Date de sortie : 2026

Les autres démos qu’on n’a pas relancées, mais qu’on avait bien aimées lorsqu’on les avait testées :


Les démos OK, mais sans plus

Midair 2

Genre : Tribes-like

Une énième tentative pour relancer la mode du ski sur les collines. Quelques minutes nous ont suffi pour constater qu’on n’était plus aussi vifs qu’il y a 25 ans. Et on ne peut pas dire que ça attire les foules, la démo ne comptabilise même pas assez de joueurs pour remplir un serveur complet. Ça promet pour le lancement en accès anticipé prévu pour le mois prochain…

Testeur : Bulince, Estyaah

Midair 2 sur NoFrag // Steam //  Date de sortie : Mars 2026

The Caribou Trail

Genre : Walking sim

Un walking sim à l’esthétique dessinée correcte, sur le thème de la Première Guerre mondiale. Ce n’est pas nul, mais on n’a pas accroché.

Testeur : Estyaah

The Caribou Trail sur NoFrag // Steam //  Date de sortie : Inconnue

Les autres démos correctes, mais sans plus, qu’on n’a pas relancées :

  • le FPS arcade coopératif Far Far West, qu’on avait trouvé un peu répétitif, et qu’on avait testé ici.
  • Le FPS d’action très amateur A.A.U. Black Site, testé ici.
  • Le FPS compétitif WRAITH OPS, auquel on n’accroche pas, et qu’on avait testé ici. La date de sortie en accès anticipé a été annoncée : ce sera pour le 12 mars prochain.

Les démos nazes

Ces démos ont été testées lors du stream par la rédaction :

  • Active Matter : malgré une bonne idée (le changement de gravité sur certains murs), le feeling fait très « free-to-play chinois », notamment à cause de son interface. Et le gameplay laisse un sentiment très mitigé, car les animations des ennemis font franchement cheap. Une mauvaise expérience, très décevante compte tenu de nos attentes en août dernier.
  • Hunted Within: The Metro : on se croirait au début des années 2000. C’est moche, le feeling est nul et le son est pourri.
  • Estranged: Arctic Cold : un walking sim peut-être pas si nul, mais l’interface stock issu du store Unreal, façon FPS Creator, ne donne pas une bonne impression.

Les démos de merde testées par Belzaran :

Apocalypter
J’ai couru pendant 5 minutes dans le désert – absolument plat –, puis j’ai compris qu’il fallait assembler la voiture. Je suis retourné à ma base, j’ai construit ma voiture et suis reparti vers ce qui semblait être le seul point d’intérêt autour de moi : un rocher proéminent. J’ai mis un temps pas possible à y aller car la voiture va à peine plus vite que notre personnage à pied (qui peut courir limitation d’endurance). En plus, la voiture n’arrive pas à monter les côtes. Je suis arrivé au gros rocher, il n’y avait rien. Comme j’étais en hauteur j’ai regardé au loin, rien. Tout est procédural, mais, surtout tout est vide. PS : je n’avais plus vu de rochers aussi pointus depuis 1996.

Western Justice
Une simulation de shérif : conduite du cheval erratique et gunfights complètement pétés. Le meilleur : il faut appuyer sur clic gauche pour passer les dialogues, ce qui nous fait tirer au pistolet… Ma première quête était complètement ridicule. Bref, rien ne va en l’état.

Pistolet football
Prenez Rocket League, remplacez les voitures par des bonshommes sans animation et faites avancer le ballon en tirant dessus. Ça ne marche pas, il n’y a aucune verticalité et les joueurs courent après le ballon comme des poulets sans tête. On a en plus l’impression que nos balles ne touchent pas la balle (la grosse). Zéro sensation.

Polyzone
Call of Duty rencontre Minecraft, avec zéro sensation (sauf de tir). Les mouvements ne sont pas ouf et les cartes trop petites, avec du spawn au milieu des ennemis. L’animation des personnages est rigide as fuck et enlève tout intérêt.


Voilà pour le tour d’horizon des démos de FPS du Steam Néo Fest de février 2026. Si vous avez testé d’autres trucs, n’hésitez pas à en faire part dans les commentaires.

Guide : protéger son serveur personnel Linux avec Fail2ban

17 février 2026 à 17:43

Avoir un serveur sur un MiniPC c’est bien, l’ouvrir vers l’extérieur c’est mieux. Si des usages locaux sont évidemment nombreux, le véritable intérêt d’un serveur est de proposer des usages en ligne, accessibles depuis n’importe quel point du globe avec une simple connexion internet. Fail2Ban permet de repousser les attaques de base.

Fail2ban

Au sommaire de cette seconde partie, nous allons reprendre le travail effectué lors de l’installation du serveur en décembre et le compléter. La première étape consistera à installer Fail2ban pour sécuriser le système. Puis nous ouvrirons l’accès au serveur sur Internet. Une fois cela fait, nous pourrons installer la plateforme Docker et enfin profiter de celui-ci pour installer facilement un premier service en déployant Adguard.

Installation de Fail2Ban, une protection indispensable avant connexion

Avant de rendre totalement accessible notre serveur sur internet, il est préférable de le protéger du mieux possible. Pour cela nous allons utiliser Fail2ban qui fait partie de la trousse à outils de base de tout serveur en ligne. L’idée de Fail2Ban est d’éviter les attaques les plus classiques des robots en ligne. Les attaques du type « bruteforce » qui vont simplement tenter de se connecter en essayant des listes et des combinaisons de mot de passe. Le principe de cette protection et simple, elle consiste à bannir l’adresse IP provenant d’un nombre déterminé de tentatives de connexion échouées. Si un robot tente, par exemple, trois mots de passe erronés, le serveur va empêcher son IP de recommencer pendant un certain temps. C’est une méthode assez classique et simple qui évitera les attaques les plus primitives.

Ne croyez pas que parce que vous êtes un particulier qui installe un serveur anonyme sur la toile vous n’allez pas subir de tentative d’intrusions. Des dizaines de milliers de robots se baladent en permanence en ligne à la recherche de la moindre faille possible pour tenter d’y pénétrer. Votre petit serveur perso subira les mêmes tentatives qu’un grand serveur d’entreprise.

Fail2ban se base sur des « logs » ou des journaux des différents outils logiciels disponibles. Ici, nous allons utiliser une règle qui concernera les connexions SSH. Cette règle est quasiment prête à l’emploi, ce qui est pratique, mais il est possible d’en faire des personnalisées ou de trouver d’autres exemples sur internet.

On va commencer par se connecter à notre serveur en SSH de la même manière que pendant la phase d’installation du serveur.

On ouvre un terminal depuis un PC sur le même réseau que son MiniPC/serveur et on pianote ssh kevin@192.168.1.214 -p 21422 en adaptant évidemment le login et l’IP en fonction des réglages effectués auparavant. Si vous avez suivi la première partie du guide, votre PC a déjà un login, une connexion SSH et une IP fixe.

Une fois cela fait, règle d’usage classique, on va charger la liste des mises à jour disponibles depuis la dernière connexion en pianotant sudo apt update.

Il y a logiquement un bon nombre de paquets à actualiser, on va donc le faire rapidement avec la commande :sudo apt upgrade.

Il suffit d’appuyer sur entrée pour poursuivre. Une règle existe pour ce type de question de la part du système : la lettre en majuscule proposée est celle qui sera validée par la touche entrée. Ici le « O » est en majuscule pour « Oui » et le « n » reste en minuscule pour « non ». On appuie donc sur entrée.

Le système se met rapidement à jour et nous allons pouvoir partir sur cette base « saine » pour installer Fail2ban. Ce n’est pas très complexe, on pianote :

 sudo apt install fail2ban

On confirme notre intention d’installer le service avec la touche entrée. L’installation débute et se termine très rapidement. Une fois celle-ci terminée, il va falloir mettre en place une configuration adaptée à nos besoins. Pas besoin d’être un expert pour y arriver, on va se contenter pour le moment de partir sur les bases par défaut de l’outil. Pour cela, on va copier et coller le fichier de configuration fourni par défaut. Pour cela, on va utiliser la commande cp qui sert à copier des fichiers avec cette syntaxe : cp [Original] [Destination]. La destination indique l’endroit où le fichier original sera copié et sous quelle forme. Il est tout à fait possible de prendre un fichier et de changer son extension, c’est ce que nous allons faire ici

sudo cp /etc/fail2ban/jail.conf /etc/fail2ban/jail.local

Ici, on a pris le fichier « jail » ou « prison » avec une extension « .conf » qui correspond à la configuration standard et nous l’avons transformé en jail.local pour qu’il soit lu comme la configuration spécifique (locale) de notre serveur. Nous allons maintenant adapter cette configuration locale en éditant ce fichier avec l’ordre.

sudo vim /etc/fail2ban/jail.local

Une fois le fichier ouvert, il nous faut chercher une section particulière de son contenu. Pour cela, il y a une astuce toute bête dans l’éditeur de texte vim. On appuie sur la touche « slash » : / suivi directement du texte que l’on recherche. Vim prend alors le relais et affiche la première occurrence qu’il trouve. Évidemment, il ne faut pas être en train d’éditer le texte sinon le « / » s’inscrirait dans le fichier. Pour éviter cela il faut appuyer sur la touche ESC/Exhap située en haut à gauche de son clavier. Ici nous allons rechercher « sshd » et donc pianoter « /sshd » qui doit se trouver aux alentours de la ligne 274.

Une fois la séquence trouvée il faut enclencher le mode édition de Vim avec la touche « i ». On peut alors modifier le contenu de la section de la manière suivante :

[sshd]

enabled = true
port = 21422 # Port SSH pour se connecter à notre serveur
filter = sshd
maxretry = 3 # Nombre d’essais autorisés avant de bannir l’IP
bantime = 3h # Durée du bannissement
findtime = 600 # Intervalle (en secondes) durant lequel les 3 tentatives doivent avoir lieu pour entrainer un bannissement.
logpath = %(sshd_log)s # ne pas toucher
backend = %(sshd_backend)s # ne pas toucher

 

Après modification, votre fichier édité doit ressembler à cela. Si tout est dans l’ordre, alors appuyez sur Echap pour arrêter l’édition du document, appuyez ensuite sur w pour écrire (write) le fichier et donc le sauvegarder. Puis sur q pour quitter vim.

Pour que le système prenne en compte ces modifications, il faut redémarrer le service fail2ban. Pour cela on pianote :

sudo systemctl restart fail2ban

On vérifie ensuite que le service est bien en cours de fonctionnement avec la commande

sudo systemctl status fail2ban.service

Et on obtient normalement ceci :

Vous devez avoir un retour d’écran qui ressemble à la capture ci-dessus. Si c’est le cas c’est que Fail2ban fonctionne.

Si vous avez à l’écran un status indiquant « Failed » comme ci-dessus, il y a manifestement un problème. Pas de panique.

Jetez un coup d’œil au journal qui liste les informations (log), vous y découvrirez sûrement un souci de syntaxe dans votre fichier (ligne en double…). Ici par exemple, l’édition du fichier était mal exécutée, la ligne logpath était entrée deux fois… Après correction, on relance fail2ban et le problème est résolu.

Si vous avez sous la main une autre machine, vous pouvez tester de vous auto-bannir pour vérifier que le service est parfaitement fonctionnel.  Après plusieurs essais de connexion, Fail2ban refuse la connexion depuis l’IP qui a été bannie. Ca fonctionne !

Pour récupérer l’IP bannie pour cet essai, vous pouvez lancer la commande :

sudo fail2ban-client unban 192.168.1.21

Il est aussi possible d’en bannir une manuellement avec la commande : 

sudo fail2ban-client ban 192.168.1.21

Cela peut être pratique de configurer ainsi Fail2ban si vous repérez une IP aux agissements particuliers.

Maintenant que le serveur est un peu plus résistant aux attaques, on va pouvoir l’ouvrir sur Internet

Pour pouvoir accéder à l’ensemble des services qui seront mis à disposition sur le serveur, nous allons le rendre accessible sur internet. Pour cela nous allons d’abord utiliser une IP avant de simplifier la démarche en utilisant un nom de domaine.

L’ensemble de ces manipulations est beaucoup plus simple si votre fournisseur propose une adresse IP fixe. Certains fournisseurs d’accès proposent cela par défaut comme Bouygues. Free demande une petite manipulation détaillée ici. Chez SFR et Orange, c’est une option. Si votre opérateur ne propose pas cette option  il faudra utiliser un service tiers. Un autre serveur en ligne qui fera le lien vers votre machine. Plusieurs sociétés proposent cela comme Cloudflare ou no-ip.com.

Pour comprendre ce qu’il se passe il faut s’intéresser à la manière dont fonctionne cette requête HTTP particulière

Ci-dessus vous pouvez voir le principe de fonctionnement de notre recherche de serveur en ligne de manière très simplifiée. Même si des administrateurs système vont surement trouver que le schéma est trop simpliste, on comprend ici ce qu’il se produit lors d’une requête en ligne de ce type.

Depuis un navigateur, un internaute appelle la page garage.mondomaine.com. Un serveur de DNS va répondre à cet appel parce que cette adresse pointera chez lui. Il répondre au navigateur en lui disant d’aller voir une adresse IP précise, ici : 1.2.3.4 pour l’exemple. Cette adresse ne correspond pas à votre serveur directement mais plus globalement à votre point de destination, la ligne tout entière de votre fournisseur d’accès. Avec cette information en mémoire, le navigateur change donc de destination et va toquer à la porte de l’IP 1.2.3.4. Et donc de votre box internet. Il se présente comme un navigateur et interroge sur le serveur pour savoir où trouver la page correspondant à garage.mondomaine.com. Au passage, il montre patte blanche en indiquant qu’il propose une liaison sécurisée de type HTTPS sur le port 443.

La Box internet va interroger ses règles de transmission de portgénéralement indentifiées dans ses réglages comme du « port forwarding ». Si une règle s’applique à cette requête, alors elle exécutera le transfert des données. Comme nous allons indiquer à la Box de transférer toutes les requêtes du port 443 vers le serveur que nous avons monté. Les informations en HTTP non sécurisées se feront via le port 80 qui sera également piloté par la Box.

Sur le serveur maison, il va falloir installer un outil baptisé « Caddy ». Une sorte de chef d’orchestre qui triera les requêtes de l’extérieur et les redirigera vers le bon service. On appelle cela un « Reverse proxy ». Caddy pilotera les différentes enquêtes vers des services intégrés dans une sorte de portefeuille de services piloté par un autre outil logiciel appelé « Docker ». Ce dernier fournira une réponse qui remontera ensuite de Caddy vers lme routeur puis du roteur au navigateur.

Imaginez que vous appellez un standard pour avoir en ligne Marcel Machin, le responsable réparation de la société Mongarage SARL (l’équivalent de votre serveur) au téléphone. Vous décrochez votre combiné, comme vous ne connaissez pas le numéro vous demandez un opérateur (Le serveur DNS), vous lui dites que vous voulez telle société, l’opérateur regarde dans son annuaure et vous met en ligne (indication de l’IP). Là vous tombez sur une personne qui décroche au standard (votre BOX), vous lui dites a qui vous voulez parler, elle vous passe l’atelier ou une personne décroche (Caddy) avant de gueuler « MARCEL, TELEPHONE » (Le service Docker voulu). Marcel répond « Allô, non pour demain c’est pas possible » et vous etes connecté.

Il va falloir monter ces services sur le  serveur. Cela a l’air compliqué mais pas de panique. Avec un peu d’aide c’est à la portée de tout le monde. Voilà ce qu’il nous reste a faire : 

  1.  Configurer un nom de domaine et l’ensemble de ses sous-domaines pour indiquer notre ip fixe
  2.  Configurer notre routeur pour activer le transfert des ports 443 et 80 vers notre serveur
  3.  Installer Caddy pour faire office de reverse proxy
  4. Tester notre tout premier service (une page html toute simple)

Et nous verrons cela dans le prochain épisode qui ne devrait pas tarder.

A propos de Kevin :

Kevin est développeur et formateur indépendant php et spécialisé sur le CMS Drupal. Il aime bidouiller des infrastructures cloud mais aussi plus traditionnelles comme un bon vieux petit serveur dans son garage… Vous pouvez en savoir plus sur son travail sur le site kgaut.net. Il est par ailleurs présent sur Mastodon à l’adresse @Kgaut

Guide : Installer un serveur sur MiniPC personnel

Guide : protéger son serveur personnel Linux avec Fail2ban © MiniMachines.net. 2026

Comprendre le bonus-malus : un indicateur qui récompense ou pénalise votre conduite

Par : La Rédac
10 octobre 2025 à 13:32

Lorsqu’on parle d’assurance auto, le bonus-malus reste un terme incontournable. Autrement dit : plus vous êtes prudent, moins vous payez...

Comprendre le bonus-malus : un indicateur qui récompense ou pénalise votre conduite est un article de Blog-Moteur, le blog des passionnés d'automobile !

Bien préparer sa voiture pour l’hiver : pneus, entretien et sécurité

Par : Patrick
6 octobre 2025 à 14:11

Certains conducteurs attendent les premiers gelées pour s’occuper de leur voiture, mais un entretien anticipé permet des dépenses inutiles...

Bien préparer sa voiture pour l’hiver : pneus, entretien et sécurité est un article de Blog-Moteur, le blog des passionnés d'automobile !

Accident de voiture : comment réparer votre carrosserie sans vous ruiner ?

Par : La Rédac
3 octobre 2025 à 14:48

Bosses, rayures, portières pliées ou pare-chocs fissurés… Ces marques du sinistre transforment vite un incident en casse-tête logistique...

Accident de voiture : comment réparer votre carrosserie sans vous ruiner ? est un article de Blog-Moteur, le blog des passionnés d'automobile !

❌