Vue lecture

Arduino Uno Q : une concurrente pour Raspberry Pi

Avec le rachat d’Arduino par Qualcomm, les lignes vont certainement bouger. La carte Arduino Uno Q débarque et se positionne frontalement face aux solutions Raspberry Pi. Avec des arguments de poids : prix, capacités et environnements.

Au recto, le SoC Qualcomm QRB2210, à gauche le module sans fil et son antenne

Pendant que les avocats des deux parties négociaient ce rachat et les modalités qui en découlent d’un point de vue gouvernance. Les ingénieurs d’Arduino et de Qualcomm se réunissaient pour définir la génétique de la nouvelle carte Arduino Uno Q. Un ADN qui emploie une double hélice composée d’un Soc Qualcomm Dragonwing QRB2210 et un microcontrôleur externe, un STM32U585. Il peut sembler étrange de faire appel à deux composants principaux pour une seule carte étant donné la simplicité de création d’un microcontrôleur face aux puces que Qualcomm est capable de proposer. Mais c’est en réalité très logique puisque les deux entités ont des fonctions très différentes. 

Au verso, le STM32U585 et la seconde paire de broches

Le QQRB2210 est un SoC ARM classique sur une base de quatre cœurs Cortex-A53 capables de grimper à 2 GHz. Son circuit graphique est sans surprise un Adreno 702 qui peut atteindre 845 MHz. Qualcomm met l’accent sur les capacités de vision de sa solution avec un ISP sur 18-bits qui pourra prendre en charge un capteur d’images 25 Mégapixels ou  deux solutions 13 Mégapixels. De quoi mieux comprendre son environnement en robotique.

Le petit STM32U585 est une solution ARM monocœur en Cortex-M33 à 160 Mhz. Il serait probablement possible de créer une puce unique avec des chiplets combinant les deux univers sur un seul DIE, mais ce serait d’abord affreusement cher à produire et ensuite très « figé » dans le temps. Rien n’empêche un jour Arduino/Qualcomm de changer de composants et cette implantation en deux éléments facilitera cette tâche.

Arduino Uno Q : « From blink to think »

Sur la page de Qualcomm concernant la carte Arduino Uno Q, on peut lire cette devise, qu’on peut traduire par quelque chose comme « De clignoter à penser ». C’est un message très clair pour tous ceux qui ont déjà posé une carte Arduino devant eux et ouvert un manuel pour apprendre à s’en servir. Le tout premier exercice que l’on réalise est toujours le même. Pour comprendre comment fonctionne la structure de la programmation de cet outil, on suit un exemple simple, qui consiste à faire clignoter une LED avec la commande « blink« . Avec cette phrase, la carte propose déjà son programme. Passer des montages simples et classiques à des possibilités plus impressionnantes. On peut en effet lire le « blink » renvoyant comme un « réflexe instantané » à l’inverse d’un « think » qui renvoie à des réflexions plus profondes. Cela n’a l’air de rien, mais c’est un message très clair qui ouvre Arduino vers une nouvelle dimension d’usages.

Les cartes classiques de la marque ont été pensées pour proposer une base de travail abordable et simple d’approche pour initier les gens à toutes sortes de créations. Cette idée a fait le succès de la marque qui a trouvé un écho favorable autant chez les utilisateurs les plus chevronnés que chez les débutants. Avec une carte Arduino et un tout petit peu de matériel électronique, il est possible de concevoir des centaines de montages simples en robotique, en domotique, en IoT. Un enfant en primaire peut facilement construire une vraie batterie de détecteurs variés et comprendre très facilement comment les programmer avec une de ces cartes.

Impossible par contre d’aller plus loin. On reste sur une solution de microcontrôleur qu’on programme en amont avec des ordres simples. Si le détecteur détecte alors réagit comme cela. Par exemple, si un capteur de lumière capte la tombée de la nuit on demandera à Arduino de réagir en actionnant un circuit qui allumera la lumière. Au-delà de ce type d’usages, il existe également une foule d’exploitations plus complexes avec diverses variables plus complexes néanmoins la structure est toujours assez basique. 

La carte Arduino Uno Q change de dimension en proposant la prise en charge d’un système d’exploitation Linux. Au même titre qu’un Raspberry Pi par exemple. En combinant le contrôleur d’un côté et une puce capable de faire tourner un système de l’autre on peut varier les usages de ce contrôleur à l’infini. Non seulement réagir à ce que détectent des capteurs mais conditionner cette réaction à d’autres éléments, internes ou externes. Ce n’est pas le premier intégrateur à proposer des solutions de ce type, d’autres existent déjà sur le marché avec des puces ARM, RISC-V ou x86 : les cartes BeagleBoard proposent ce genre de carte sous SoC ARM ou RISC-V.  Des solutions signées LattePanda ou Radxa proposent la même chose avec une puce Intel et un RP2040.

Arduino Pro Portenta X8

Arduino lui même a proposé des cartes de ce type avec la Arduino Pro Portenta X8 équipée d’une puce ARM capable de piloter une solution Linux et d’un microcontrôleur en soutien. Avec toutefois un bémol pour cette dernière, son tarif élevé, puisque la marque l’orientait pour un marché industriel uniquement : la carte Arduino Pro Portenta X8 est proposée à 223€.

On comprend donc ici tout l’enjeu de cette nouvelle voie tracée par la société bicéphale : Arduino UNO Q veut réunir les deux mondes pour un prix plus abordable. Lui offrir un support Linux complet avec le support de Debian 13 et Yocto sans perdre le riche héritage Arduino classique avec une prise sur le réel au travers de son contrôleur : des muscles et un cerveau.

Un équipement plus communicant

Cette ouverture sur le monde se fera aussi au travers d’un support vers l’extérieur. La carte embarque un module Qualcomm WCN3980 en Wi-Fi5 et Bluetooth 5.1 avec une antenne intégrée. S’alimentera avec un port USB 3.1 Type-C pour une exploitation facile sur batterie mais également pour une connexion plus aisée à d’autres périphériques. Avec un dock adapté, on pourra retrouver des ports USB, des sorties vidéo, de la connectivité réseau Ethernet et autres prises jack, webcams et lecteurs de cartes. Il sera par ailleurs possible d’alimenter la carte en 5V via ses brochages.

Le SoC Dragonwing QRB2210 sera épaulé par de la mémoire vive en LPDDR4 de 2 à 4 Go et d’un module de stockage soudé allant de 16 à 32 Go en eMMC non détaillé. Arduino met en avant le fait que sa solution n’aura pas besoin d’une carte MicroSD pour fonctionner mais semble oublier que cela oblige à se cantonner à 32 Go de stockage maximum3

Le format Qwiic

On retrouve autour de la carte les brochages UNO habituels avec les entrées et sorties classiques. Un connecteur au format Qwiic, développé par Sparkfun, très pratique pour du prototypage aisé ou avec des plus petits.  Deux connecteurs MIPI-CSI permettront à la carte de voir le monde avec des capteurs d’image. Un MIPI-DSI sera également présent pour de l’affichage externe.

Un point très intéressant proposé par la carte est dans la présence d’une matrice de LEDs assez complète pour diffuser des messages lisibles. Avec 8 rangées de 13 LEDs, il est possible de faire défiler du texte, d’afficher des icônes compréhensibles, ce qui va permettre un dialogue visuel entre la carte Arduino UNO Q et un utilisateur. Cela peut sembler assez gadget, mais cela fonctionne extrêmement bien en termes d’apprentissage. On a connu le même système de LEDs embarquées sur les cartes micro:bit par exemple et beaucoup d’usages ont été faits des petites LEDs que la carte proposait dans son dos.

Le tout entre sur une carte de 6.88 cm de large pour 5.33 cm de profondeur. L’ensemble est proposé en Open-Hardware du moins pour la partie technique de la carte. Les puces sont évidemment protégées par leurs créateurs. On retrouve ainsi le détail de l’ensemble dans une documentation très complète. La carte Arduino UNO Q est proposée à 39€ en version 2/16 Go et sera vendue à 53€ en Novembre en version 4/32 Go. Une carte Raspberry Pi 5 en version 2 Go sans stockage est proposée à 55€, une version 4 Go est à 67€.

 

Quel avenir pour cette carte ?

Avec un parc installé comprenant des dizaines de millions d’utilisateurs, une présence remarquable dans les secteurs de l’industrie et de l’éducation, l’avenir est rose sur le papier. On imagine facilement qu’au vu des tarifs demandés, quantité de développeurs et hobbyistes de tous poils vont avoir envie de tester la UNO Q pour voir ce qu’il est possible de faire avec. Des aficionados des solutions Raspberry Pi vont également chercher a se frotter à l’appareil pour se faire un avis.

Le prochain cap à passer pour la solution sera précisément dans l’accueil de tous ces curieux. Comment ce produit et son nouveau système de développement vont séduire les utilisateurs. Arduino App Lab, l’environnement de programmation dédié, a évolué pour prendre en charge plus de choses et notamment l’arrivée de Linux et de l’IA en plus du très classique développement sous Python.

Je ne sais pas ce qu’en penseront mes lecteurs mais, pour ma part, j’ai senti un net désintérêt ces derniers mois pour les solutions Raspberry Pi. Certains utilisateurs qui y voyaient simplement un « ordinateur pas cher » en sont « revenus ». Trouvant plus de puissance pour un prix équivalent du côté des MiniPC Intel Nxxx. Ceux qui cherchaient un Raspberry Pi pour des montages dédiés sont évidemment toujours là, mais les créations originales ont baissé en quantité. Il fût une époque ou pas une semaine ne passait sans qu’un projet m’enthousiasme assez pour passer deux heures à rédiger un compte rendu sur le blog. Je ne suis pas le seul à avoir ressenti cette baisse d’intérêt. Plusieurs sites anglophones ont eu la même réaction. Certains ayant même fait disparaitre la rubrique Raspberry Pi autrefois visible sur leur page d’accueil. Les plateformes dédiées comme Reddit croulent depuis toujours plus sous les bugs que les développements originaux mais la proportion de messages interessants est désormais vraiment réduite. Le mouvement de la fondation Raspberry Pi en boite côté en bourse avec un nez rouge pour dire qu’elle aime les enfants a également eu des effets sur son public.

Est-ce que la solution Arduino Uno Q va reprendre ce flambeau ? Ou va-t-elle subir le même marasme ? Difficile à dire aujourd’hui. Qualcomm semble compter sur l’IA pour tirer son épingle du jeu. Le nouvel environnement de programmation (sous licence GPL 3.0) va proposer d’intégrer très facilement des modèles d’IA dans son code. Avec ces éléments déjà entrainés à des tâches, il sera bien plus facile de piloter ce genre d’outils. De la reconnaissance d’objets par exemple ou des mots clés pour réaliser des tâches. On imagine qu’on pourra passer d’une chatière connectée qui réagit à la présence d’une puce RFID sur le collier de Minouche à l’ouverture de la même chatière grâce à la détection de Minouche. D’une lampe qui s’illuminait au bruit d’un claquement de main à la même lampe qui va reconnaitre une phrase dédiée.

Ces usages locaux, par exemple détecter un « trou » dans un stock pour alerter le gestionnaire et lancer le réapprovisionnement, sont utiles. Le fait de les rendre accessibles à de petits budgets sans se casser la tête à les programmer ni passer par un service dans les nuages est un gros point positif. Si la partie logicielle et la partie matérielle se rejoignent autour d’usages demandés et faciles d’accès, la solution aura un futur.

Il faut absolument que Arduino propose un environnement et un accueil au niveau pour que la mayonnaise prenne. Le premier réflexe des utilisateurs chevronnés à l’arrivée de Qualcomm dans l’équation n’est pas forcément très positif. Si le papa des Snapdragons propose sa force de communication et ses équipes pour épauler Arduino dans le développement logiciel autour de sa carte, la garde des développeurs pourra baisser et leur intérêt dépasser leurs appréhensions.

Arduino Uno Q : une concurrente pour Raspberry Pi © MiniMachines.net. 2025

  •  

Pourquoi les MiniPC ont-ils tant de succès ? Episode 1 : La génèse

Les MiniPC ont toujours existé. Enfin, disons qu’ils existent depuis que les PC existent puisque le côté Personal de PC sous entend une miniaturisation des composants assez forte pourqu’ils puissent entrer dans un bureau. Les constructeurs comme les utilisateurs ont activement cherché a réduire la taille de leurs machines depuis les débuts. C’était la seule façon d’en faire un produit commercialisable pour un marché de masse. On imagine mal un IBM System/360 comme celui qui illustre ce billet, atterir dans les foyers.

Les tous premiers MiniPC ont été les PC eux même. Descendants des machines professionnelles qui étaient de véritables monstres de câbles et d’électronique. Les ordinateurs personnels ont à leurs début été des explorateurs de formats. Plusieurs modèles ont été tentés, avec plus ou moins de bonheur pour des machines essayaient tant bien que mal de « miniaturiser » l’usage de l’informatique. Et elles partaient de vraiment très loin.

Pour toute personne ayant croisé un ordinateur IBM tel qu’on les concevait dans les années 70, pouvoir ramener chez soit un « Micro » ordinateur de 10 Kg sans l’écran, intégré dans un énorme boitier avec un lecteur de disquettes 5.25″, c’était déjà totalement inespéré. Un ordinateur était alors un outil extremement cher, souvent absolument inaccessible pour un particulier. Et pendant longtemps la machine de bureau est restée composée d’une sorte de clavier de grosse machine à écrire lié à un énorme boitier et à un écran à la fois lourd et encombrant. Les premiers ordinateurs « portables » ressemblaient quant à eux à une grosse et lourde valise peu pratique et horriblement difficile a acquérir.

Cette vidéo est assez célèbre, elle met en scène l’écrivain de science fiction Arthur C. Clarcke et un journaliste Australien accompagné de son fils dans une salle informatique en 1974. Filmée en noir et blanc, cette vidéo est assez intéressante puisque Clarcke explique à cet enfant que, quand il sera grand, il aura chez lui un ordinateur personnel. Une affirmation assez dure à croire à l’époque étant donné la taille que prend une de ces machines. Le trio ainsi que l »équipe technique se tiennent littéralement à l’intérieur d’un ordinateur.

Clarcke a beau être un écrivain de Science Fiction reconnu alors, il n’est pas un devin. Tous les scientifiques qui s’interessent à l’informatique à l’époque savent déjà que ce grand mouvement de miniaturisation est en train d’arriver. Et qu’il est inéluctable. Là où l’écrivain se distingue peut être c’est dans une vision de ce que seront un jour les systèmes d’information que nous connaissons aujourd’hui. Chose amusante, Clarcke a lui même connu cette évolution de l’informatique. Mort en 2008, il a eu le temps de découvrir les joies de la micro informatique. Cette photo disponible sur sa page Wikipedia le montre à son bureau face à un micro ordinateur Apple. Chose encore plus amusante, Clarcke a écrit une nouvelle La Sentinelle qui deviendra grâce à un travail collaboratif avec Stanley Kubrick le film 2001 : l’odyssée de l’espace. Film qui met entre autres en scène des humains qui font face au contrôle imposé par une Intelligence Artificielle dans leur vie.

Du milieu des années 70 où l’on considérait l’Altair 8800 comme le premier « Mini ordinateur » au monde à la fin des seventies où Apple sort son premier micro, il y a déjà une belle évolution. Quand Radio Shack présente le TRS-80, l’informatique se démocratise et sort du format « Armoire » pour devenir « Desktop ». Ce sont des machines certes assez lourdes et encombrantes mais ô combien plus accessibles que les engins utilisés quelques années seulement en arrière. Il faut tout de même attendre 1981 pour découvrir l’IBM Acorn sous MS-DOS. Un gros machin sur lequel on pose un vilain écran cathodique complété par un merveilleux clavier plus large et plus lourd à lui seul qu’un ordinateur portable moderne. Tout cela représente déjà un grand pas en avant en terme de miniaturisation.

Dans les années 80 l’histoire s’emballe. Le monde découvre le Macintosh 128K en 1984, une des toute première minimachine au monde et un engin qui transformera radicalement l’informatique personnelle. La petite tour avec écran intégré était financièrement inaccessible pour beaucoup de particuliers mais présentait enfin l’objet informatique comme un outil acceptable chez soi dans l’inconscient collectif. Il ne fallait plus forcément un bureau de ministre ou une partie de pièce dédiée pour avoir un ordinateur personnel. Un coin de table suffisait. En 1985, l’informatique personnelle explose avec des engins plus grand public : Les Amiga 1000 et Atari ST débarquent comme des outils multimédia, en directe concurrence d’Apple.

Très très beige…

Et puis la suite on la connait. Les PC « x86 » ont tout envahi et avec eux une foule de solutions intéressantes parce que compatibles entre elles. Ce maitre mot de la compatibilité à créé ce nouveau marché de toutes pièces. Au sens propre comme au figuré. L’avènement de ces solutions construites avec des matériels qu’on pouvait assembler sur mesure à mis en place un univers de tous les possibles.

Alors que les grandes marques informatiques ne s’intéressaient pas trop aux particuliers mais préféraient viser les professionnels avec des PC clé-en-main. De plus petits fabricants de composants se sont engouffrés dans cette nouvelle brèche pour devenir de véritables acteurs du monde informatique. Ceux qui manufacturaient les cartes mère, cartes graphique, mémoire, alimentation, disque durs et autres composants pour les géants de l’époque sont passés d’un coup d’un statut de fournisseurs industriels à celui de stars auprès du public. Dans les années 2000, un amateur d’informatique pouvait sans sourciller vous citer trois fabricants de lecteurs de CD-ROM et autant de noms de fabricants de circuits audio. On lisait alors des articles de presse papier qui comparaient jusqu’à 40 modèles d’imprimantes à jet d’encre, au picolitre près.

Une jolie carte mère ATX

Pendant longtemps ce marché a ronronné autour de solutions identiques en format. Un choix en général limité entre une grande tour moche et beige ou une moyenne tour moche et beige. Les plus aventureux choisissaient un format Desktop moche et beige. Mais il était difficile de trouver beaucoup mieux et tout le monde bidouillait comme il pouvait dans ces boitiers encombrants construits en tôle coupante et recouvert de plastique épais (et beige). 

Cet écosystème général est donc devenu la norme tant professionnelle que personnelle. Avant que naissent quelques pionniers cherchant activement a transformer les châssis en quelque chose de plus original, de plus complet et souvent de plus spécialisé. La forme s’est petit à petit adaptée au fond. Les machines devenant de plus en plus puissantes, de plus en plus orientées vers des usages précis, les boitiers se sont transformés. Proposant plus de possibilités de stockage, une meilleure ventilation ou plus de capacités variées. On a pu ainsi découvrir l’arrivée de baies destinées à des lecteurs optique, une augmentation de la connectique ou du nombre d’empalcements de ventilateurs. Autre mouvement très visible, l’indispensable lecteur de disquette qu’on aurait bien du mal a faire tenir sur la majorité des boitiers aujourd’hui alors qu’il était impensable de s’en passer en 2000.

Un Shuttle XPC sous Windows XP

Diminuer la taille des PC a été plus progressif mais cela a suivi la même logique. Il a évidemment d’abord fallut que le materiel existe, s’adapte, pour qu’on voie des engins plus compacts débarquer. On se souvient de Shuttle et de ses cartes mères 17 x 17 cm à la fin des années 90 puis au lancement du premier XPC en 2001. Un engin en forme de cube allongé qui correspondait probablement alors au mieux à ce que l’on pouvait faire à l’époque. Avec des processeurs de bureau ayant la fâcheuse habitude de beaucoup trop chauffer, des dissipateurs en conséquence et des alimentations rentrées au chausse pieds, il était forcément plus compliqué de proposer une solution vraiment plus compacte.

Si beaucoup ne voyaient pas l’intérêt de ces propositions « moins évolutives » et « moins compatibles » qu’un PC classique. Il ne faudra cependant que trois années à Shuttle pour écouler un million de ces engins à travers le monde. Se faisant au passage un nom dans un marché déjà saturé de concurrents. Preuve qu’il y a plus de 20 ans déjà, la recherche d’une minimachine était un vrai sujet.

Une VIA Epia-M900

On pense également à VIA et à ses EPIA. Ce constructeur a commencé a défricher de manière très originale dès 2004 des formats variés dans le monde des MiniPC : Mini-ITX, Nano-ITX, Pico-ITX. Autant de supports qui permettaient de proposer des cartes mères avec des processeurs intégrés sur un segment alors quasiment sans concurrence. Ce n’étaient pas des solutions merveilleuses. Elles étaient chères, assez mal suivies en terme de pilotes, souvent peu distribuées en magasins et dépendantes d’une myriade de grossistes et intermédiaires peu enclins a les vendre aux particuliers. Il fallait batailler et faire preuve de persévérance pour en acheter une. Tout le reste de l’écosystème était tout aussi balbutiant. A quoi bon avoir une carte de 17 x 17 cm si cela nécessitait de l’intégrer dans un boitier de format classique. Et beige de surcroit. Trouver un châssis adapté était la croix et la bannière et les prix de ces solutions s’envolaient beaucoup trop rapidement. Il existait néanmoins un public qui s’accrochait à ces solutions.

Le Shuttle XPC X100

En 2006 Shuttle lance un premier PC multimédia au format 3 litres sous Intel Core Duo T2050. Un processeur gravé en 65 nanomètres avec un très joli TDP de 31 watts. Fort peu pour l’époque où on gravait encore à la truelle. Ce nouvel XPC X100 est peut être le premier vrai MiniPC du marché, tout du moins dans l’esprit. Si la réalisation n’est pas parfaite, c’est en grande partie la faute d’un écosystème pas encore prêt. L’objet mesurait 21 cm de large pour 30 cm de profondeur et 5.5 cm d’épaisseur. Il contenait tout ce qui était jugé nécessaire à un ordinateur à l’époque et c’est d’ailleurs bien là son principal problème. Entre la ventilation interne, le lecteur optique, le chipset graphique MXM (et oui, déjà) et le processeur sur Socket 479, ce PC particulier proposait tout ce qu’il fallait pour prétendre a s’appeller PC sans être disqualifié d’office. L’équivalent des ordinateurs portables de l’époque enfermé dans un engin relativement compact. Une ribambelle de nappes souples en interne,  une ventilation ayant tendance a s’empoussiérer et un prix d’ensemble élevé n’ont pas vraiment séduit. Si l’engin a été salué pour son format, les utilisateurs n’ont pas trouvé ici une solution miracle.

D’autres machines du genre, assez conventionnelles au final, sont apparues au fil des années mais elles étaient surtout réservées à un marché professionnel. Avec tout ce qu’il fallait pour ne pas intéresser les particuliers. Il s’agissait alors surtout de vendre des PC moins chers. L’objectif premier était bien une réduction des coûts globaux pour baisser la facture d’entreprises devant basculer vers l’informatique et non pas une vraie recherche de compacité.

Un Asus EeeBOX

Le premier format d’engin vraiment « populaire » dans un format Mini a avoir tenté l’aventure du grand public l’a d’ailleurs été par pur opportunisme. Il s’agit de la gamme des « nettops », l’équivalent sédentaire des netbooks. On a découvert assez rapidement les EeeBox d’Asus surfant sur le succès populaire des EeePC et embarquant d’ailleurs un materiel quasi similaire. L’idée était pour Asus de réitérer le succès des netbook dans un format de bureau compact et abordable.

Ce furent également les Acer Aspire Revo premiers du nom, des engins un peu plus originaux parce qu’ils embarquaient des puces graphiques Nvidia en plus de leurs processeurs Intel Atom. Ces formats on popularisé l’idée d’un MiniPC dès 2008 en Asie et 2009 en Europe mais n’ont pas réussi a les rendre indispensables. La faute à un équipement interne jugé trop léger pour remplacer une tour classique. Ce que l’on supportait sans mal sur un netbook parce que l’engin était ultraportable avait moins de raison d’être sur un format de bureau sans les mêmes contraintes techniques.

Le Zotac MAG ND01

Une marque qui a clairement changé de voie et commencé a creuser véritablement le sujet du MiniPC a été Zotac. En 2009 le fabricant lance le MAG ND01. Un engin sous Atom N330 et circuit graphique Nvidia 9300 avec 2 Go de mémoire vive et un stockage de 160 Go. Des caractéristiques très proches de l’engin d’Acer mais qui se conjuguent avec une ambition plus importante. Le succès de la formule est au rendez-vous et la marque se lance totalement dans l’aventure MiniPC. Les fabricants sont alors peu nombreux a s’intéresser au phénomène, surtout parce que les nettops font pas mal d’ombre aux formats PC low-cost distribués en grande surface pour équiper des primo accédant sans trop de compétences techniques. Des gens qui cherchent alors surtout un PC pour se connecter à Internet.

Ces machines portent alors bien leur nom, les Nettops sont surtout axés vers un usage réseau. On ne s’intéresse pas spécialement à leurs compétences pures du moment qu’ils permettent de surfer en ligne. A l’instar des solutions Edge en Entreprise, le nettop deviendra une alternative connectée pour les particuliers. Un mouvement qui sera interrompu d’ailleurs peu après avec la montée en puissance des smartphones et l’adaptation progressive du web à leur format.

La suite de l’aventure MiniPC reprendra doucement, dés 2012 avec l’élan lancé par l’aventure NUC d’Intel. C’est là que les choses se précisent avec des engins qui existent pour leur format autant que pour leurs compétences. Dans la lignée des premiers succès du fondeur sur ce format suivent une foule d’autres aventuriers puis, petit à petit des marques plus connues. Une certaine résistance a logiquement ralentit le processus. La majorité des fabricants de pièces détachées de PC ne voyant pas forcément d’un très bon oeil l’arrivée de machines juste « suffisantes », très abordables et surtout non évolutives. D’autres acteurs se réjouissent de ce format qui devient populaire et en 2016 je vous parlais de l’arrivée de multiples clones des NUC lancés par Intel.

Pour résumer cette première partie. 

Les fabricants de materiel informatique ont toujours cherché a miniaturiser leurs ordinateurs afin de les faire rentrer plus facilement dans les foyers. Plusieurs marques en ont fait un argument de vente puis leur cheval de bataille pour se démarquer des autres. Ce chemin a été rendu difficile pour des raisons principalement techniques et marketing. L’arrivée d’Intel et de sa division NUC va changer les choses comme nous le verront dans la prochaine partie.

Pourquoi les MiniPC ont-ils tant de succès ? Episode 1 : La génèse © MiniMachines.net. 2025

  •  

Nvidia investit massivement dans Intel et promet des puces « Intel x86 RTX »

Les manœuvres autour d’Intel ces derniers mois étaient au moins autant politiques qu’économiques et devaient finalement se solder par un nouveau tournant plus stratégique et technique. C’est chose faite avec une annonce fracassante. Nvidia vient d’annoncer un investissement de 5 milliards de dollars chez Intel tout en prévoyant l’arrivée de plusieurs générations de processeurs développés en commun.

Difficile de savoir si l’administration Trump a tordu le bras aux deux entités pour qu’elles s’entendent ou si un rapprochement concurrentiel pour faire face à AMD était inévitable. L’annonce n’en reste pas moins explosive, les deux frères ennemis vont désormais travailler main dans la main pour développer des solutions communes.

On retrouvera donc de nouvelles générations de puces x86 Intel avec des circuits Nvidia RTX embarqués à destination du marché créatif et des joueurs. Ces processeurs « Intel x86 RTX » seront également accompagnés par des solutions x86 sur mesures pour serveurs correspondant exactement aux besoins et appétits de Nvidia.  Des puces pensées pour les solutions d’IA et les architectures qui leur seront nécessaires. Pour valider ce partenariat, Nvidia va acheter 5 milliards de dollars d’actions Intel pour un montant total de 5% de la société. Un échange de bons procédés qui impactera directement Nvidia d’un point de vue financier en cas d’échec et qui devrait donc assurer que le duo s’implique totalement dans la réussite du projet.

Impossible pour le moment de voir un calendrier quelconque se dessiner autour de ces annonces, les processeurs ne se dessinent pas en quelques semaines. Il faudra du temps pour savoir ce que ces puces pourront donner en termes de produits finis. Pour vous donner une idée, la puce Intel Core i7-88099G lancée par le fondeur en 2018 pour ses NUC et qui embarquait un circuit graphique AMD Vega a demandé plus de trois ans entre son ébauche et sa commercialisation. Tellement de temps que lors de sa sortie, la puce commençait déjà à donner des signes de faiblesse par rapport aux solutions AMD Ryzen concurrentes. Un an plus tard, plus personne ne la proposait et Intel a logiquement décidé d’arrêter les frais. En pratique, les puces Intel ARC sont déjà implantées par package dans les processeurs Intel. On peut donc imaginer un changement pour une solution signée par Nvidia.

L’important est de noter cette arrivée sur le long terme avec une vision sur plusieurs générations de processeurs. Des puces qui vont entrer en concurrence beaucoup plus frontale avec celles d’AMD qui combinent des cœurs Ryzen et des circuits graphiques Radeon. Si cela n’empêchera pas Nvidia de continuer ses propres développements indépendants et en particulier ses architectures ARM, on peut tout de même se demander si cette annonce n’aura pas d’autres effets chez Intel. Je pense notamment aux gammes de puces graphiques Intel qui pourraient sentir le fil d’une lame d’acier sabrer leurs divisions.

Nvidia chez Intel Foundry ?

L’autre grand questionnement vient de l’exploitation massive par Nvidia des services de fonderie d’Intel. D’un point de vue purement économique, la marque aurait tout avantage à rapatrier tout ou partie de sa production chez son nouveau partenaire. Son chiffre d’affaires influe directement ses parts dans l’entreprise. Mais on peut également se demander si Nvidia ne voudrait pas jouer la carte de la prudence. En disséminant ses œufs dans plus de paniers, la marque assurerait une certaine sécurité et garder une partie de sa production chez TSMC semble assez logique pour le moment. En attendant, Nvidia est déjà client d’Intel pour la conception et le prototypage de puces. 

Il est par ailleurs possible que cet aspect soit largement prématuré. Les contrats passés par Nvidia et son fondeur actuel sont signés et, pour le moment, il n’y a pas de raisons de changer. Lorsque les puces Intel x86 RTX seront proposées sur le marché, il sera évidemment temps de revoir l’opportunité d’une gravure en interne3.

Un point important à prendre en compte est dans la possibilité, largement développée par Intel au fil des ans, d’intégrer au mieux des circuits graphiques dans ses processeurs. Avec différents brevets comme Foveros depuis 2018, ou l’intégration Tile comme l’usage d’une architecture 3D initiés avec Meteor Lake. Cela mélangé aux technologies Nvidia comme NVLink pourrait permettre une intégration très intéressante. Largement plus performante que l’usage d’un système basé sur les lignes PCIe, la collaboration via NVLink apporterait une bande passante 14 fois supérieure. Reste à connaitre les impacts en termes de prix, mais aussi de consommation, de tels processeurs. Pas sûr que Nvidia ait spécialement envie de venir concurrencer ses propres circuits graphiques indépendants.

Un des tournants majeurs de ces derniers mois  était dans la volonté de proposer à des acteurs tiers l’expertise de développement d’Intel pour concevoir des puces « sur mesures » pour ses clients. Charge ensuite à ses capacités de fonderie de les produire. Ce partenariat pourrait véritablement lancer cette idée et ainsi concurrencer les excellentes réussites d’AMD dans ce domaine. Le papa des Ryzen ayant su montrer à de multiples reprises qu’il était capable d’assurer un développement adapté à des scénarios précis. Sa réussite dans le développement de puces de consoles comme celles du Steam Deck en étant un excellent indicateur.

Une concurrence très sensible

Intel pèche clairement sur le poste graphique face à AMD aujourd’hui. Sur beaucoup de segments, il faut impérativement recourir à une puce tierce pour obtenir le profil de machine recherché. La fusion des technologies d’Intel et de Nvidia au sein d’un même processeur aura donc l’avantage de combler ce trou et permettra sans doute à l’ensemble de proposer des puces capables de rivaliser avec les futures générations de Ryzen.

Même si, il ne faut pas l’oublier, AMD n’attendra pas ses concurrents les bras croisés et tirera profit de son avance pour continuer à progresser. On peut en tout cas imaginer l’apparition de puces hybrides pouvant enfin répondre pied à pied aux arguments concurrents pour Intel.

Nvidia investit massivement dans Intel et promet des puces « Intel x86 RTX » © MiniMachines.net. 2025

  •  

Récap du Brutal Indies Unleashed Showcase : un bon tas de rétro-FPS

Vendredi soir, s’est déroulé le Brutal Indies Unleashed Showcase, organisé par l’influenceur ZlimBratSki. Son objectif : mettre en lumière les jeux indépendant violents, principalement des FPS. Chez NoFrag, on a déployé les grands moyens, puisqu’on l’a commenté en direct. Tous les jeux ne nous on pas intéressés, alors on vous fait un petit récap maison. Le live s’est achevé par un trailer de gameplay de Painted In Blood, sans doute le titre le plus impressionnant de la sélection.


Painted In Blood

Genre : Rétro-FPS
Fiche du jeu sur NoFrag // Page Steam

À chaque fois que l’on aperçoit Painted in Blood, on reste sur le cul. La direction artistique est absolument magnifique, avec son mélange rétro et effets très modernes, et surtout, le gunfeel a l’air de déchirer. L’unique développeur a le bon goût de proposer une séquence ininterrompue, afin que l’on puisse profiter du gameplay en bavant. En plus, la date de sortie est enfin annoncée : ce sera le 23 octobre.

Darkenstein 3D

Genre : Rétro-FPS
Fiche du jeu sur NoFrag // Page Steam & démo

Développé comme un hommage à Wolfentein 3D et DOOM, Darkenstein 3D est dans nos radars depuis quelques années. Reprenant l’indémodable thème de l’extermination de nazis, son gameplay nerveux et son gunplay bien gore montrent un titre mieux réalisé qu’une bonne partie de ses petits copains. Il a pourtant toujours été prévu de le sortir gratuitement. Mais avec l’arrivée de Microprose à l’édition, on pouvait craindre un virage payant. Il n’en est rien, comme l’indique le développeur dans un billet de blog Steam, qui en profite pour annoncer une date de sortie au 21 octobre. Une démo est disponible pour se faire une idée en attendant.

KVLT

Genre : Rétro-FPS
Fiche du jeu sur NoFrag // Page Steam & démo

En développement depuis maintenant quelques années, le rétro-FPS du studio argentin Evil Guinea Pig donne toujours envie. Il mêle Lovecraft et la Seconde Guerre mondiale, avec une direction artistique sympa et un gameplay qui semble plutôt chouette. Une démo est disponible, si vous voulez tester.

Project Warlock II

Genre : Rétro-FPS
Fiche du jeu sur NoFrag // Page Steam

Suite de Project Warlock premier du nom, ce second opus a quitté son accès anticipé fin mai et vous invite à incarner trois élèves du Warlock dans leurs propres aventures. Chaque personnage a son propre arsenal et son arbre compétences. Le gunfeel est bon et la direction artistique plutôt sympa. Il n’y a pas spécialement de nouveauté, mais pourquoi ne pas profiter d’un tel événement pour rappeler qu’il existe déjà de bons rétro-FPS ?

 

Shell Soldier

Genre : Fast-FPS
Fiche du jeu sur NoFrag // Page Steam

Cela fait un moment que l’on n’avait pas eu de nouvelles de ce rétro-FPS inspiré par F.E.A.R. Visuellement sympathique, c’est surtout au niveau du gameplay qu’il semblait intéressant. Mais on a quand même l’impression qu’on nous montre un concept plutôt qu’un jeu. On est donc assez curieux de voir ce qu’il va réellement donner. Une démo est prévue pour le prochain Steam Néo Fest, on y jettera sans doute un coup d’œil.

Wanted 3D: Dead or Alive

Genre : rétro-FPS
Fiche du jeu sur NoFrag // Page Steam & démo

Développé avec le moteur GZDoom, Wanted 3D: Dead or Alive n’est pas sans rappeler un certain Outlaws, qui est ressort bientôt remastérisé par Nightdive. Les visuels nous plongent quelques dizaines d’années en arrière, avec des textures qui ont l’air d’être issues d’un FMV, et donnent une ambiance bien sympathique. Une démo a été mise à disposition, et on peut en voir un aperçu notamment chez ZlimBratSki.

HYPERVIOLENT

Genre : rétro-FPS
Fiche du jeu sur NoFrag // Page Steam

Après plus de deux ans en accès anticipé, le rétro-FPS HYPERVIOLENT déploiera sa 1.0 le 23 septembre prochain. Après avoir répondu à un appel de détresse, vous vous retrouverez coincé sur un astéroïde minier où un mal inconnu a corrompu tous les occupants. Violent et bourrin à souhait, ce jeu avec des petites vibes à la System Shock nous avait bien plu pendant son accès anticipé.

PAPERHEAD

Genre : Fast-FPS
Fiche du jeu sur NoFrag // Page Steam & démo

Des décors en papier, des ennemis en carton, mais beaucoup de sang et des mouvements très nerveux, c’est la promesse de PAPERHEAD, un fast-FPS que l’on pourrait presque qualifier de rétro dans ses intentions. On avait testé la démo (EP.0) il y a quelques temps, et on avait trouvé ça très bien.

Phobolis

Genre : rétro-FPS horrifique
Fiche du jeu sur NoFrag // Page Itch.io

Un rétro-FPS horrifique, mais qui propose aussi un peu d’action. La direction artistique a l’air un peu barrée, mais nous donne quand même bien envie.

Relentless Frontier

Genre : rétro-FPS
Fiche du jeu sur NoFrag // Page Steam et démo

Un rétro-FPS plutôt réputé chez les fans du genre, et qui a l’air assez dynamique. Il est sorti en accès anticipé en juillet 2024, et semble s’améliorer continuellement. Dernièrement, la mise à jour 0.6.0, LORE N’ VANIA, a apporté des logs pour étoffer le lore et des mécanismes pour renforcer l’aspect Metroidvania. Il y a aussi de nouvelles armes et d’autres trucs dans le genre, mais on vous laisse consulter le patch notes si ça vous intéresse.

Quite a Ride

Genre : Biking sim
Fiche du jeu sur NoFrag // Page Steam

Quite a Ride propose un concept un peu original, puisqu’on se balade dans un monde infestées de créatures monstrueuses, à bicyclette. Il semble plutôt joli, et fait fortement penser à Pacific Drive dans son concept. Espérons qu’ils soit un peu moins chiant.

Stygian: Outer gods

Genre : RPG
Fiche du jeu sur NoFrag // Page Steam

Alors qu’on s’attendait à un énième jeu d’horreur insipide, Stygian: Outer Gods nous avait agréablement surpris à sa sortie en accès anticipé en avril dernier. C’est un vrai RPG en vue subjective avec des touches d’infiltration, de puzzle et d’action. Certes, les performances ne sont pas terribles et les ennemis n’ont d’indicible que leurs capacités cognitives, mais l’ambiance est vraiment réussie. Les développeurs viennent de publier la roadmap, et promettent tout plein de nouveau contenu. D’ailleurs, une mise à jour est sortie il y a deux semaines, apportant notamment de nouveaux lieux.

Hexborn

Genre : Rétro-FPS
Fiche du jeu sur NoFrag // Page Steam

Encore un rétro FPS développé sous GZDoom, Hexborn est inspiré de Blood et d’élements de Vampire Survivors, avec une touche roguelite bien sentie. Les visuels sont rétros à souhait, entre sprites granuleux et effets occultes, et l’ambiance rappelle les vieux shooters bien sanglants. On y incarne un ancien cultiste piégé dans un labyrinthe démoniaque, avec des armes brutales et des perks aléatoires à chaque run. Pourquoi pas ?

DEADBOOT

Genre : Rétro-FPS
Fiche du jeu sur NoFrag // Page Steam

Avec son petit air d’Anger Foot, mais dans un style plus rétro, DEADBOOT paraît assez sympa. Des armes, des coups de pied et du sang, que faut-il réellement de plus ?

The Victor Initiative

Genre : Rétro-FPS horrifique
Fiche du jeu sur NoFrag // Page Steam et démo

Encore un jeu horrifique, mais cette fois-ci, avec une ambiance rétro. Il a le mérite de proposer une démo pour se faire une idée. On vous laissera tester !

Reclaim

Genre : Rétro-FPS
Fiche du jeu sur NoFrag // Page Steam

Reclaim est un FPS arcade stylisé qui mise sur la vitesse, les glissades et le score. On traverse une ville futuriste en dashant, grindant et en éliminant des ennemis pour maintenir son multiplicateur de puissance. L’idée rappelle un peu Turbo Overkill, avec ses glissades frénétiques et son ambiance cyberpunk, mais a priori en moins bien sur tous les points. Avec un peu de chance, il sera tout de même dans le haut du panier.

Berserker’s Domain

Genre : Rétro-FPS
Fiche du jeu sur NoFrag // Page Steam et démo

Encore un rétro FPS sous GZDoom avec des éléments de roguelite. Mais pour le reste, ça part en roue libre totale. Pas de menu, pas de tutorial, pas de blabla. Chaque run est générée aléatoirement, avec des armes qui changent, des ennemis qui varient, et des upgrades qui n’ont aucun sens, du genre des combinaisons explosives juste là pour faire du bruit. Visuellement, c’est crade, les sprites explosent de partout, et l’ambiance rappelle les vieux FPS des années 3DFX.

Sulfur

Genre : Roguelite
Fiche du jeu sur NoFrag // Page Steam et démo

Un petit roguelite en accès anticipé avec un effet dessiné très bien réalisé, mais qui n’a pas trop accroché aux membres de la rédac. Pourtant, les mécaniques sont bonnes, mais le gunfeel est peut-être un peu mou pour qu’on ait envie de continuer après quelques heures. N’hésitez pas à tester quand même si vous appréciez le genre, car le titre est bien fini, alors qu’il n’est pas encore sorti en version finale. En plus, les devs viennent de sortir un nouveau biome : le désert. Allez consulter le patch notes pour plus d’info.

Gunstoppable

Genre : Roguelite
Fiche du jeu sur NoFrag // Page Steam

Un roguelite aérien aux couleurs criardes, avec beaucoup trop d’effets visuels. Le trailer nous a fait très mal aux yeux, et ça a l’air parfaitement dispensable.

Spyrit Walker

Genre : Rétro-FPS
Fiche du jeu sur NoFrag // Page Steam et démo

Annoncé il y a un an (mais on l’avait raté), Spyrit Walker nous fera explorer un monde Weird Western, à savoir des cowboys mélangés à du surnaturel, seul ou en coop. L’ambiance, et même le design des ennemis, rappellent assez fortement Blood West, mais en plus moche, avec un framerate au ras des pâquerettes et des puzzles.

DEFICIT

Genre : Immersive sim / infiltration
Fiche du jeu sur NoFrag // Page Steam

Item42 (Perish) continue d’en montrer un peu plus sur son prochain jeu, annoncé comme un immersive sim. Cette dernière vidéo présente les différentes options offensives dont le joueur pourra faire usage : armes à feu, armes de mêlée, éléments de décor à jeter sur ses adversaires, mines… Rien de révolutionnaire, mais si c’est plaisant à jouer, pourquoi pas ?

Mala Petaka

Genre : Rétro-FPS
Fiche du jeu sur NoFrag // Page Steam et démo

Lui aussi développé sous GZDoom, ce rétro-FPS haut en couleur nous fera traverser différents univers pour dégommer aliens et autres robots peu amiables. En développement depuis plus de trois ans, Mala Petaka sortira en 1.0 le 25 septembre.

Delusion Out Of Space

Genre : Horreur
Fiche du jeu sur NoFrag // Page Steam

Un jeu d’action / horreur inspiré par Lovecraft, d’après les dires du développeur. À la vue du trailer, on comprend qu’on devra s’échapper d’un vaisseau extraterrestre plein de néons bleus, en marchant à deux à l’heure avec un headbob à donner le mal de mer. Sans oublier le framerate à 10 FPS dès qu’il faudra tirer sur deux ou trois bestioles moches en reculant. Fascinant.

  •  

Les stages de récupération de points : une bouée de sauvetage pour les conducteurs Français ?

En France, le permis de conduire est un précieux sésame pour la liberté de mouvement. Cependant, avec les infractions routières qui peuvent survenir à tout moment...

Les stages de récupération de points : une bouée de sauvetage pour les conducteurs Français ? est un article de Blog-Moteur, le blog des passionnés d'automobile !

  •