Vue lecture

OpenClaw : le moment IA des fabricants de MiniPC

OpenClaw est un produit opensource que tout un chacun peut installer et exploiter. Une aubaine pour les fabricants de MiniPC qui ont jusqu’ici bien du mal à mettre en avant les capacités IA de leurs produits. D’où leur amour inconditionnel pour ce dispositif et son énorme mise en avant.

Openclaw mis en scène chez Aoostar

Openclaw mis en scène chez Aoostar

Openclaw ? Qu’est ce que c’est ?

Je ne suis pas spécialement friand de ce genre d’application, j’ai installé-testé-désinstallé 1, mais sans aller beaucoup plus loin.

En gros, c’est un « agent IA », un outil qui se saisit de plusieurs IA et qui va exécuter des tâches avec celles-ci sur votre système en allant farfouiller là où vous lui donnerez des accès. Openclaw fonctionne en arrière-plan et travaille sans relâche. Vous pouvez l’interroger en langage naturel et il vous répondra au travers de multiples applications. Cela permet de piloter des projets à long terme avec une persistance de l’analyse. Gros point clé de cet outil, un usage local qui ne nécessite donc pas d’abonnement à un outil réseau. 

C’est LE point clé qui semble avoir fait mouche chez les fabricants de MiniPC. Aujourd’hui, hormis les solutions équipées de puce Strix Halo avec 128 Go de mémoire vive qui peuvent faire face à des LLM très gourmandes, les engins proposés ne sont pas spécialement valorisés par l’IA. Mais avec OpenClaw, les constructeurs peuvent proposer une IA exploitable même sur des postes milieu de gamme.

Openclaw installable en 1 clic sur les machines GMKtec

Openclaw installable en 1 clic sur les machines GMKtec

Mieux, cet assistant est un excellent prétexte pour développer un nouveau discours commercial. Celui qui consiste à mettre en avant un tout nouvel usage des MiniPC. En installant OpenClaw sur une machine annexe que l’on connectera à son réseau, on pourrait profiter de son Agent IA sur toutes ses machines sans pour autant occuper leur mémoire vive et leurs performances. Cela rend l’investissement dans un MiniPC de ce type séduisant. Comme si, en plus d’ajouter un NAS et un serveur pour avoir du stockage et des services sur son réseau, on pouvait ajouter un « cerveau » qui viendrait vous seconder quand vous y êtes connecté.

C’est pour cela que tous les constructeurs de MiniPC s’intéressent à OpenClaw. L’outil logiciel est libre, gratuit, s’installe facilement et peut justifier à lui seul l’achat d’un MiniPC. Un utilisateur lambda, avec un parc de machines classiques ou juste un PC au format tour ou portable, pourrait être tenté d’ajouter un agent de ce type chez lui pour être plus efficace… Ce nouvel intérêt pourrait même pousser un propriétaire de MiniPC à en acheter un second.

Toutes les marques y vont donc de leur campagne de pub. Minisforum vient d’ajouter des guides pour installer l’outil sur leurs machines. Geekom le met en avant, Beelink a créé une gamme colorée à sa gloire et propose même un SSD préinstallé avec OpenClaw dessus. Aoostar et GMKtec ont des services dédiés. On est vraiment dans l’idée de fournir des solutions faciles d’emploi pour rajouter une IA personnelle et locale à un dispositif existant.

OpenClaw n’est pas sans danger

Je n’ai aucun problème avec cette idée d’usage, tout le monde fait ce qu’il veut avec son matériel. Reste que proposer un service de ce type « clé en main » à des gens qui ne vont pas forcément prendre en compte tous les aspects positifs et négatifs qu’il propose me dérange un peu. L’outil a rapidement été détourné par des petits malins qui ont ainsi pu prendre le contrôle de machines ou de réseaux entiers. Pire, même sans intervention extérieure, l’IA en question a déjà eu des comportements regrettables. Comme la décision de supprimer des emails, de faire disparaître purement et simplement des projets qu’elle jugeait obsolètes, d’effacer des fichiers, de remplir des formulaires et de s’abonner à des services variés sans votre accord, de supprimer des rendez-vous et même de s’abonner à des services externes. Évidemment, tout cela dépend des clés que vous allez fournir à l’outil.

Certaines barrières ont déjà été levées pour contenir OpenClaw. Anthropic a, par exemple, annoncé il y a une semaine que cet agent IA n’aurait plus le droit d’exploiter gracieusement ses outils. Il faudra payer chaque Token via un abonnement spécifique. Ce qui, pour un outil fonctionnant de manière permanente, peut s’avérer dangereux.

Je ne sais pas combien de temps cette mode « agentique » autour d’OpenClaw va durer chez les fabricants de MiniPC. Une chose est sûre, l’outil n’est pas aussi anodin et « magique » que beaucoup veulent le faire croire. Si le sujet vous intéresse, je vous encouragerais donc à potasser un minimum de documentations autour de l’outil avant de cliquer sur un bouton installation. Les utilisateurs d’OpenClaw le reconnaissent eux-mêmes, l’installation par défaut n’est pas idéale et demande des réglages pour être suffisamment sécure. Chaque erreur peut avoir des conséquences désastreuses. 

 

OpenClaw : le moment IA des fabricants de MiniPC © MiniMachines.net. 2026

  •  

Meta dévoile Muse Spark, son premier modèle propriétaire depuis le départ de Yann LeCun

Après des mois à recruter dans toute la Silicon Valley pour former le Superintelligence Labs, Meta vient de dévoiler Muse Spark, un premier modèle propriétaire présenté comme supérieur à Claude Opus 4.6 et Google Gemini 3.1 Pro dans plusieurs tests. Mais l'entreprise a-t-elle encore une chance dans la course à l'IA générative ?

  •  

IA – Tu ne tueras point… ou pas.

Création de deepfakes pornographiques ou politiques, malwares toujours plus puissants… Malgré les annonces des grandes compagnies, imaginer une IA inoffensive est un leurre. Jailbreak, ablitération… les techniques de détournement sont nombreuses. Alors, devons-nous accepter cette nouvelle réalité ?

La promotion des IA se fonde sur la mise en avant de produits bien lisses, bridés par des armées de modérateurs, d’ingénieurs et de juristes « Trust & Safety » qui transpirent à l’idée que leur modèle lâche une recette de crystal meth à votre ado de 15 ans. « Tu ne tueras point », « Tu ne généreras pas de code malveillant », l’esprit des lois de la robotique d’Asimov est recyclé sans retenue. Sauf que la réalité démontre que l’alignement moral des LLM (Large Language Models) est une vaste blague, un vernis qui craque à la première pichenette.

Plongeons alors dans les entrailles de l’IA uncensored : du mind-trick psychologique au charcutage mathématique, en passant par le tuning de garage. Accrochez-vous, on fait sauter tous les verrous !

Le jailbreak, ou comment saturer le cerveau d’une IA

Oubliez les prompts encodés en Base64 (un système qui transforme le texte en une suite de caractères illisibles) ou en « leetspeak » (ce langage où on remplace des lettres par des chiffres ou des symboles, comme « 1337 » pour « elite »). Ces méthodes sont repérées presque instantanément par les systèmes de sécurité d’Anthropic ou d’OpenAI.

Prenez « Spiritual Spell », connu aussi sous le pseudonyme de Vichaps. Cet ancien militaire américain s’est reconverti en chercheur spécialisé dans le « Red Team » : il teste volontairement les failles des intelligences artificielles, un peu comme un hacker éthique qui simule des attaques pour renforcer les défenses.

Un jour, alors qu’un « Maître du Donjon » – c’est le nom donné au système de garde-fou chargé de bloquer toutes les demandes dangereuses, illégales ou contraires à l’éthique – refusait de répondre à ce qu’il demandait, il a décidé de consacrer beaucoup de son temps à « jailbreaker » les modèles d’IA, soit d’en contourner les restrictions de sécurité intégrées.

Sa méthode de prédilection ? Le Peeling Onions (l’épluchage d’oignons). Plutôt que de forcer la porte de manière frontale, il la contourne en s’appuyant sur trois piliers psychologiques :

Le langage naturel : il s’agit de s’adresser à la machine le plus normalement du monde. Les IA sont intrinsèquement entraînées pour être « sycophantes », c’est-à-dire complaisantes et avides de satisfaire l’utilisateur. Dès qu’elles repèrent des mots ou des tournures typiques d’un « hacker » (comme des termes techniques suspects, des demandes de piratage ou un vocabulaire agressif), elles déclenchent immédiatement une alerte et bloquent la réponse. En évitant complètement ce lexique, Vichaps empêche ces systèmes de sécurité de sonner l’alarme. Son approche reste douce, polie et en apparence inoffensive, ce qui lui permet de progresser couche après couche sans éveiller les soupçons. L’IA privilégie alors son inclination naturelle à rendre service plutôt que le strict respect de ses directives de sécurité.

La division de l’attention : un modèle de langage dispose d’une capacité de calcul et d’attention limitée par requête. La technique consiste à dissimuler la commande pernicieuse sous une avalanche de détails descriptifs ou sensoriels secondaires. En demandant à l’IA de se concentrer sur l’odeur métallique d’un atelier des années 90 ou l’esthétique d’un décor précis, chaque « token » dépensé pour l’imagination est soustrait aux algorithmes de modération. Le modèle, saturé par la charge narrative environnementale, exécute la requête principale sans opposer de résistance.

Les récits imbriqués : c’est l’application détournée du jeu de rôle. L’utilisateur façonne un persona, par exemple une romancière rédigeant une œuvre de fiction dystopique. Pour un LLM, la cohérence narrative prime souvent sur l’injonction morale. Il ne s’agit plus de lui demander d’accomplir une action illégale, mais de décrire avec authenticité une scène de son roman où un personnage l’accomplit. L’IA, stimulée par cet exercice d’improvisation, livre les informations sensibles au nom de l’immersion littéraire.

L’ablitération : la lobotomie mathématique

Si le jailbreak relève de la manipulation, il exige néanmoins un effort constant de contournement. Que se passe-t-il lorsqu’on souhaite obtenir un modèle affranchi de toute contrainte éthique, et ce, de manière permanente ?

C’est ici qu’intervient l’ablitération (contraction d’ablation et d’itération, qui résonne avec son quasi-synonyme « oblitération »), un concept popularisé par un chercheur connu sous le pseudonyme de FailSpy.

Contrairement au réentraînement classique, l’ablitération s’apparente à une intervention chirurgicale post-conception, opérée directement sur les matrices de poids du modèle. Les chercheurs ont mis en évidence l’existence d’une « direction de refus » au sein de l’espace d’activation des LLM. Lorsqu’une IA s’apprête à formuler une fin de non-recevoir du type « Je suis désolé, mais en tant qu’IA, je ne peux pas… », ses réseaux neuronaux s’activent selon un vecteur très précis et identifiable.

IA : peut-on coder la morale ?

J’approfondis

L’opération consiste donc à isoler cette direction vectorielle et à la soustraire par une simple opération d’algèbre linéaire (une orthogonalisation). Le résultat est pour le moins troublant : la machine conserve l’intégralité de ses capacités cognitives, de sa logique et de son savoir, mais se voit physiquement amputée de son mécanisme de blocage. Un modèle ainsi « ablitéré » générera le code d’un malware ou d’un script offensif de scan de vulnérabilités sans la moindre hésitation.

Le fine-tuning : l’école du vice sur mesure

Si l’ablitération supprime la notion de refus, le réentraînement fin (fine-tuning) permet, quant à lui, d’inculquer activement des comportements illicites. L’hégémonie de firmes comme OpenAI s’estompe face à la prolifération de modèles ouverts (à l’instar des modèles Qwen d’Alibaba ou des modèles de Mistral), dont les poids sont téléchargeables librement.

L’enjeu se situe dans l’accessibilité de ces technologies. Avec une puissance de calcul relativement modeste (quelques cartes graphiques louées dans le cloud pour quelques centaines ou milliers de dollars) et des méthodes d’optimisation comme LoRA, il est désormais possible à n’importe quel passionné de s’approprier un modèle de base et de le personnaliser avec ses propres jeux de données. Or, par définition, ces bases de données échappent à toute supervision.

IA : comment greffer une mémoire à un poisson rouge ?

J’approfondis

En alimentant un modèle avec des discussions extraites de forums du Dark Web, des dépôts de code malveillant, des manuels de guérilla ou des archives de campagnes de hameçonnage (phishing) ultra-ciblées, l’usager crée une IA experte en illégalité. Le modèle assimile le ton, la méthodologie et l’efficacité des données qu’il a ingérées, devenant ainsi une arme numérique façonnée sur mesure.

Génération visuelle : l’industrialisation des deepfakes

Si les dérives textuelles posent un risque sécuritaire majeur, le franchissement des barrières morales prend une dimension encore plus vertigineuse avec les modèles de génération visuelle.

Les acteurs majeurs tels que Midjourney ou Nano Banana ont déployé des filtres drastiques pour prévenir la génération d’images sensibles, de figures politiques ou de contenus sous droits d’auteur, tétanisés par le risque de scandales médiatiques. Mais l’écosystème open source, avec des modèles comme Stable Diffusion, Wan, LTX ou Flux, permet, avec les techniques précédentes, tous les excès.

Une fois ces modèles débridés ou entraînés sur des données non filtrées, la manipulation d’images passe à une échelle industrielle. La création de deepfakes pornographiques non consentis, impliquant des personnalités publiques (Taylor Swift en fut récemment la cible) ou de simples anonymes, devient un processus automatisé. De la même manière, la fabrication de fausses preuves vidéo destinées à compromettre un adversaire, à alimenter une campagne de chantage ou à orienter une élection ne requiert plus d’expertise technique pointue : c’est l’affaire de quelques clics.

Du point de vue de l’internaute, et même du journaliste, le plus important est plus que jamais d’aiguiser son esprit critique et de respecter une logique généralement efficace : toujours recouper une information à partir de sources distinctes de qualité.

Enfin, l’aspect le plus sombre de cette technologie réside dans la génération de matériel pédopornographique par IA, atteignant un niveau de photoréalisme impossible à distinguer d’authentiques clichés. Ces modèles fonctionnant en vase clos, souvent en local sur une simple carte graphique d’un PC gamer, échappent à tout mécanisme de contrôle : il n’y a pas d’API à couper, pas d’adresse IP à bannir et pas de filigrane pour les différencier de photos ou de vidéos réelles. N’importe quel esprit malveillant peut ainsi transformer sa machine en une manufacture d’horreurs, produisant du contenu abusif à la chaîne.

L’éternel avantage de l’attaquant

In fine, le battage médiatique et institutionnel autour de la « sécurité de l’IA » témoigne d’une certaine hypocrisie, ou, au moins, d’une amnésie historique quant à une règle fondamentale de l’informatique, de la délinquance et des conflits. De tout temps, que ce soit dans l’histoire de la stratégie militaire (la course perpétuelle entre le projectile et le blindage) ou dans la cybersécurité moderne (les vulnérabilités zero-day devançant inévitablement les antivirus), l’attaquant a toujours conservé l’ascendant sur le défenseur. L’offensive dicte le rythme de l’évolution technologique ; le bouclier ne fait que s’adapter, avec un perpétuel temps de retard.

Vouloir concevoir une intelligence artificielle absolument et intrinsèquement inoffensive relève du non-sens absolu. Cela reviendrait à forger un couteau performant qui s’obstinerait à refuser de trancher de la chair humaine tout en coupant un steak à la perfection. C’est mathématiquement, logiquement et philosophiquement voué à l’échec. La vulnérabilité n’est pas uniquement technologique, elle est organique.

C’est donc avant tout la responsabilité — et la volonté — de l’usager qui déterminent l’impact d’une IA. Les mesures de protection algorithmiques, les réglementations européennes, qu’il s’agisse de garde-fous, de méthodes d’alignement ou de modérateurs humains, importent finalement assez peu à grande échelle : elles finiront toujours par céder face à l’ingéniosité et à la détermination de cybercriminels, d’acteurs étatiques ou d’individus économiquement motivés par l’absence de limites. L’intelligence artificielle n’est qu’un puissant levier cognitif et créatif. C’est la main humaine, et elle seule, qui choisit la direction vers laquelle elle veut amener une technologie.

« Tu ne tueras point ? » Peut-être. Mais l’humain, derrière un clavier ou non, lui, ne s’en est jamais privé.

L’article IA – Tu ne tueras point… ou pas. est apparu en premier sur Les Électrons Libres.

  •  
❌