Vue lecture

Minisforum G1 Pro : le MiniPC sous RTX 5060 dispo en janvier

Prévu pour une disponibilité en janvier 2026, le Minisforum AtomMan G1 Pro est un peu plus encombrant qu’un MiniPC classique. Il mesure 31.5 cm de large pour 21.5 cm de profondeur et 5.7 cm d’épaisseur. Pensé pour être positionné debout, il occupe un volume de 3.8 litres. On l’avait croisé en avril sans plus de précisions techniques sur son prix et sa disponibilité. Ces éléments sont plus clairs aujourd’hui.

Minisforum AtomMan G1 Pro

Minisforum AtomMan G1 Pro

 

Ce format particulier permet à l’AtomMan G1 Pro d’embarquer une formule de composants assez complète puisque la minimachine propose un processeur AMD Ryzen 9 8945HX et un circuit graphique secondaire. Une carte graphique Nvidia GeForce RTX 5060 de bureau classique est en effet intégrée au châssis. Reliée en PCIe au reste des composants, elle apportera des capacités graphiques supérieures au système.

Le dispositif mis en place est assez impressionnant, on retrouve la carte graphique tout en haut qui évacuera la chaleur par l’arrière et le dessus du G1 Pro. Le circuit de refroidissement du processeur qui semble énorme et profite d’un large dispositif de caloducs pour souffler vers l’arrière au milieu. Et, tout en bas, le circuit d’alimentation 350 W de l’engin également ventilé.

Le tout étant piloté dans trois modes distincts d’alimentation. Un mode « Office » qui limitera le TDP des composants pour éviter tout bruit et apporter un usage classique. Un mode « Gaming » intermédiaire et un mode « Beast » qui devrait lâcher les chevaux en débridant toutes les performances. Évidemment, ce dernier mode mettra en route la ventilation de l’ensemble. La carte graphique pouvant monter à elle seule à 145 watts, le G1 Pro grimpera alors à 245 watts au total. 

Le Ryzen 9 8945HX est un processeur très impressionnant, il additionne pas moins de 16 cœurs Zen4 pour 32 Threads au total. Avec 80 Mo de cache, cette puce propose des fréquences de 2.5 à 5.4 GHz, et un TDP oscillant entre 55 et 75 watts. Cette débauche se fait au prix du sacrifice de son circuit graphique embarqué. Un simple double cœur Radeon 610M à 2.2 GHz clairement pensé pour être relayé par un circuit graphique secondaire. 

Ce rôle sera joué par le circuit graphique Nvidia qui proposera 3840 cœurs CUDA et ses 8 Go de mémoire vive dédiée en GDDR7. Une solution qui pourra également développer jusqu’à 614 TOPs pour des travaux liés à l’IA. Le processeur sera donc poussé au-delà des capacités annoncées par AMD avec un overclocking à 100 watts en mode gaming, uniquement possible grâce à un refroidissement, probablement assez bruyant.

Minisforum promet que son AtomMan G1 Pro développera en échange assez de muscles pour des tâches lourdes. Du jeu 3D fluide en FullHD ou 1440P suivant les titres. De l’animation 3D, du montage et du rendu vidéo, des travaux graphiques ou sonores et autres travaux demandant beaucoup de ressources. Pour supporter tout cela, la machine sera livrée avec un minimum de 32 Go de DDR5-5200 en double canal et pourra évoluer vers 96 Go au maximum. Le stockage sera confié de base à une solution NVMe PCIe 4.0 x4 de 1 To en M.2 2280 et un emplacement identique libre sera disponible. Les deux pourront évoluer vers des SSD de 4 To pour 8 To embarqués au total. 

La connectique est complète avec en façade un bouton de démarrage, Un USB 3.2 Type-A, un USB 3.2 Type-C et un jack audio combo 3.5 mm. À l’arrière, on retrouvera d’abord les sorties vidéo de la carte graphique avec deux DisplayPort 2.1 et un HDMI 2.1. Plus bas un USB 3.2 Type-C, deux USB 3.2 Type-A, la sortie HDMI 2.1 du circuit graphique Radeon de la puce AMD. Un Ethernet 5 Gigabit est présent pour des débits réseau rapides, un DisplayPort 1.4a toujours dépendant de la puce Ryzen et la prise d’alimentation tripolaire surmontant un interrupteur. On retrouvera également à bord un module Wi-Fi7 et Bluetooth 5.4 pour des débits sans fil élevés.

Annoncée comme compatible avec Windows 11 qui est livrée avec et Linux, le Minisforum AtomMan G1 Pro est listé sur le site Français de la marque à… 1559€ TTC dans sa version 32 Go / 1 To. La disponibilité est prévue pour janvier 2026 avec une livraison depuis l’Allemagne. Je suis assez circonspect quant au prix de cet engin. Il n’a certes pas vraiment d’équivalent sur le marché avec un châssis compact et la possibilité de monter une carte graphique plein format. Mais cela reste tout de même assez cher et peu évolutif, finalement. Je ne suis vraiment pas certain que le boitier comme l’alimentation puissent accepter une autre carte graphique que celle livrée, par exemple.

Si je regarde sur le marché des PC Tour classiques, on retrouve par exemple ce PCcom Ready sous Core i7-14700KF avec 32 Go de RAM, 2 To de SSD et une GeForce RTX 5060 8Go à 1232€ dès aujourd’hui. Ou un PC tour MSI MAG Infinite S3 14NVP7-2801ES Core i7-14700F, 32 Go de RAM, 1 To de stockage NVMe et une GeForce RTX 5070 avec 12 Go de GDDR7. Je suis évidemment un fan des formats compacts mais pour certains usages cela peut être finalement contre productif, notamment en terme d’évolutivité. Difficile alors de rester aveuglé par l’encombrement sur ce type d’engin avant tout pensé pour la performance.

 

Catégorie Minisforum AtomMan G1 Pro
CPU AMD Ryzen 9 8945HX (16 Cores / 32 Threads, max 5.4 GHz)
GPU NVIDIA GeForce RTX 5060
Mémoire DDR5 jusqu’à 5200 MHz (Dual Channel), prise en charge jusqu’à 96 Go
Stockage 2× M.2 2230/2280 NVMe SSD (jusqu’à 4 TB chacun, PCIe 4.0 x4)
Contrôleur Ethernet LAN 5 Gigabit (RJ45)
Sans fil Wi-Fi 7, Bluetooth 5.4
Sortie vidéo HDMI 2.1 ×2 (1 carte mère, 1 GPU)
DP 1.4 ×1 (jusqu’à 8K@60Hz / 4K@144Hz, GPU)
DP 2.1 ×2 (jusqu’à 8K@120Hz / 4K@144Hz, GPU)
Sortie audio HDMI 2.1 ×2 (1 carte mère, 1 GPU)
DP 1.4 ×1 (GPU) DP 2.1 ×2 (GPU)
Jack combo 3,5 mm 4-en-1 ×1
Ports — Avant Power Button ×1
Jack audio combo 3,5 mm ×1
USB-A (USB 3.2 Gen2) ×1
USB-C (USB 3.2 Gen2, data only) ×1
Ports — Arrière RJ45 5G (RTL8126) ×1
USB-A (USB 3.2 Gen2) ×2
USB-C (data only) ×1
HDMI 2.1 (8K@60Hz) ×2
DP 2.1b ×2
DP 1.4a ×1
Interne PCIe 4.0 ×16
Ventilateur CPU ×1
Ventilateur système ×1
Ventilateur SSD ×1
Connecteur frontal (USB 3.2 ×1, USB-C ×1, jack combo ×1)
Bouton de démarrage 
Boutons / Éléments Bouton de démarrage 
Reset BIOS
Dimensions 215 × 57 × 315 mm
Puissance 350 W
Système Windows 11 / Linux
Poids 3.81 kg

Minisforum G1 Pro : le MiniPC sous RTX 5060 dispo en janvier © MiniMachines.net. 2025

  •  

Le meilleur modèle pour coder a déjà changé, Claude Opus 4.5 détrône déjà Gemini 3 Pro

Six jours après Gemini 3 Pro de Google, qui a battu tous ses rivaux dans la quasi-totalité des tests, Anthropic dévoile Claude Opus 4.5, son nouveau grand modèle de langage qui promet de réparer le code des développeurs mieux que personne. Dans les benchmarks sur ce critère, Claude Opus 4.5 détrône complètement le modèle de Google.

  •  

“L’empire de l’IA”, la contre-attaque qui fait plouf !

Un chiffre choc, glaçant même. Empire of AI, best-seller de l’été sur l’IA, affirme qu’un data center consomme mille fois l’eau d’une ville entière. Le problème, c’est que l’autrice s’est trompée : l’estimation était 5 000 fois trop élevée.

Cerrillos, petite ville chilienne de 88 000 habitants, devait accueillir un nouveau data center de Google. Dans son livre à succès consacré à Sam Altman et au système OpenAI, Karen Hao décrit une installation dont les besoins en eau dépasseraient mille fois ceux de la commune. De quoi s’imaginer un véritable monstre technologique à la soif inextinguible. Le chiffre était frappant… trop, sans doute.

La menace fantôme

Car tout ceci s’est révélé être une énorme erreur factuelle, qui fait partir la démonstration à vau-l’eau et basculer Karen Hao — pourtant diplômée d’ingénierie du MIT — du côté obscur de l’information scientifique.

Dans un contexte saturé de chiffres alarmistes sur l’IA, ce ratio improbable a pu paraître crédible à beaucoup. Mais pas à Andy Masley, membre du courant de l’Effective Altruism, dont la démarche repose strictement sur les faits et les preuves.

Le Jedi des ordres de grandeur

Un calcul rapide montre en effet que ce ratio impliquerait que chaque habitant n’utilise que 0,2 litre d’eau par jour — une absurdité, près de 900 fois moins que la moyenne chilienne. En consultant les rapports de la SMAPA (service municipal de l’eau de Maipú/Cerrillos), Masley découvre que les chiffres présentés comme des « litres » dans la réponse officielle obtenue par Hao sont en réalité des mètres cubes. Une erreur d’unité qui change la comparaison d’un facteur 1 000.

Karen Hao a reconnu l’erreur et admis qu’un contrôle de plausibilité aurait suffi à la repérer. Elle a aussi annoncé qu’elle mettrait à jour son livre une fois la confirmation officielle reçue, tout en maintenant ses critiques sur l’implantation de data centers en zones de stress hydrique.

Mais ce n’est pas tout. Masley lui reproche aussi d’avoir fondé sa comparaison sur les valeurs maximales de prélèvement autorisées, alors que la consommation réelle se situe plutôt autour de 20 % de ce plafond. Une autre source majeure de surestimation.

Enfin, il pointe la confusion fréquente entre prélèvements et consommation nette : les volumes cités correspondent à de l’eau prélevée — restituée à plus de 90 % — et non à la part réellement consommée. Une nuance pourtant essentielle pour comprendre l’impact réel d’un data center.

Ces trois éléments — l’erreur d’unité, la comparaison à la capacité maximale autorisée et la confusion entre prélèvements et consommation nette — modifient radicalement l’interprétation du cas de Cerrillos.

Rien d’anecdotique. La circulation mondiale de chiffres spectaculaires mais faux finit par façonner une image déformée de l’IA, présentée comme une industrie prédatrice. Ce décalage entre perception et réalité alimente la défiance du public et complique tout débat rationnel autour de ces infrastructures.

La France refroidit le cloud sans assécher la planète

J’approfondis

Un nouvel espoir

S’il est légitime de se poser des questions sur l’impact environnemental des data centers, encore faut-il poser correctement les enjeux. Le volume total d’eau consommée, pris isolément, n’a aucune signification. Ce qui compte, c’est où et quand l’eau est prélevée. Un captage dans un grand cours d’eau en période de crue n’a aucun impact, alors que puiser de l’eau potable dans une zone sous stress hydrique peut devenir problématique.

À Cerrillos, Google a mis en pause son projet de 200 millions de dollars après qu’un tribunal environnemental chilien a partiellement révoqué son autorisation et demandé une réévaluation intégrant la vulnérabilité de l’aquifère local et les effets du changement climatique.

L’entreprise a annoncé repartir « à zéro », en adoptant un refroidissement par air, sans aucun prélèvement dans les puits environnants. Une solution plus coûteuse, mais appelée à devenir la norme partout où l’usage de l’eau fait l’objet d’une forte compétition.

L’article “L’empire de l’IA”, la contre-attaque qui fait plouf ! est apparu en premier sur Les Électrons Libres.

  •  

La guerre des clics

Google est-il en danger ? Avec l’irruption des IA, ses milliards de recettes publicitaires sont menacés. Et les entreprises doivent réviser leurs méthodes : le SEO est mort, vive le GEO.

Depuis plus de vingt ans, Google règne sans partage sur la recherche en ligne. Avec près de 90 % des requêtes mondiales, le moteur de Mountain View est devenu la porte d’entrée d’Internet et la plus grosse régie publicitaire du monde. Son secret ? Un savant mélange de référencement naturel (SEO) et de liens sponsorisés (SEA). Les sites se battent pour grimper dans la page de résultats, les annonceurs paient pour exister, et Google, lui, encaisse.

Un modèle aussi simple qu’efficace. Mais fragile, car il repose sur un geste : le clic. Or une nouvelle génération d’utilisateurs se demande déjà pourquoi cliquer sur dix liens… quand une IA peut leur donner directement la réponse.

ChatGPT, le réflexe qui court-circuite Google

Depuis son lancement fin 2022, ChatGPT a bousculé les habitudes. Huit cents millions d’utilisateurs, un usage quotidien dans les entreprises, et un réflexe qui s’installe : taper une question dans une fenêtre de chat plutôt que dans une barre de recherche. 74 % disent l’utiliser pour chercher des informations au moins de temps en temps.

Et la tendance s’accélère. D’ici à 2026, jusqu’à un quart des requêtes pourraient passer par des assistants IA. OpenAI, avec ChatGPT Atlas, pousse même le concept plus loin : un navigateur où la recherche n’est plus une liste de liens mais une conversation. Demain, on ne cherchera plus le web, on lui parlera.

Atlas d’OpenAI, la nouvelle donne de la recherche web

J’approfondis

Le duo SEO/SEA perd de sa superbe

Pour les directions marketing, c’est un séisme. Pendant vingt ans, tout reposait sur le couple SEO/SEA : du contenu optimisé pour remonter dans Google et des annonces payantes pour s’y maintenir.
Mais voilà : les IA conversationnelles ne présentent plus dix liens, elles livrent une seule réponse, synthétique et contextualisée. Résultat : le trafic naturel chute, la publicité devient moins rentable et le marketing digital se retrouve à réinventer la roue.

Il faut désormais produire des contenus clairs, solides, bien structurés — et surtout pensés pour être compris par les IA. Autrement dit, parler leur langage. Mieux vaut un article précis et utile qu’un texte truffé de mots-clés.

Le GEO, nouveau graal du référencement

Bienvenue dans l’ère du GEO — Generative Engine Optimization. L’idée : ne plus seulement séduire l’algorithme de Google, mais être cité par les moteurs d’IA.

Pour cela, il ne suffit plus d’apparaître dans les dix premiers liens Google. Il faut désormais exister dans les corpus que les modèles d’IA consultent : articles de presse, blogs, Wikipédia, forums, réseaux professionnels. L’enjeu est de façonner leur mémoire conversationnelle, autrement dit la manière dont elles apprennent à citer des marques, des produits ou des sources crédibles. Cela implique de structurer les contenus comme des réponses directes aux questions que se posent les utilisateurs, d’adopter un ton naturel et fluide, proche du langage courant, et d’actualiser régulièrement les données pour rester visibles dans les flux d’information que les IA exploitent.

Vercel, la startup qui a hacké Google grâce à ChatGPT

J’approfondis

Les marques et organisations doivent donc associer systématiquement leur nom à des formulations naturelles, renforcer la crédibilité de leur site par des sources fiables (liens, mentions, transparence éditoriale) et multiplier leur présence sur les plateformes que les LLM lisent : Reddit, LinkedIn, Quora ainsi que la presse en ligne. Enfin, les contenus doivent être techniquement lisibles — via des balises FAQ, des métadonnées et des schémas structurés — pour que les modèles puissent les comprendre et les citer. Être mentionné par une IA n’est plus une affaire de mots-clés : c’est désormais une question de cohérence narrative, de confiance et de lisibilité machine.

On devine déjà la suite : demain, il y aura des « réponses sponsorisées » dans les IA, où un produit ou une marque apparaîtront directement dans la synthèse générée. Le SEO et la publicité classique vont converger vers ce référencement conversationnel, plus fluide, mais aussi plus opaque.

Google contre-attaque, mais le monde change

Faut-il enterrer Google ? Pas encore. Le géant reste incontournable pour acheter un billet d’avion, comparer des prix ou trouver un restaurant. Mais pour s’informer ou se documenter, l’IA prend l’avantage.

Les médias et marques l’ont compris : mieux vaut miser sur des contenus solides, sourcés et reconnaissables. Certains vont même jusqu’à négocier des partenariats avec les IA, histoire d’assurer leur visibilité dans les réponses.

Car la confiance va devenir la nouvelle monnaie du web : les IA privilégieront les contenus sérieux, vérifiés, actualisés. Les communicants, eux, devront apprendre à dialoguer avec ces nouveaux moteurs, à suivre leurs citations, à comprendre leur logique.

Et pendant ce temps, Google se réinvente. Ses projets Gemini et Bard injectent de l’IA au cœur même du moteur, quitte à rogner sur ses revenus publicitaires. Le pari est clair : mieux vaut transformer son modèle avant que d’autres ne le fassent à sa place.

Vers une recherche conversationnelle

La recherche en ligne entre dans une nouvelle ère : celle du dialogue. ChatGPT ne tue pas Google — il le force à changer. Les métriques aussi se transforment : on ne mesurera plus seulement le trafic ou le taux de clics, mais la confiance, la mention, la pertinence.

Demain, les gagnants seront ceux qui auront su comprendre cette bascule : maîtriser leurs données, inventer le SEO de l’IA et surtout gagner la confiance des machines. Le web ne sera plus seulement un espace à explorer, mais un langage à parler — celui de l’intelligence artificielle.

L’article La guerre des clics est apparu en premier sur Les Électrons Libres.

  •  

Kimi K2 Thinking, l’IA qui pense et qui agit

Une IA open source, capable de rivaliser avec les meilleurs modèles, entraînée pour seulement quelques millions d’euros ? C’est la révolution Moonshot AI : une prouesse qui balaie les scénarios catastrophes sur le coût énergétique de l’intelligence artificielle.

La start-up chinoise Moonshot AI, soutenue par Alibaba, vient de dévoiler Kimi K2 Thinking, son modèle de langage qui ne se contente pas de répondre, mais qui réfléchit et agit en exécutant de 200 à 300 appels d’outils séquentiellement, grâce à un raisonnement adaptatif et à long terme. Tel un ingénieur, il peut enchaîner les cycles de réflexion, de recherche, de navigation Internet, de développement — en boucle — jusqu’à trouver la solution à un problème complexe.

Comme la plupart des solutions d’IA chinoises, Kimi K2 Thinking est proposé en open source, ce qui va permettre aux autres acteurs de s’en inspirer et de progresser à leur tour. Un cycle vertueux de développement et de partage qui fait l’excellence et la fertilité de l’IA chinoise et que pratiquement aucune société américaine n’applique, sinon sur de petits modèles parfois destinés à faire de la communication plutôt qu’a un usage réel.

Ici, le modèle compte 1 000 milliards de paramètres : il rivalise donc en taille avec les plus grands opus des géants américains OpenAI, Google et Anthropic. Mais si la taille est une métrique, la performance en est une autre — et c’est là que Kimi K2 Thinking fait fort, en battant assez largement ses concurrents payants dans de nombreux benchmarks de raisonnement, notamment ceux qui n’impliquent pas d’étapes de programmation.

Mais ce n’est pas tout. Moonshot AI, loin des élucubrations actuelles sur les gigadatacenters pour l’entraînement de l’IA, qui consommeraient l’équivalent de la production d’une tranche complète de centrale nucléaire (la France en possède 56), annonce un coût d’entraînement record de 4,6 millions de dollars, contre des sommes des dizaines de fois plus importantes chez ses concurrents américains. Ce chiffre ne concerne que la puissance de calcul nécessaire pour entraîner le modèle, pas les salaires des ingénieurs, ni la collecte de données ou les autres frais de développement.

Cette prouesse est obtenue grâce à une astuce intelligente : Kimi K2 Thinking est entrainé à partir de son petit frère Kimi K2 (Instruct – modèle sans raisonnement) avec une précision ultra-réduite (QAT 4 bits), ce qui divise, sans perte notable de qualité, jusqu’à quatre fois la mémoire et les calculs requis. De plus, il n’active à chaque utilisation que quelques experts de 32 de ses 1 000 milliards de paramètres (architecture dite Mixture of Experts (MoE)). C’est le premier modèle de raisonnement à utiliser le QAT et le MoE, ce qui le place aussi premier à offrir un coût d’inférence aussi compétitif avec un usage plus rapide.

Puisqu’il est gratuit, combien cela vous coûterait-il de faire tourner cet ingénieur maison 24/7 ? Le ticket d’entrée, qui ne cesse de baisser, est d’environ 200 000 euros pour le serveur capable de s’y mettre. La compétition avec l’humain se rapproche.

L’article Kimi K2 Thinking, l’IA qui pense et qui agit est apparu en premier sur Les Électrons Libres.

  •  
❌