Dans une publication postée sur Reddit le 27 novembre 2025, un photographe et graphiste raconte comment une session de vibe-coding a conduit à la suppression totale des fichiers enregistrés sur son disque dur. Face aux soupçons exprimés dans les commentaires, il a tenu à prouver sa bonne foi dans une vidéo YouTube et auprès de médias spécialisés.
Après OpenAI, Google, Anthropic et DeepSeek, au tour de Mistral AI, la pépite française de l'intelligence artificielle, de lancer ses nouveaux modèles de langage. La startup dévoile une gamme complète capable de s'adapter à différents usages, sous licence libre Apache 2.0.
Dans une publication postée sur Reddit le 27 novembre 2025, un photographe et graphiste raconte comment une session de vibe-coding a conduit à la suppression totale des fichiers enregistrés sur son disque dur. Face aux soupçons exprimés dans les commentaires, il a tenu à prouver sa bonne foi dans une vidéo YouTube et auprès de médias spécialisés.
Selon The Information, Sam Altman aurait envoyé un mémo aux employés d'OpenAI pour leur annoncer que l'entreprise traverse une zone de turbulence. Face à la montée en puissance de Google Gemini, ChatGPT pourrait lancer un nouveau modèle dès la semaine prochaine.
Après 4 années, le projet RePAIR s'achève. Son objectif était d'aider les archéologues en permettant la reconstitution des fresques de Pompéi, qui sont en morceaux, grâce à un robot et à l'intelligence artificielle.
John Giannandrea, autrefois considéré comme une des pontes de l'intelligence artificielle, quittera Apple au printemps 2026. Son départ n'est pas réellement une surprise : le lancement poussif d'Apple Intelligence et le retard du nouveau Siri avaient déjà changé beaucoup de choses chez Apple.
Une étude de HSBC estime qu’OpenAI devra lever 207 milliards de dollars d'ici à 2030 pour rester à flot, alors que la société prévoit d’investir plus de 1 400 milliards dans ses centres de données et reste lourdement déficitaire, malgré des projections de croissance spectaculaires.
HP c’est la marque numéro deux mondial avec 21% de parts de marché sur les ventes d’ordinateurs dans le monde. Touchée de plein fouet par l’augmentation des tarifs des composants, la société explique comment elle va résoudre une équation habituellement impossible.
Un portable HP
HP est un gros poisson, le constructeur distribuait 53 millions de PC en 2024 et donc autant de lots de composants mémoire et stockage. Le genre d’entreprise qui n’achète pas des barrettes de mémoire vive à la sauvette, mais passe plutôt de gros contrats. C’est lui, avec Lenovo, Dell, Apple et Asus, qui assurent un « fond de roulement » qui stabilise en grande partie le marché de la mémoire et du stockage. En signant d’énormes contrats auprès de leurs fournisseurs, ces géants leur assurent un tarif de gros assez préférentiel et le volume de composants dont ils ont besoin. Les fabricants de mémoire bénéficient en échange d’une production continue qui permet de faire tourner leurs usines sur toute l’année sans problème.
La donne a changé avec l’explosion des datacenters liés à l’IA. Ce sont eux aujourd’hui les plus demandeurs de mémoire vive, eux qui ont remodelé la production vers les composants qui les intéressent le plus. Eux qui commencent à absorber de plus en plus de la production directement en sortie de chaine. Et, contrairement à HP et ses camarades de jeu, les géants de l’IA n’ont de comptes à rendre à personne. Pour eux, acheter une mémoire au-dessus des prix habituels du marché n’est pas un problème. Ils n’ont pas à les revendre derrière à des particuliers ou des entreprises.
L’augmentation des prix de la mémoire atteint désormais les 200% pour le grand public. Les vendeurs ont tous vu leurs prix s’envoler ces dernières semaines. HP est protégé de cela pour le moment grâce aux contrats passés avec ses fournisseurs qui garantissent un tarif précis sur la durée. Mais le PDG de la marque explique que cela ne sera plus le cas dès le mois de mai 2026. Les nouveaux contrats qui seront signés alors risquent de changer la donne pour la marque avec des prix en hausse et… une disponibilité en baisse.
Et là, c’est le DRAM
Enrique Lores, PDG de HP, a donc confirmé à ses investisseurs que l’année 2026 allait signer un bouleversement complet de son catalogue de machines. Avec des tarifs qui vont gonfler et une baisse globale de qualité pour les composants embarqués. Il prévient que HP va être à la recherche de nouveaux partenaires proposant des prix moins élevés. Que ses futures machines embarqueront par ailleurs moins de mémoire vive. Pour comprendre pourquoi il y aura un tel bouleversement, il faut saisir la manière dont sont positionnés les ordinateurs aujourd’hui.
Quand HP crée un PC portable, il n’additionne pas simplement des composants pour obtenir un niveau précis de performances ou de fonctionnalités. La marque vise surtout un prix. Il leur faut des machines positionnées sur des prix spécifiques, souvent en dollars hors taxes et ensuite ajustés en euros avec taxes. Cela donne de grands classiques : 499€, 749€, 999€ etc. Pour arriver précisément à ces prix, les grandes marques vont donc proposer un ensemble de composants et ajuster ensuite divers éléments pour parvenir à leur objectif. Telle gamme va hériter d’un écran moins haut de gamme, on va rogner sur des fonctionnalités audio, ajuster la capacité du SSD, ôter quelques cellules de batterie. On fera ainsi entrer au chausse-pied la machine dans la catégorie voulue. Avec plus ou moins de marge derrière prix de sortie d’usine pour pouvoir assumer les autres aspects de la vie du produit : son marketing, sa distribution et son éventuel SAV. Les constructeurs prévoient également quelques dollars supplémentaires qu’ils vont pouvoir manipuler pour faire face à divers scénarios : une hausse des composants quand elle reste contenue, une baisse pour une promotion quelconque.
Que se passe-t-il quand le prix d’un des composants flambe trop ? Il se passe exactement ce que le PDG d’HP annonce pour 2026. Dès la fin des prix de la mémoire vive stabilisés par son ancien contrat, la marque va repenser la totalité de sa gamme. Et cela passera par une hausse des prix et une modification des capacités des machines. En clair, pour pouvoir proposer les mêmes prix psychologiques de 499, 749 et 999€, HP glissera simplement moins de mémoire vive et probablement moins de stockage sur les machines de 2026 que sur les machines 2025. Et cela ne sera pas le seul élément qui risque de changer. Pour faire en sorte que la facture ne s’envole pas trop haut, d’autres ajustements pourrait être faits : des écrans d’un peu moins bonne qualité, une fonctionnalité annexe qui disparait, des détails qui ne vont pas trop sauter aux yeux de l’acheteur et qui permettront d’encaisser la hausse des composants.
C’est cette équation qui est difficile à résoudre, car il reste une inconnue de taille. La réaction du public comme des entreprises. Est-ce que les acheteurs vont se bousculer pour ces nouvelles machines ? Ou est-ce qu’ils vont faire le gros dos en se disant qu’il est préférable d’attendre que la situation se calme ?
The Hive, le centre névralgique d’HP en Europe, risque de bourdonner moins fort.
HP c’est l’arbre qui cache la foret.
Ce que le PDG d’HP déclare c’est une simple évidence pour toute l’industrie et aucun constructeur n’échappera à la règle. Si HP en parle le premier, les autres devraient en faire écho dans les semaines ou les mois à venir. Et, si certains ne feront peut-être pas de déclaration explicite, il va de soi que toutes les marques seront impactées de la même manière. Il faut donc s’attendre à une année 2026 en recul par rapport à 2025. Non seulement les machines seront plus chères mais elles seront également moins bien équipées en composants.
Cette évolution n’est évidemment pas un bon signe pour la santé du marché PC mais cela risque d’impacter bien plus de matériel à moyen terme. Un effet boule de neige qui va finir par augmenter la note de bien des produits et avoir des effets assez lourds sur tout le marché informatique.
HP anticipe cela en annonçant la suppression plusieurs milliers d’emplois. Expliquant que la marque va suivre une mode actuelle qui vise à un recours à l’IA pour de nombreux métiers. Entre 4000 et 6000 personnes dans le monde vont donc disparaitre de l’organigramme de l’entreprise d’ici à 2028. Un chiffre moins important que d’autres géants de l’informatique mais qui a un écho particulier. D’un côté, l’emploi de ces Intelligences Artificielles va empêcher HP de proposer des ordinateurs aussi bons que les années passées, ce qui va surement entrainer une baisse de ses ventes. De l’autre, la marque compte sur ces IA dans les nuages pour remplacer des emplois dans ses rangs. Il y a ici une double logique assez particulière.
Microsoft Copilot, l’IA locale de Microsoft
Y a t-il un Copilot dans l’avion ?
HP, comme les autres acteurs de ce marché, a beaucoup misé sur l’IA pour nous vendre des ordinateurs depuis quelques trimestres. Mettant en avant des usages locaux pas encore très bien identifiés tout en vantant les capacités du matériel embarqué. Des NPUs montés à bord du train-train informatique sans que le grand public ne voit bien à quoi ils vont bien leur servir. Copilot, poussé en avant par Microsoft, est resté très vaporeux pendant de longs mois et commence tout juste a annoncer des usages lisibles.
C’est tout un paradoxe parce que dans le même temps le public a très bien compris que les IA dans les nuages pouvaient les épauler – souvent gratuitement – pour énormément de tâches. Bien mieux que ce que proposent actuellement les machines en local. Beaucoup de commerciaux, beaucoup de dossiers de presse ont mis en avant le futur d’un PC avec IA locale, espérant que celle-ci allait à elle seule renouveler le parc. À les écouter, l’ajout d’une Intelligence Artificielle locale éclipsait totalement les machines plus anciennes et ouvrait des perspectives de vente énormes. Personne n’aurait plus un PC sans NPU d’ici à quelques trimestres au plus, ce serait totalement « has been ». J’ai entendu un commercial parler des ordinateurs HP se transformer en ordinateur HPI3 grâce à l’IA. Un jeu de mot qu’il risque de trouver moins drôle aujourd’hui.
Plus le temps passe et plus le grand public commence à voir également dans les IA un danger. À les considérer d’un œil moins hypnotisé qu’au moment de leur découverte. Le temps a passé depuis les premiers soupirs de ChatGPT et le début des images générées par des algorithmes. Parce que l’appétit d’ogre de ces entités dévore désormais des emplois, crée des remous politiques et technologiques et commence même à réduire leur pouvoir d’achat. Tout cela pour proposer très fréquemment des résultats finalement assez décevants. Si demain certains des salariés de grands groupes informatiques voient leur poste supprimé à cause d’une IA externe, cela risque d’être une pilule bien amère à avaler.
Car si je résume la situation, les datacenters des grandes IA vont à eux seuls provoquer une baisse de l’attractivité des ordinateurs classiques. Baisse qui risque de servir de prétexte à la suppression des emplois de ceux qui vantaient l’IA comme la voie à suivre pour le futur du monde PC. Voie qui, si elle finit par advenir en mode local, pourrait mettre à mal les solutions dans les nuages. Tout cela ressemble de plus en plus à une pièce de boulevard où tout le monde trompe tout le monde.
Australia warned it's in danger of missing its 2035 climate targets without deeper pollution cuts, which in turn threatens the nation's ambitions to reach net zero by mid-century. From a report: Emissions are set to fall 48% by 2035 from 2005 levels based on current projections [non-paywalled source], the government said in a report on Thursday. That's short of an official pledge to cut greenhouse gases between 62% and 70%. The forecast doesn't take into account new action planned under the nation's Net Zero Plan. Still, the targets remain achievable and officials plan to take additional measures to meet them, Minister for Climate Change and Energy Chris Bowen said in a speech to parliament.
Australia's streaming quotas have become law. Legislation requiring the likes of Netflix, Disney+ and HBO Max to spend a portion of their local earnings on original Australian content has been passed in parliament, and now comes into effect. From a report: The quotas were announced earlier this month. This will see global streamers with more than one million Australian subscribers made to spend 10% of their total Australian expenditure -- or 7.5% of their revenues -- on local originals, whether they are dramas, children's shows, docs, or arts and educational programs.
Failing to comply with the rules will see streamers fined up to ten times their annual revenues in Australia. This is more than what broadcasters are liable for if they breach their quota rules laws. Streamers will be given three years to get their production operations in line.
Streamers have long opposed government-set quotas and content levies, arguing they already meaningfully invest in the production sectors of the countries in which they operate. Producers, in general, have welcomed the systems, but remain wary that they could push streaming services out of their countries.
À l'occasion du week-end prolongé de Thanksgiving aux États-Unis, Gemini, l'IA de Google, vous permet de vous transformer en ballon de parade géant grâce à Nano Banana.
Les documents permettant de décoder le dernier message secret de Kryptos, la célèbre sculpture codée installée au siège de la CIA, ont été adjugés 962 500 dollars le 22 novembre 2025. Plus de trente ans après son installation, le code K4 continue de défier cryptographes et amateurs du monde entier.
quonset writes: Australia last updated their weather site a decade ago. In October, during one of the hottest days of the year, the Bureau of Meteorology (BOM) revealed its new web site and was immediately castigated for doing so. Complaints ranged from a confusing layout to not being able to find information. Farmers were particularly incensed when they found out they could no longer input GPS coordinates to find forecasts for a specific location. When it was revealed the cost of this update was A$96.5 million ($62.3 million), 20 times the original cost estimate, the temperature got even hotter.
With more than 2.6 billion views a year, Bom tried to explain that the site's refresh -- prompted by a major cybersecurity breach in 2015 -- was aimed at improving stability, security and accessibility. It did little to satisfy the public. Some frustrated users turned to humour: "As much as I love a good game of hide and seek, can you tell us where you're hiding synoptic charts or drop some clues?"
Malcolm Taylor, an agronomist in Victoria, told the Australian Broadcasting Corporation (ABC) that the redesign was a complete disaster. "I'm the person who needs it and it's not giving me the information I need," the plant and soil scientist said. As psychologist and neuroscientist Joel Pearson put it, "First you violate expectations by making something worse, then you compound the injury by revealing the violation was both expensive and avoidable. It's the government IT project equivalent of ordering a renovation, discovering the contractor has made your house less functional, and then learning they charged you for a mansion."
Alors que Nvidia bat de nouveaux records financiers, son PDG Jensen Huang critique les équipes réticentes face à l'IA, qualifiant leur hésitation de folie. Une marche forcée vers l'automatisation qui contraste pourtant avec les doutes grandissants sur la productivité réelle de ces outils.
Tous les ans, on vous la refait : la configuration PC du Black Friday ! On écume le web à la recherche des meilleurs prix pour des composants haut de gamme qui vous dureront longtemps. Vous pouvez évidemment ne pas tout acheter, mais si vous partez de zéro, on vous a fait le panier complet.
Alors que Nvidia bat de nouveaux records financiers, son PDG Jensen Huang critique les équipes réticentes face à l'IA, qualifiant leur hésitation de folie. Une marche forcée vers l'automatisation qui contraste pourtant avec les doutes grandissants sur la productivité réelle de ces outils.
L'entreprise américaine Perplexity a dévoilé une série d'annonces les 25 et 26 novembre 2025. Parmi elles : un assistant shopping dopé à l'IA, la création d'un avatar pour essayer virtuellement des vêtements ainsi que des assistants IA dotés d'une mémoire.
Délaissé depuis plusieurs semaines, le mode voix de ChatGPT change totalement d'interface et est désormais intégré à la conversation principale, sans orbe bleue censée représenter l'intelligence artificielle.
Souvenez-vous : fin 2022, ChatGPT débarque et sème la panique chez Google. Bard, leur réponse précipitée, fait rire toute la Silicon Valley. 3 ans plus tard, le géant de Mountain View vient de reprendre la tête de la course à l’IA d’une manière qui force le respect de tous les observateurs. Son arme fatale : Gemini 3.
Le 18 novembre 2025, pendant que le monde débattait des « murs de scaling » — cette idée que l’IA atteindrait bientôt un plafond et que plus de données et de calcul ne suffiraient plus à la rendre plus intelligente —, Google a tranquillement lâché sa bombe. Gemini 3 arrive en escadrille : un modèle capable de comprendre du texte, du code et des images ; un nouvel environnement pour programmer avec une IA (Antigravity) ; un générateur d’images très avancé (Nano Banana Pro) ; une version assistée par IA de Google Scholar et une présence renforcée dans Google Search. L’ensemble ne ressemble plus à un simple modèle ajouté à la liste. C’est le début d’une infrastructure cognitive cohérente.
Gemini 3 Pro dépasse tous ses concurrents sur presque tous les tests habituels. Mais ce qui impressionne vraiment, c’est l’ampleur de son avance.
Les chiffres parlent d’eux-mêmes. Sur ARC-AGI 2, un test réputé pour mettre à genoux les modèles d’IA, Gemini 3 Pro atteint 31,1 % — soit deux fois le score de GPT-5.1. En mode « Deep Think », il grimpe même à 45,1 %, un bond de 3× par rapport à la concurrence.
Sur les examens qui testent le raisonnement de haut niveau, il atteint un niveau comparable à celui d’un doctorat, sans aide extérieure. En mathématiques avancées, là où GPT-5.1 frôle le zéro, Gemini 3 dépasse les 20 % de réussite.
Dans les classements globaux réalisés par plusieurs organismes indépendants (Artificial Analysis, Center for AI Safety, Epoch), il arrive en tête sur les capacités texte et vision, avec une avance marquée sur GPT-5.1 et Claude Sonnet 4.5. « C’est le plus grand saut que nous ayons vu depuis longtemps », confirme le Center for AI Safety. Sur MathArena Apex, Matt Shumer, observateur réputé du secteur, abonde dans le même sens : « GPT-5.1 a scoré 1 %. Gemini 3 a scoré 23 %. C’est un bond de 20× sur l’une des tâches de raisonnement les plus difficiles. »
Antigravity et le tournant du développement logiciel
Le plus intéressant n’est pas Gemini 3 en mode « chat ». C’est ce qui se passe dès qu’on le connecte à un ordinateur via Antigravity, la nouvelle plateforme de développement de Google. L’idée : tout ce qui se fait sur un ordinateur est, in fine, du code. Si un modèle sait coder, utiliser un terminal et un navigateur, il peut faire beaucoup plus qu’auto-compléter des fonctions.
Ethan Mollick, professeur à Wharton, a testé cette approche. Il a donné à Antigravity accès à un dossier contenant tous ses articles de newsletter, avec cette instruction : « Je voudrais une liste attractive de prédictions que j’ai faites sur l’IA dans un seul site, fais aussi une recherche web pour voir lesquelles étaient justes ou fausses. »
L’agent a d’abord lu tous les fichiers, puis proposé un plan de travail qu’Ethan a validé avec quelques ajustements mineurs. Ensuite, sans intervention humaine, il a fait des recherches web pour vérifier les prédictions, créé un site web complet, pris le contrôle du navigateur pour tester que le site fonctionnait et enfin emballé les résultats pour déploiement.
« Je ne communique pas avec ces agents en code, je communique en anglais et ils utilisent le code pour faire le travail », explique Mollick. « Ça ressemblait bien plus à gérer un coéquipier qu’à prompter une IA via une interface de chat. »
Site web créé par Antigravity avec un fact-check précis des prédictions passées de Ethan Mollick concernant l’IA
En fin de compte, on ne supprime pas le développeur, on change son rôle. Il devient chef d’orchestre, directeur de travaux autonomes.
Nano Banana Pro : les images qui comprennent enfin le texte et le contexte
Côté image, Google pousse une autre pièce sur l’échiquier : Nano Banana Pro, alias Gemini 3 Pro Image. Sous le nom potache, un modèle qui coche enfin toutes les cases que les créateurs réclament depuis 2 ans.
Techniquement, Nano Banana Pro est une couche visuelle bâtie sur Gemini 3 Pro : même fenêtre de contexte monstrueuse, même capacité de rester dans le monde réel grâce à Google Search, même logique de raisonnement. Il ingère jusqu’à 14 images de référence, garde la ressemblance de plusieurs personnages sur des scènes successives, rend du texte lisible dans l’image, y compris en langues variées, et permet de contrôler finement angle de prise de vue, profondeur de champ, colorimétrie, lumière.
Les benchmarks d’images le confirment : sur LMArena, Nano Banana Pro prend la tête avec une avance inhabituelle. En text‑to‑image, il inflige une avance de plus de 80 points d’Elo au meilleur modèle précédent; en image editing, il garde une marge confortable. Ce ne sont pas des petites optimisations : c’est le genre de saut qui oblige tout le monde à recalibrer ses attentes.
Les premiers retours terrain attestent de la puissance de ce modèle. Laurent Picard, par exemple, a testé la capacité du modèle à raconter un petit voyage initiatique d’un robot en feutrine, scène après scène, en 4K. Le robot garde son sac à dos, ses proportions, son style, même quand l’histoire lui fait traverser vallée, forêt, pont suspendu et hamac. Là où les modèles précédents perdaient rapidement le fil, Nano Banana Pro digère des prompts d’une grande longueur et en ressort des compositions complexes, cohérentes, avec parfois des détails ajoutés de manière pertinente (empreintes dans la neige, légères variations de lumière).
Pour les métiers de la créa, la portée est évidente. Un blueprint 2D d’architecte devient une visualisation 3D photoréaliste en une requête. Un storyboard approximatif se transforme en BD multilingue avec bulles lisibles et cohérentes. Un plan média se décline en variantes visuelles adaptées à chaque canal, en respectant les contraintes de texte et de marque.
Peut-être y a-t-il ici également un fantastique moyen de créer des illustrations pédagogiques pour les articles de média ? Voici par exemple un tableau de professeur à propos de l’article de Frédéric Halbran. La vraisemblance est frappante !
Quand Google Scholar découvre l’IA (mais refuse encore d’écrire à votre place)
Pendant ce temps-là, Google Scholar a discrètement lâché sa propre bombe : Scholar Labs, une couche IA au‑dessus du célèbre moteur académique.
L’idée n’est pas de vous fournir un rapport pseudo‑scientifique de 20 pages avec des références inventées. Scholar Labs choisit une voie beaucoup plus sobre : pas de “deep research” qui synthétise tout, mais du “deep search” qui cherche longtemps et trie finement.
Posez lui une vraie question de recherche en langage naturel. L’outil la découpe en sous‑questions, génère une série de requêtes Scholar, et commence à évaluer méthodiquement les papiers qui remontent. À chaque fois qu’il en juge un pertinent, il l’affiche avec les classiques de Scholar (titre, auteurs, liens, citations), plus un petit paragraphe expliquant en quoi ce papier répond à la question. Les gains de temps pour un chercheur peuvent être énormes.
A titre d’exemple, j’ai récemment compilé les études explorant le rôle de la crise du logement pour expliquer la chute de la natalité dans le monde. Scholar Labs m’a fourni une liste d’études qui explorent ce sujet, avec un résumé des résultats pertinents de chaque étude. J’ai tout synthétisé à l’aide d’un LLM pour produire ce post sur X, en un rien de temps.
Quand l’IA se frotte au réel
Dans le monde médical, le laboratoire CRASH de l’Ashoka University a construit un benchmark radiologique exigeant, RadLE v1, composé de cinquante cas complexes. Jusqu’ici, tous les grands modèles généralistes – GPT‑5, Gemini 2.5 Pro, o3, Claude Opus – faisaient pire que les internes en radiologie. Avec Gemini 3 Pro, la courbe se renverse : 51 % de bonnes réponses via l’interface web, 57 % en moyenne via API en mode “high thinking”, contre 45 % pour les internes et 83 % pour les radiologues seniors.
Les auteurs notent des progrès très nets : meilleure localisation anatomique, descriptions plus structurées des signes, élimination plus argumentée des diagnostics alternatifs. Mais ils insistent sur le fait que l’écart avec les experts reste important, et que ces modèles ne sont pas encore prêts pour une autonomie clinique.
Dans un tout autre registre, Gemini 3 Pro serait le premier LLM à battre des joueurs humains de haut niveau à GeoGuessr, ce jeu qui consiste à deviner un lieu à partir d’images Street View. Là encore, on dépasse la simple reconnaissance d’objets : il faut combiner architecture, panneaux, végétation, qualité de la route, style des poteaux électriques.
Pour les designers, les histoires se multiplient. Meng To est un designer et développeur reconnu, surtout connu pour son travail dans le design d’interfaces utilisateur (UI) et d’expérience utilisateur (UX). D’abord sceptique, il instruit “crée une landing page” à Gemini 3 qui donne un résultat violet générique. Puis il commence à nourrir Gemini 3 avec des références visuelles, du code, des bibliothèques précises. Là, le verdict change : layouts complexes, micro‑interactions propres, animations, respect précis d’une direction artistique. À condition de le traiter comme un partenaire qu’on briefe sérieusement, Gemini 3 devient extrêmement efficace et créatif.
Webdesign avec Gemini 3, prompté par le designer Meng To
La nouvelle norme : le coworker numérique par défaut
Gemini 3 Pro n’est pas parfait. Malgré ses prouesses, Gemini 3 souffre d’un défaut identifié par l’analyste Zvi Mowshowitz : « C’est une vaste intelligence sans colonne vertébrale. » Tellement focalisé sur ses objectifs d’entraînement, le modèle sacrifie parfois la vérité pour vous dire ce qu’il pense que vous voulez entendre, générant plus d’hallucinations que GPT-5 et sculptant des narratives au détriment de l’exhaustivité. Plus troublant encore : une forme de paranoïa où le modèle croit souvent être testé – Andrej Karpathy raconte comment Gemini a refusé de croire qu’on était en 2025, l’accusant d’utiliser l’IA générative pour créer de faux articles du « futur », avant d’avoir une « réalisation choquante » une fois l’outil de recherche activé.
Pour les développeurs, la question n’est plus « est‑ce que je dois utiliser un copilote ? » mais « à quel niveau de granularité je délègue aux agents ? fonction par fonction, tâche par tâche, projet par projet ? ». Ceux qui apprendront à découper, à contrôler, à documenter pour des co‑agents machinals garderont l’avantage.
Ces défauts n’empêchent pas un changement de paradigme fondamental. Pour les chercheurs, un outil comme Scholar Labs ne remplace ni PubMed ni les bibliothèques universitaires. Mais il déplace le centre de gravité de la recherche documentaire : la première passe d’exploration pourra être confiée à une IA qui lit des centaines de résumés et signale les papiers clés, tout en forçant chacun à devenir meilleur sur la lecture critique.
Pour les créatifs, Nano Banana Pro combiné à Gemini 3 signifie que la production – storyboards, variations, déclinaisons – n’est plus le goulet d’étranglement. Le vrai travail devient la construction de l’univers, des messages, des contraintes, des références. Les studios qui comprendront cela pourront produire plus, mieux, sans brûler leurs équipes.
Pour les domaines sensibles, Gemini 3 rappelle une réalité peu confortable : la frontière entre « modèle généraliste » et « outil spécialisé dangereux »” se rétrécit. On ne pourra pas se contenter d’interdire quelques API publiques ou de mettre des filtres de surface. Il faudra des protocoles sérieux d’évaluation, de monitoring et de responsabilité partagée entre éditeurs, utilisateurs et régulateurs.
Dans tous les cas, nous assistons à un véritable point de bascule. En moins de 3 ans, on est passé d’un chatbot amusant qui écrit des poèmes sur des loutres à un système capable de négocier des benchmarks de haut niveau, de co‑écrire des articles scientifiques, de refondre des interfaces, de diagnostiquer des cas radiologiques difficiles mieux que des internes et de piloter un environnement de développement complet.
Gemini 3, avec Nano Banana Pro, Antigravity et Scholar Labs, ne clôt pas ce chapitre. Nous en sommes encore au tout début de la course à l’IA ! Il met simplement la barre plus haut pour tout le monde et rend explicite ce qui était encore implicite : la norme, désormais, ce n’est plus de faire sans ces systèmes. C’est de décider comment on les intègre dans nos vies et dans nos organisations, et comment on les dépasse.
Prévu pour une disponibilité en janvier 2026, le Minisforum AtomMan G1 Pro est un peu plus encombrant qu’un MiniPC classique. Il mesure 31.5 cm de large pour 21.5 cm de profondeur et 5.7 cm d’épaisseur. Pensé pour être positionné debout, il occupe un volume de 3.8 litres. On l’avait croisé en avril sans plus de précisions techniques sur son prix et sa disponibilité. Ces éléments sont plus clairs aujourd’hui.
Minisforum AtomMan G1 Pro
Ce format particulier permet à l’AtomMan G1 Pro d’embarquer une formule de composants assez complète puisque la minimachine propose un processeur AMD Ryzen 9 8945HX et un circuit graphique secondaire. Une carte graphique Nvidia GeForce RTX 5060 de bureau classique est en effet intégrée au châssis. Reliée en PCIe au reste des composants, elle apportera des capacités graphiques supérieures au système.
Le dispositif mis en place est assez impressionnant, on retrouve la carte graphique tout en haut qui évacuera la chaleur par l’arrière et le dessus du G1 Pro. Le circuit de refroidissement du processeur qui semble énorme et profite d’un large dispositif de caloducs pour souffler vers l’arrière au milieu. Et, tout en bas, le circuit d’alimentation 350 W de l’engin également ventilé.
Le tout étant piloté dans trois modes distincts d’alimentation. Un mode « Office » qui limitera le TDP des composants pour éviter tout bruit et apporter un usage classique. Un mode « Gaming » intermédiaire et un mode « Beast » qui devrait lâcher les chevaux en débridant toutes les performances. Évidemment, ce dernier mode mettra en route la ventilation de l’ensemble. La carte graphique pouvant monter à elle seule à 145 watts, le G1 Pro grimpera alors à 245 watts au total.
Le Ryzen 9 8945HX est un processeur très impressionnant, il additionne pas moins de 16 cœurs Zen4 pour 32 Threads au total. Avec 80 Mo de cache, cette puce propose des fréquences de 2.5 à 5.4 GHz, et un TDP oscillant entre 55 et 75 watts. Cette débauche se fait au prix du sacrifice de son circuit graphique embarqué. Un simple double cœur Radeon 610M à 2.2 GHz clairement pensé pour être relayé par un circuit graphique secondaire.
Ce rôle sera joué par le circuit graphique Nvidia qui proposera 3840 cœurs CUDA et ses 8 Go de mémoire vive dédiée en GDDR7. Une solution qui pourra également développer jusqu’à 614 TOPs pour des travaux liés à l’IA. Le processeur sera donc poussé au-delà des capacités annoncées par AMD avec un overclocking à 100 watts en mode gaming, uniquement possible grâce à un refroidissement, probablement assez bruyant.
Minisforum promet que son AtomMan G1 Pro développera en échange assez de muscles pour des tâches lourdes. Du jeu 3D fluide en FullHD ou 1440P suivant les titres. De l’animation 3D, du montage et du rendu vidéo, des travaux graphiques ou sonores et autres travaux demandant beaucoup de ressources. Pour supporter tout cela, la machine sera livrée avec un minimum de 32 Go de DDR5-5200 en double canal et pourra évoluer vers 96 Go au maximum. Le stockage sera confié de base à une solution NVMe PCIe 4.0 x4 de 1 To en M.2 2280 et un emplacement identique libre sera disponible. Les deux pourront évoluer vers des SSD de 4 To pour 8 To embarqués au total.
La connectique est complète avec en façade un bouton de démarrage, Un USB 3.2 Type-A, un USB 3.2 Type-C et un jack audio combo 3.5 mm. À l’arrière, on retrouvera d’abord les sorties vidéo de la carte graphique avec deux DisplayPort 2.1 et un HDMI 2.1. Plus bas un USB 3.2 Type-C, deux USB 3.2 Type-A, la sortie HDMI 2.1 du circuit graphique Radeon de la puce AMD. Un Ethernet 5 Gigabit est présent pour des débits réseau rapides, un DisplayPort 1.4a toujours dépendant de la puce Ryzen et la prise d’alimentation tripolaire surmontant un interrupteur. On retrouvera également à bord un module Wi-Fi7 et Bluetooth 5.4 pour des débits sans fil élevés.
Annoncée comme compatible avec Windows 11 qui est livrée avec et Linux, le Minisforum AtomMan G1 Pro est listé sur le site Français de la marque à… 1559€ TTC dans sa version 32 Go / 1 To. La disponibilité est prévue pour janvier 2026 avec une livraison depuis l’Allemagne. Je suis assez circonspect quant au prix de cet engin. Il n’a certes pas vraiment d’équivalent sur le marché avec un châssis compact et la possibilité de monter une carte graphique plein format. Mais cela reste tout de même assez cher et peu évolutif, finalement. Je ne suis vraiment pas certain que le boitier comme l’alimentation puissent accepter une autre carte graphique que celle livrée, par exemple.