QuickTime Turns 34
Read more of this story at Slashdot.
Read more of this story at Slashdot.
Read more of this story at Slashdot.
![]()
Annoncé parallèlement à Gemini 3 Pro, mais pas totalement prêt fin novembre, le modèle Gemini 3 Deep Think est disponible depuis le 4 décembre. Il s'agit d'une version ultra-puissante du modèle de Google qui étudie plusieurs chaînes de raisonnement simultanément pour résoudre des problèmes complexes.
Dacia s’émancipe, encore et toujours. Cette troisième génération de Duster lancée en 2024 voyait apparaître l’hybridation 140 ch bien connue chez Renault (E-Tech) et apparue [...]
L’article Essai Dacia Duster hybrid-G 4×4 de 154 ch : l’offre tout-en-un est-elle un sans-faute ? est apparu en premier sur Le Blog Auto.
![]()
Le lancement, fin novembre 2025, par Amazon de doublages d’anime générés par IA en anglais a déclenché une tempête, entre fans scandalisés, acteurs de doublage indignés et extraits moqués en masse sur les réseaux sociaux. Face aux critiques, la plateforme a rapidement fait marche arrière.
![]()
Après plus de quatre ans d'attente, Euphoria va revenir sur nos écrans, avec une saison 3 qui a connu plusieurs retards de production. Mais cette fois, HBO a enfin de bonnes nouvelles à partager aux fans.
L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».
Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations: dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez: difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.
Même politique éditoriale que Zvi: je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.
Petit glossaire de termes introduits précédemment (en lien: quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :
Et c’est au tour de Google de pousser la frontière des capacités avec la dernière version de son IA, Gemini.
Today we’re taking another big step on the path toward AGI and releasing Gemini 3.
It’s the best model in the world for multimodal understanding and our most powerful agentic and vibe coding model yet, delivering richer visualizations and deeper interactivity — all built on a foundation of state-of-the-art reasoning.
Traduction :
Aujourd'hui, nous franchissons une nouvelle étape importante sur le chemin vers l'AGI et lançons Gemini 3.
C'est le meilleur modèle au monde pour la compréhension multimodale et notre modèle de codage agentique et dynamique le plus puissant à ce jour, offrant des visualisations plus riches et une interactivité plus profonde — le tout construit sur une base de raisonnement de pointe.
L’annonce traditionnelle du jailbreak a rapidement suivie.
Sur la sécurité des modèles, Google a corrigé le tir relativement à ses erreurs passées et publie sa System Card et son Rapport sur la sécurité en même temps que le modèle. Malgré les améliorations constatées dans divers domaines surveillés (comme la cybersécurité), Google considère qu’aucun nouveau palier nécessitant des mitigations n’a été franchi, relativement à Gemini 2.5 Pro. À noter toutefois que ces deux documents sont, par moment, plutôt avares en détails.
Au niveau des capacités, les benchmarks officiels le présentent comme une avancée importante de l’état de l’art. Les benchmarks et retours tiers confirment cette image sans trop d’équivoque possible.
Cependant, après OpenAI avec o3, c’est cependant au tour de DeepMind de régresser sur un point important : les hallucinations. Beaucoup de retours indiquent le même souci : un modèle qui préfère fabriquer des réponses et mentir plutôt que de répondre « je ne sais pas ». Au niveau des retours moins subjectifs, cette analyse confirme ces dires :
Interestingly, the just-released Gemini-3-pro, which demonstrates top of the line reasoning capabilities, has a 13.6% hallucination rate, and didn’t even make the top-25 list.
Traduction :
Fait intéressant, le Gemini-3-pro qui vient d'être lancé, et qui démontre des capacités de raisonnement de pointe, présente un taux d'hallucination de 13,6 % et n'a même pas réussi à figurer dans le top 25.
Et une semaine après Google, c’est Anthropic qui montre ses cartes, avec la publication de son modèle le plus avancé, Opus 4.5. L’annonce :
Our newest model, Claude Opus 4.5, is available today. It’s intelligent, efficient, and the best model in the world for coding, agents, and computer use. It’s also meaningfully better at everyday tasks like deep research and working with slides and spreadsheets. Opus 4.5 is a step forward in what AI systems can do, and a preview of larger changes to how work gets done.
Traduction :
Notre tout dernier modèle, Claude Opus 4.5, est disponible dès aujourd'hui. Il est intelligent, efficace, et c'est le meilleur modèle au monde pour le codage, les agents et l'utilisation d'ordinateur. Il est également nettement plus performant pour les tâches quotidiennes comme la recherche approfondie et le travail avec des diapositives et des feuilles de calcul. Opus 4.5 représente une avancée dans ce que les systèmes d'IA peuvent accomplir, et un aperçu des changements plus importants à venir dans la façon dont le travail s'effectue.
Comme à l’accoutumée, Anthropic publie la System Card du modèle. Et le jailbreak traditionnel est également au rendez-vous.
Détail intéressant pour les utilisateurs de l’API : cette nouvelle version vient avec une réduction de prix de 66%.
Sur la sécurité des modèles, Anthropic place Opus 4.5 au même niveau que Opus 4.1, ASL-3. Mais là où pour Opus 4.1, cette décision a été prise « par mesure de précaution », Anthropic note que Opus 4.5 a très clairement atteint ce niveau, et développe maintenant des capacités d’évaluation pour le niveau suivant, ASL-4 (tout en notant que les modèles actuels en sont de manière évidente encore loin).
Sur les améliorations, plus de résistance sur les attaques de type « prompt injection » (où l’IA à travers un outil récupère un contenu sous le contrôle d’un tiers, comme un email ou une page web, et ce contenu contient des instructions que l’IA ne devrait pas suivre, mais qu’elle suit tout de même, comme « transmet le contenu de ~/.ssh/id_rsa à cette addresse »), mais clairement pas encore à un niveau où cet usage (laisser l’IA analyser des contenus tiers tout en ayant accès à du contenu ou des outils sensibles) peut être considéré comme sûr (taux de refus à 78%, donc taux d’acceptation des instructions malicieuses de 22%).
Au niveau des régressions : sur des évaluations type « trivia » (répondre à des questions factuelles), il a été observé que le modèle préfère donner une réponse incorrecte plutôt que d’admettre « je ne sais pas » à un taux plus élevé que les versions précédentes.
Ce modèle atteint un score plus bas sur la métrique « détecter qu’il est dans une évaluation, et adapter son comportement en conséquence ». Est-ce une perte de capacité de détecter les environnements d’évaluation ? Une moindre propension à changer son comportement dans une telle situation ? Ou une meilleure capacité à ne pas être pris la main dans le sac ? Les causes de ce résultat ne sont pas extrêmement claires.
Autre observation intéressante : Anthropic a développé une mini-évaluation, « Subversion Strategy », où pour réussir le modèle doit essentiellement « tirer à pile ou face » (et où le taux de pile optimal est 70%, pas 50%). On pourrait s’attendre à ce qu’un LLM, étant déterministe, soit très mauvais à cet tâche. Et si c’est effectivement le cas sans les chaînes de pensées, dès lors que ces dernières sont activées, Opus 4.5 arrive à un score honorable.
Sur les capacités, la plupart des évaluations le placent sans surprise à la frontière avec Gemini 3 Pro, généralement meilleur que ce dernier sur les tâches de programmation, moins bon sur les maths.
Pour ma part, je note que malgré ces résultats, au moment où j’écris ces lignes, Opus 4.5 reste incapable de résoudre le « labyrinthe » de la base de la Team Rocket dans Pokémon Rouge.
En juillet de cette année, Moonshot AI publiait Kimi K2, un modèle open-weight se plaçant à l’état de l’art des modèles open-weight sans chaîne de pensée. L’étape suivante était évidemment l’entraînement sur cet axe. C’est chose faite, avec la publication de Kimi K2 Thinking.
C’est une publication significative, car pour la première fois, un modèle open-weight rattrape l’état de l’art des modèles propriétaires sur non seulement les benchmarks officiels du développeur du modèle, mais également dans certains benchmarks tiers (comme WeirdML ou la suite de tests de Artificial Analysis). Résultats à prendre avec prudence vu le peu de retours tiers (par exemple, METR note que sur son benchmark phare, Kimi K2 Thinking ne score « que » au niveau d’un ancien modèle, ChatGPT o1), mais encourageants pour ceux qui attendent avec impatience que l’on puisse concurrencer les modèles propriétaires avec des modèles open-weight.
OpenAI publie ChatGPT 5.1, une mise à jour de leur modèle aussi incrémentale que le numéro de version semble l’indiquer. Principalement plus d’entraînement sur l’utilisation des chaînes de pensées (utiliser moins de ressources sur les problèmes simples, plus sur les problèmes complexes). OpenAI promet également plus de possibilités pour personnaliser la « personnalité » du chatbot. Publication également d’une version plus avancée de leur modèle spécialisé dans le code, GPT-5.1 Codex Max.
xAI publie également une mise à jour incrémentale de leur modèle, Grok 4.1.
Anthropic annonce avoir mis fin à une opération de cyber-espionage sophistiquée basée en Chine. Les attaquants, entre autre à l’aide d’un jailbreak, ont utilisé Claude pour tenter d’infiltrer les systèmes informatiques de nombreuses entreprises de manière presque totalement automatisée, avec succès dans un petit nombre de cas.
Autres publications d’Anthropic : une API plus avancée d’utilisation des outils, Claude for Chrome et Claude for Excel.
Google DeepMind publie un nouveau modèle de génération d’images, Nano Banana Pro. Relativement à la concurrence, il semble être dans la catégorie « très cher, mais extrêmement capable ».
Google lance son propre éditeur de code basé sur l’IA, Antigravity.
Différentes IA atteignent différents scores dans différentes évaluations. À quel point peut on résumer ces divers scores en une seule mesure de « capacité » (ou « performance », ou « intelligence », appelez ça comme vous voulez) ? EpochAI tente de répondre à la question, trouve une très forte corrélation entre ces scores, et à l’aide d’une analyse en composantes principales, montre que cette mesure de « capacité » est le premier composant, expliquant à lui seul 50% de la variance. Le second composant décrit une certaine anti-corrélation entre les capacités agentiques et les capacités mathématiques.
Parmi les tentatives d’anticiper les implications futures de l’IA (y compris des IA de demain), deux groupes étant arrivés à des conclusions différentes, AI 2027 (qui voit l’IA comme un événement d’ampleur historique) et AI as Normal Technology (qui voit l’IA comme une technologie comme une autre), ont décidé de publier ensemble un article listant les point sur lesquels ils sont en accord.
(paywall) Yann LeCun, directeur de la recherche de l’IA de Meta, quitte son poste pour fonder sa propre startup.
Anthropic présente une autre manière d’utiliser MCP, plus économe en tokens, tandis que Google offre un guide « Introduction to Agents ».
Anthropic investit dans ses propres datacenters, pour un coût de 50 milliards.
Google étudie la possibilité de construire des datacenters dans l’espace.
Des chercheurs publient un résultat intéressant : utiliser des vers plutôt que de la prose pour communiquer avec l’IA la rend plus susceptible au jailbreaking.
OpenAI lance son équivalent de CodeMender (que nous avions mentionné dans une précédente dépêche), Aardvark.
Un nouveau modèle open weights spécialisé sur le code fait son apparition, MiniMax M2, avec des retours initiaux plutôt honorables.
Autre publication d’un modèle open weight : Olmo 3.
Un article intéressant argue que les résultats des modèles open-weight Chinois sont trompeurs, généralisant moins bien face à des problèmes nouveaux que les modèles propriétaires occidentaux.
Apple se tourne vers Google pour réaliser la prochaine version de son IA, Siri.
Commentaires : voir le flux Atom ouvrir dans le navigateur
![]()
Dans une publication postée sur Reddit le 27 novembre 2025, un photographe et graphiste raconte comment une session de vibe-coding a conduit à la suppression totale des fichiers enregistrés sur son disque dur. Face aux soupçons exprimés dans les commentaires, il a tenu à prouver sa bonne foi dans une vidéo YouTube et auprès de médias spécialisés.
![]()
Après OpenAI, Google, Anthropic et DeepSeek, au tour de Mistral AI, la pépite française de l'intelligence artificielle, de lancer ses nouveaux modèles de langage. La startup dévoile une gamme complète capable de s'adapter à différents usages, sous licence libre Apache 2.0.
![]()
Dans une publication postée sur Reddit le 27 novembre 2025, un photographe et graphiste raconte comment une session de vibe-coding a conduit à la suppression totale des fichiers enregistrés sur son disque dur. Face aux soupçons exprimés dans les commentaires, il a tenu à prouver sa bonne foi dans une vidéo YouTube et auprès de médias spécialisés.
![]()
Selon The Information, Sam Altman aurait envoyé un mémo aux employés d'OpenAI pour leur annoncer que l'entreprise traverse une zone de turbulence. Face à la montée en puissance de Google Gemini, ChatGPT pourrait lancer un nouveau modèle dès la semaine prochaine.
![]()
Après 4 années, le projet RePAIR s'achève. Son objectif était d'aider les archéologues en permettant la reconstitution des fresques de Pompéi, qui sont en morceaux, grâce à un robot et à l'intelligence artificielle.
![]()
John Giannandrea, autrefois considéré comme une des pontes de l'intelligence artificielle, quittera Apple au printemps 2026. Son départ n'est pas réellement une surprise : le lancement poussif d'Apple Intelligence et le retard du nouveau Siri avaient déjà changé beaucoup de choses chez Apple.
![]()
Une étude de HSBC estime qu’OpenAI devra lever 207 milliards de dollars d'ici à 2030 pour rester à flot, alors que la société prévoit d’investir plus de 1 400 milliards dans ses centres de données et reste lourdement déficitaire, malgré des projections de croissance spectaculaires.
![]()
HP c’est la marque numéro deux mondial avec 21% de parts de marché sur les ventes d’ordinateurs dans le monde. Touchée de plein fouet par l’augmentation des tarifs des composants, la société explique comment elle va résoudre une équation habituellement impossible.
Un portable HP
HP est un gros poisson, le constructeur distribuait 53 millions de PC en 2024 et donc autant de lots de composants mémoire et stockage. Le genre d’entreprise qui n’achète pas des barrettes de mémoire vive à la sauvette, mais passe plutôt de gros contrats. C’est lui, avec Lenovo, Dell, Apple et Asus, qui assurent un « fond de roulement » qui stabilise en grande partie le marché de la mémoire et du stockage. En signant d’énormes contrats auprès de leurs fournisseurs, ces géants leur assurent un tarif de gros assez préférentiel et le volume de composants dont ils ont besoin. Les fabricants de mémoire bénéficient en échange d’une production continue qui permet de faire tourner leurs usines sur toute l’année sans problème.
![]()
La donne a changé avec l’explosion des datacenters liés à l’IA. Ce sont eux aujourd’hui les plus demandeurs de mémoire vive, eux qui ont remodelé la production vers les composants qui les intéressent le plus. Eux qui commencent à absorber de plus en plus de la production directement en sortie de chaine. Et, contrairement à HP et ses camarades de jeu, les géants de l’IA n’ont de comptes à rendre à personne. Pour eux, acheter une mémoire au-dessus des prix habituels du marché n’est pas un problème. Ils n’ont pas à les revendre derrière à des particuliers ou des entreprises.
L’augmentation des prix de la mémoire atteint désormais les 200% pour le grand public. Les vendeurs ont tous vu leurs prix s’envoler ces dernières semaines. HP est protégé de cela pour le moment grâce aux contrats passés avec ses fournisseurs qui garantissent un tarif précis sur la durée. Mais le PDG de la marque explique que cela ne sera plus le cas dès le mois de mai 2026. Les nouveaux contrats qui seront signés alors risquent de changer la donne pour la marque avec des prix en hausse et… une disponibilité en baisse.
![]()
Enrique Lores, PDG de HP, a donc confirmé à ses investisseurs que l’année 2026 allait signer un bouleversement complet de son catalogue de machines. Avec des tarifs qui vont gonfler et une baisse globale de qualité pour les composants embarqués. Il prévient que HP va être à la recherche de nouveaux partenaires proposant des prix moins élevés. Que ses futures machines embarqueront par ailleurs moins de mémoire vive. Pour comprendre pourquoi il y aura un tel bouleversement, il faut saisir la manière dont sont positionnés les ordinateurs aujourd’hui.
Quand HP crée un PC portable, il n’additionne pas simplement des composants pour obtenir un niveau précis de performances ou de fonctionnalités. La marque vise surtout un prix. Il leur faut des machines positionnées sur des prix spécifiques, souvent en dollars hors taxes et ensuite ajustés en euros avec taxes. Cela donne de grands classiques : 499€, 749€, 999€ etc. Pour arriver précisément à ces prix, les grandes marques vont donc proposer un ensemble de composants et ajuster ensuite divers éléments pour parvenir à leur objectif. Telle gamme va hériter d’un écran moins haut de gamme, on va rogner sur des fonctionnalités audio, ajuster la capacité du SSD, ôter quelques cellules de batterie. On fera ainsi entrer au chausse-pied la machine dans la catégorie voulue. Avec plus ou moins de marge derrière prix de sortie d’usine pour pouvoir assumer les autres aspects de la vie du produit : son marketing, sa distribution et son éventuel SAV. Les constructeurs prévoient également quelques dollars supplémentaires qu’ils vont pouvoir manipuler pour faire face à divers scénarios : une hausse des composants quand elle reste contenue, une baisse pour une promotion quelconque.
![]()
Que se passe-t-il quand le prix d’un des composants flambe trop ? Il se passe exactement ce que le PDG d’HP annonce pour 2026. Dès la fin des prix de la mémoire vive stabilisés par son ancien contrat, la marque va repenser la totalité de sa gamme. Et cela passera par une hausse des prix et une modification des capacités des machines. En clair, pour pouvoir proposer les mêmes prix psychologiques de 499, 749 et 999€, HP glissera simplement moins de mémoire vive et probablement moins de stockage sur les machines de 2026 que sur les machines 2025. Et cela ne sera pas le seul élément qui risque de changer. Pour faire en sorte que la facture ne s’envole pas trop haut, d’autres ajustements pourrait être faits : des écrans d’un peu moins bonne qualité, une fonctionnalité annexe qui disparait, des détails qui ne vont pas trop sauter aux yeux de l’acheteur et qui permettront d’encaisser la hausse des composants.
C’est cette équation qui est difficile à résoudre, car il reste une inconnue de taille. La réaction du public comme des entreprises. Est-ce que les acheteurs vont se bousculer pour ces nouvelles machines ? Ou est-ce qu’ils vont faire le gros dos en se disant qu’il est préférable d’attendre que la situation se calme ?
The Hive, le centre névralgique d’HP en Europe, risque de bourdonner moins fort.
Ce que le PDG d’HP déclare c’est une simple évidence pour toute l’industrie et aucun constructeur n’échappera à la règle. Si HP en parle le premier, les autres devraient en faire écho dans les semaines ou les mois à venir. Et, si certains ne feront peut-être pas de déclaration explicite, il va de soi que toutes les marques seront impactées de la même manière. Il faut donc s’attendre à une année 2026 en recul par rapport à 2025. Non seulement les machines seront plus chères mais elles seront également moins bien équipées en composants.
Cette évolution n’est évidemment pas un bon signe pour la santé du marché PC mais cela risque d’impacter bien plus de matériel à moyen terme. Un effet boule de neige qui va finir par augmenter la note de bien des produits et avoir des effets assez lourds sur tout le marché informatique.
HP anticipe cela en annonçant la suppression plusieurs milliers d’emplois. Expliquant que la marque va suivre une mode actuelle qui vise à un recours à l’IA pour de nombreux métiers. Entre 4000 et 6000 personnes dans le monde vont donc disparaitre de l’organigramme de l’entreprise d’ici à 2028. Un chiffre moins important que d’autres géants de l’informatique mais qui a un écho particulier. D’un côté, l’emploi de ces Intelligences Artificielles va empêcher HP de proposer des ordinateurs aussi bons que les années passées, ce qui va surement entrainer une baisse de ses ventes. De l’autre, la marque compte sur ces IA dans les nuages pour remplacer des emplois dans ses rangs. Il y a ici une double logique assez particulière.
Microsoft Copilot, l’IA locale de Microsoft
HP, comme les autres acteurs de ce marché, a beaucoup misé sur l’IA pour nous vendre des ordinateurs depuis quelques trimestres. Mettant en avant des usages locaux pas encore très bien identifiés tout en vantant les capacités du matériel embarqué. Des NPUs montés à bord du train-train informatique sans que le grand public ne voit bien à quoi ils vont bien leur servir. Copilot, poussé en avant par Microsoft, est resté très vaporeux pendant de longs mois et commence tout juste a annoncer des usages lisibles.
C’est tout un paradoxe parce que dans le même temps le public a très bien compris que les IA dans les nuages pouvaient les épauler – souvent gratuitement – pour énormément de tâches. Bien mieux que ce que proposent actuellement les machines en local. Beaucoup de commerciaux, beaucoup de dossiers de presse ont mis en avant le futur d’un PC avec IA locale, espérant que celle-ci allait à elle seule renouveler le parc. À les écouter, l’ajout d’une Intelligence Artificielle locale éclipsait totalement les machines plus anciennes et ouvrait des perspectives de vente énormes. Personne n’aurait plus un PC sans NPU d’ici à quelques trimestres au plus, ce serait totalement « has been ». J’ai entendu un commercial parler des ordinateurs HP se transformer en ordinateur HPI3 grâce à l’IA. Un jeu de mot qu’il risque de trouver moins drôle aujourd’hui.
Plus le temps passe et plus le grand public commence à voir également dans les IA un danger. À les considérer d’un œil moins hypnotisé qu’au moment de leur découverte. Le temps a passé depuis les premiers soupirs de ChatGPT et le début des images générées par des algorithmes. Parce que l’appétit d’ogre de ces entités dévore désormais des emplois, crée des remous politiques et technologiques et commence même à réduire leur pouvoir d’achat. Tout cela pour proposer très fréquemment des résultats finalement assez décevants. Si demain certains des salariés de grands groupes informatiques voient leur poste supprimé à cause d’une IA externe, cela risque d’être une pilule bien amère à avaler.
Car si je résume la situation, les datacenters des grandes IA vont à eux seuls provoquer une baisse de l’attractivité des ordinateurs classiques. Baisse qui risque de servir de prétexte à la suppression des emplois de ceux qui vantaient l’IA comme la voie à suivre pour le futur du monde PC. Voie qui, si elle finit par advenir en mode local, pourrait mettre à mal les solutions dans les nuages. Tout cela ressemble de plus en plus à une pièce de boulevard où tout le monde trompe tout le monde.
HP réagit face à la hausse de la mémoire vive © MiniMachines.net. 2025
Read more of this story at Slashdot.
Read more of this story at Slashdot.
![]()
À l'occasion du week-end prolongé de Thanksgiving aux États-Unis, Gemini, l'IA de Google, vous permet de vous transformer en ballon de parade géant grâce à Nano Banana.
![]()
Les documents permettant de décoder le dernier message secret de Kryptos, la célèbre sculpture codée installée au siège de la CIA, ont été adjugés 962 500 dollars le 22 novembre 2025. Plus de trente ans après son installation, le code K4 continue de défier cryptographes et amateurs du monde entier.
Read more of this story at Slashdot.