Vue normale

AV1's Open, Royalty-Free Promise In Question As Dolby Sues Snapchat Over Codec

Par : BeauHD
28 mars 2026 à 03:30
An anonymous reader quotes a report from Ars Technica: AOMedia Video 1 (AV1) was invented by a group of technology companies to be an open, royalty-free alternative to other video codecs, like HEVC/H.265. But a lawsuit that Dolby Laboratories Inc. filed this week against Snap Inc. calls all that into question with claims of patent infringement. Numerous lawsuits are currently open in the US regarding the use of HEVC. Relevant patent holders, such as Nokia and InterDigital, have sued numerous hardware vendors and streaming service providers in pursuit of licensing fees for the use of patented technologies deemed essential to HEVC. It's a touch rarer to see a lawsuit filed over the implementation of AV1. The Alliance for Open Media (AOMedia), whose members include Amazon, Apple, Google, Microsoft, Mozilla, and Netflix, says it developed AV1 "under a royalty-free patent policy (Alliance for Open Media Patent License 1.0)" and that the standard is "supported by high-quality reference implementations under a simple, permissive license (BSD 3-Clause Clear License)." Yet, Dolby's lawsuit filed in the US District Court for the District of Delaware [PDF] alleges that AV1 leverages technologies that Dolby has patented and has not agreed to license for free and without receiving royalties. The filing reads: "[AOMedia] does not own all patents practiced by implementations of the AV1 codec. Rather, the AV1 specification was developed after many foundational video coding patents had already been filed, and AV1 incorporates technologies that are also present in HEVC. Those technologies are subject to existing third-party patent rights and associated licensing obligations." Dolby is seeking a jury trial, a declaration that Dolby isn't obligated to license the patents in questions under FRAND (fair, reasonable, and non-discriminatory) licensing obligations, and for the court to enjoin Snap from further "infringement."

Read more of this story at Slashdot.

Les 6 raisons pour lesquelles Wikipédia rejette l’écriture d’articles avec IA, sauf dans deux cas particuliers

27 mars 2026 à 14:43

L'encyclopédie en ligne Wikipédia n'ignore pas l'explosion des textes produits par les systèmes d'IA générative. Pour l'essentiel, leur usage pour écrire des articles est prohibé. Mais à la marge, il y a quelques exceptions tolérées.

Écrire sur Wikipédia avec l’IA, c’est non, sauf dans deux cas de figure très spécifiques

27 mars 2026 à 12:43

L'encyclopédie en ligne Wikipédia n'ignore pas l'explosion des textes produits par les systèmes d'IA générative. Pour l'essentiel, leur usage pour écrire des articles est prohibé. Mais à la marge, il y a quelques exceptions tolérées.

Pokémon Pokopia est de retour en stock sur Amazon

27 mars 2026 à 10:30

[Deal du jour] Sorti en exclusivité sur Switch 2 le 5 mars 2026, Pokémon Pokopia est rapidement tombé en rupture de stock. Si vous n'avez pas eu le temps de vous procurer une version physique du jeu, le revoilà disponible, mais il faudra faire vite.

Wikipedia Bans Use of Generative AI

Par : BeauHD
26 mars 2026 à 18:20
Wikipedia has banned the use of generative AI to write or rewrite articles, saying it "often violates several of Wikipedia's core content policies." That said, editors may still use it for translation or light refinements as long as a human carefully checks the copy for accuracy. Engadget reports: Editors can use large language models (LLMs) to refine their own writing, but only if the copy is checked for accuracy. The policy states that this is because LLMs "can go beyond what you ask of them and change the meaning of the text such that it is not supported by the sources cited." Editors can also use LLMs to assist with language translation. However, they must be fluent enough in both languages to catch errors. Once again, the information must be checked for inaccuracies. "My genuine hope is that this can spark a broader change. Empower communities on other platforms, and see this become a grassroots movement of users deciding whether AI should be welcome in their communities, and to what extent," Wikipedia administrator Chaotic Enby wrote. The administrator also called the policy a "pushback against enshittification and the forceful push of AI by so many companies in these last few years."

Read more of this story at Slashdot.

15 millions de paramètres et 1 seul GPU : Yann LeCun fait un premier pas vers l’IA qui comprend le monde réel

26 mars 2026 à 10:18

En attendant les premières découvertes d'AMI Labs, sa nouvelle startup créée en France, Yann LeCun et un consortium de chercheurs spécialisés en intelligence artificielle dévoilent LeWorldModel, première version d'une technologie capable de s'entraîner directement à partir de pixels bruts sans problème de stabilité. À terme, les robots pourraient s'appuyer sur ces avancées pour voir le monde et interagir avec.

« Les haters ne pourront rien faire », un développeur prend la défense du DLSS 5

26 mars 2026 à 08:41

Le DLSS 5 continue de faire couler de l'encre depuis sa présentation aussi impressionnante que sujette à la controverse. Cette fois, c'est au tour d'un développeur de s'exprimer pour prendre la défense de la technologie de Nvidia.

Google a peut-être réglé la crise de la mémoire vive (RAM) avec un algorithme

25 mars 2026 à 15:16

Les intelligences artificielles ont un appétit insatiable pour la mémoire vive, ce qui provoque une crise matérielle sans précédent. Avec son nouvel algorithme TurboQuant, Google a peut-être trouvé la parade mathématique pour diviser ce besoin par six.

OpenAI abandonne la génération de vidéos (Sora) et perd son deal avec Disney : comment expliquer un tel échec ?

25 mars 2026 à 09:25

Un peu plus d'un an après avoir lancé Sora, son modèle pour générer des vidéos intégré à une application dédiée, OpenAI annonce renoncer à la technologie, qui va même perdre son API. L'entreprise semble vouloir se reconcentrer sur ChatGPT et réduire ses coûts d'exploitation.

Cette station de métro fonctionnelle est l’une des constructions les plus folles de Pokémon Pokopia

24 mars 2026 à 17:15

Dans Pokémon Pokopia, certains joueurs ne se contentent pas d’explorer : ils reconstruisent le monde en ruines. En témoigne cette station de métro entièrement fonctionnelle, particulièrement impressionnante.

Resident Evil Requiem défiguré par le DLSS 5 : Capcom tente d’éteindre l’incendie

24 mars 2026 à 15:57

Capcom a publié un document dédié aux investisseurs, portant notamment sur la question de son usage de l'IA. Quelques jours après la présentation controversée du DLSS 5, la firme nippone y stipule qu'elle n'utilisera pas la technologie pour modifier le contenu de ses jeux.

« Je pense qu’on a atteint l’intelligence artificielle générale » : le patron de Nvidia surprend tout le monde avec cette phrase

24 mars 2026 à 14:21

Invité du podcasteur américain Lex Fridman, Jensen Huang a laissé entendre que l'AGI, considérée par beaucoup comme la forme ultime de l'IA générative, était déjà possible aujourd'hui. Une affirmation qui divise beaucoup : tout dépend de la définition que l'on attribue à AGI.

Mageia 10 : cycle de publication alpha, bêta, rc

Si vous avez envie de regarder sous le capot et vous impliquer dans le développement d’une distribution Linux c’est le moment de participer aux tests.
Mageia a publié une première version alpha en décembre 2025, la version bêta est désormais disponible et une version candidate est envisagée pour mars/avril 2026 pour publication de Mageia 10 « quand ce sera prêt », l’occasion de revenir sur les différentes étapes et l’implication possible.

Pour l’apparence de la distribution, un concours artistique a été lancé du 29 janvier au 25 février 2026, la participation des plus graphistes d’entre vous est la bienvenue ! Le choix pour la Mageia 10 va bientôt être fait, il reste toujours quelques points à améliorer par la suite ;-)

Bref, une version 10 de Mageia qui s’inscrit dans la continuité de la stabilité de Mageia 9 : le cycle de publication est là pour l’avérer, il y aura des pleurs, des cris et de grandes joies à réussir à faire fonctionner au mieux vos logiciels de prédilection.

Sommaire

Pour cette dépêche, le parti pris est de privilégier les annonces en français. Pour autant, le suivi effectif est à faire en anglais (ensuite décliné au besoin en français).

Quelques sujets pris en compte pour Mageia 10 :

  • choix du noyau Linux 6.18.x qui est une version LTS
  • live ISO 64 bits en 3 versions : KDE, GNOME et XFCE
  • conservation d’une version 32 bits (i686 et non plus i586), nécessitant des tests et une définition du périmètre, un live ISO basé sur XFCE
  • Wayland par défaut pour GNOME, éventuellement (à tester) pour Plasma KDE et autres environnements le proposant, marquant la résorption de Xorg lorsque possible ; plusieurs compositeurs Wayland pour LXQt sont intégrés (Labwc, niri, hyprland, sway)
  • bon fonctionnement de l’infrastructure de mise à jour via URPMI, basé sur RPM ou DNF
  • Peaufinement de l’intégration des pilotes libres de GPU pour Intel et AMD ; pour les pilotes nVidia ça va être plus compliqué :/
  • des mises à jour de vos logiciels préférés (n’hésitez pas à les préciser en commentaire)

Voici les différents cycles et les choix envisageables restant à chaque étape.

Cycle alpha : reprise de publication

Objectif : stabilisation du périmètre envisagé, identification des montées de version de logiciels restant à faire lors du cycle de publication.

Cela permet d’avoir des premiers ISO installables, et de revoir les plannings respectifs de ce qui est à intégrer : des langages (Rust, Ruby…), des logiciels (FreeCAD 1.1 en février donc plutôt lors de la bêta…).

Premières personnes à tester généralement issues de Cauldron—la version de développement en rolling-release—dont l’installation a pour objectif d’avérer la cohérence de l’installation et d'identifier sur le bugzilla les bogues bloquants ce qui en permet le suivi lors de chacun des cycles. Une version plus jolie des bogues bloquants est disponible, même s’ils restent à corriger ;-)

Les arborescences de dépôt 10 sont créées sur les miroirs, pour permettre de gérer l’ajout de nouveaux miroirs au fur et à mesure. Pendant tout le cycle de publication, le fonctionnement est similaire à ce qui se passe en cauldron : l’arborescence release/ reçoit les mises à jour de paquets, rien dans updates/.
Le changement des dépôts de cauldron à 10 est nécessaire pour ne pas rester avec la version de développement une fois Mageia 10 officiellement publiée ; une réinstallation reste préconisée pour ne pas avoir de reliquat des bogues corrigés lors du cycle de publication (même si enlever les différentes versions de noyaux et de bibliothèques permet de faire un 1er ménage, il peut y avoir des reliquats de configuration intermédiaire qui perdurent).

Cycle bêta : consolidation des tests et des choix pour la version à publier

Objectif : stabilisation des versions de logiciels envisagées, identification des correctifs à l’installeur.

Lancement du concours de visuels pour fonds d’écrans de Mageia 10, icônes et économiseurs : du 30 janvier 2026 au 25 février 2026. C’est la bêta2 qui vous fera découvrir la nouvelle apparence retenue pour Mageia 10.

Les pilotes nvidia posant des problèmes récurrents, il est envisagé de ne pas proposer leur intégration aux ISO (ils seraient à installer par la suite). Les tests sont les bienvenus. La version nvidia470 peut encore être configurée après installation initiale : elle est conservée pour les anciennes cartes graphiques—même si elle n’est plus maintenue tandis que la version 390 est obsolète et ne fonctionne plus avec les nouveaux noyaux Linux—et les versions nvidia580 et nvidia590 sont proposées (paquets nvidia-current_all et nvidia-newfeature-all permettant l’ajout des modules dkms), ainsi que le pilote ne fonctionnant qu’à partir des versions de cartes RTX. C’est le pilote nouveau qui est utilisé par défaut lors de l’installation initiale.

Les pilotes graphiques libres de AMD et Intel ont bien sûr aussi été mis à jour, ils sont disponibles directement dans les ISO live d’installation.

Les tests pour Plasma KDE avec la gestion par Wayland permettront d’identifier l’opportunité de proposer Wayland par défaut, le choix alternatif de Xorg restant disponible.

L’utilisation de clé USB persistante (fonctionnalité apparue avec Mageia 7) pourrait permettre d’avoir sur soi une clé d’installation live à jour et bénéficiant des derniers correctifs : démarrage avec clé USB live sur PC à installer, premiers diagnostics de bon fonctionnement du matériel sans installation—utilisation de la partition persistante pour prendre des notes—  afin de lancer l’installation dans les meilleures conditions, bénéficiant des correctifs de l’installeur notamment.

Par exemple, selon la date de publication de FreeCAD 1.1—prévue initialement courant février 2026—il pourrait être disponible dans les dépôts de paquet de Mageia 10 (pas sur les ISO, il n’y a déjà plus beaucoup de place :D).

Cycle version candidate : finalisation

Objectif : pré-version de la version finale, à publier « quand c’est prêt »

C’est l’occasion de finaliser les différentes documentations de Mageia 10.
Les errata ne conservent que ce qui n’a pas pu être corrigé avant publication et nécessitant une intervention manuelle, ils seront tenus à jour après publication pour les cas spécifiques découverts après coup lors d’une utilisation plus large de la distribution.
Les Notes de version ne vont plus évoluer beaucoup, permettant de stabiliser les traductions dans d’autres langues que l’anglais qui reste la référence.

Version finale

Les miroirs pour les paquets peuvent être mis à jour avec la version 10 : l’arborescence release/ ne va plus évoluer et les mises à jour de paquets arrivent dans updates/.

Peaufinement des visuels retenus pour la version 10.

La notification pour proposer de monter automatiquement de version de distribution à partir de Mageia 9 interviendra un peu de temps après la sortie de la version finale : le temps de finir de les mises à jour pour clore les bogues non encore corrigés pour la version finale.

Différences de fonctionnement entre version stable et le cycle de publication.

Le cycle de publication s’appuie sur Cauldron, la version en développement continu ou rolling-release :

  • il n’y a pas d’updates/ : les paquets sont directement remplacés dans release/
  • un corollaire est que lors d’une mise à jour d’un ensemble de paquets (correction), les miroirs ne seront pas forcément complètement à jour, ce qui peut demander une relance de urpmi --auto-update pour mise à jour complète : en cas d’échec temporaire, une relance plus tard est nécessaire
  • ce genre de désynchronisation arrive peu souvent en version stable, un peu plus souvent en Cauldron—ce qui est normal (cela se fait particulièrement sentir lors d’une reconstruction en masse) ;-)

S’impliquer pour Mageia 10

À vous de décider ce que vous souhaitez faire ;-) En comprenant que c’est une version en évolution—certaines choses ne fonctionneront pas—et certaines pourront être corrigées pour la version finale (ou peu après :D). De quoi se mettre le pied à l’étrier pour la version suivante : nouveaux logiciels à (faire) empaqueter, nouvelles versions à prendre en compte…
C’est l’occasion de s’astreindre à lancer certaines applications à partir d’un terminal pour récupérer le maximum de logs possibles, ou d’apprendre à diagnostiquer une configuration spécifique causant des soucis—idéalement pour travailler en amont (upstream) pour faire prendre en compte des correctifs et améliorations.

Vous pouvez vous coordonner en français auprès de nos collègues de MLO pour effectuer au mieux vos remontées d’information.

Rien que les tests permettent de bénéficier de versions actualisées par rapport à Mageia 9 et remonter des bugs restant dans l’intégration de vos logiciels de prédilection à l’environnement de bureau de votre choix. Il y a aussi beaucoup de traductions à effectuer.

C’est l’opportunité de (re-)lire les documentations et les actualiser, notamment les nouvelles fonctionnalités.

Exemples d’utilisations

Je vous laisse ajouter des cas d’utilisation qui vous seraient spécifiques en commentaires.
J’ai la chance de participer à un fablab qui me donne accès à divers matériels pour tester :

  • EeePC ne fonctionnant pas en x86_64 (donc i686 maintenant), netbooks hybrides (tablette tactile + clavier détachable) limités à 2 Go de RAM et un UEFI 32 bits exotique même quand le processeur gère le x86_64
  • (très) vieux portables et ordis—pour la plupart des gens, vieux = plus de 5 ans—là, c’est plutôt (l’ami de Mickey<) de la période 2008-2014 : des MacBook Pro, des iMac, plein de core2duo / Athlon (ça c’est du x86_64 au moins) ou cartes nvidia déclarées obsolètes (des quadro à l’époque réputées de qualité professionnelle, on voit ce que ça veut dire pour nvidia… :/)
  • (très) vieux périphériques : gamepad Sidewinder, volant MT Logic wheel pour supertuxkart avec connectique broche DA-15 jaune (si vous avez d’autres périphériques—préférentiellement en USB—je suis preneur _o/ et, oui, c’est pas loin de Paris…)
  • quelques Raspberry Pi et assimilés—donc architecture ARM—mais ce n’est pas l’axe principalement retenu pour Mageia 10 :/ et pour le coup, Debian reste une valeur sûre pour la diversité des logiciels disponibles, même si des travaux communs avec le projet Fedora permettent de se tenir à niveau ;-)

Et bien sûr, des logiciels classiques dans un fablab qui fonctionnent bien (plutôt en flatpak) : Cura et Bambustudio pour l’impression 3D, IDE Scratch pour robots Thymio… et Inkscape / FreeCAD / KiCAD sur du matériel un peu plus récent et moins contraint en ressources ;-)

Si vous utilisez des window managers spécifiques, cela m’intéresse d’avoir des retours aussi (enlightenment, LXQt, WindowMaker… autres ?), Mageia proposant des installations cohérentes (intégration environnement, logiciels…) via les méta-paquets task- qui permettent d’installer un ensemble de dépendances automatiquement.

Bons tests _o/

Commentaires : voir le flux Atom ouvrir dans le navigateur

VLA et World Models : Comment les robots apprennent à imaginer… et à conquérir le monde ?

22 mars 2026 à 08:12

La guerre est lancée. Une guerre scientifique, économique et stratégique où s’affrontent quatre écoles de pensée et trois continents. Une guerre qui va redéfinir notre monde, et où la France, avec l’installation de Yann LeCun et de sa start-up Advanced Machine Intelligence, a sa carte à jouer.

Un robot qui observe une scène, comprend ce qui s'y passe et anticipe les conséquences de ses actes avant même de bouger le petit doigt. Ce n'est plus de la science-fiction. C'est la promesse d'une technologie hybride vertigineuse : les VLA (des modèles qui fusionnent vision, langage et action) couplés aux World Models (des systèmes permettant aux machines d'imaginer l'avenir).

Cette avancée silencieuse est sur le point de redéfinir notre monde physique. Elle pourrait créer des millions d'emplois... ou en détruire autant. Surtout, elle est le théâtre d'une guerre idéologique entre les chercheurs stars de l'IA et d'une course géopolitique féroce où la Chine, les États-Unis et la France jouent leur souveraineté technologique. Pourquoi cette bataille nous concerne-t-elle tous ? Plongée dans les rouages de l'IA qui s'incarne.

Étincelants aux échecs, empotés en cuisine

Fermez les yeux et imaginez une scène banale : vous êtes dans une cuisine inconnue, vous ouvrez un placard, saisissez une tasse transparente à la forme atypique et vous vous servez un café. Pour vous, c'est l'affaire de quelques secondes. Pour un robot coûtant plusieurs dizaines de milliers d'euros, c'est aujourd’hui un cauchemar absolu.

C'est ce qu'on appelle le paradoxe de Moravec : les machines excellent à exercer des tâches qui exigent des calculs complexes (analyser des milliards de données, battre des champions d'échecs), mais, dans un environnement ouvert, elles trébuchent face aux gestes sensorimoteurs de base qu'un enfant de trois ans maîtrise intuitivement. Pourquoi ?

Le cœur du problème réside dans le fossé entre la perception (voir) et l'action (bouger). Jusqu'à récemment, l'approche classique consistait soit à coder explicitement chaque mouvement dans des environnements ultra-contrôlés (la « robotique de cage » de nos usines automobiles), soit à utiliser « l'apprentissage par renforcement ». Cette dernière méthode force le robot à échouer des millions de fois en simulation avant de réussir. Mais le monde réel n'est pas une simulation stérile : il est chaotique, imprévisible. Face à la nouveauté, les robots classiques s'effondrent. Il leur manquait encore la clé de voûte de l'intelligence biologique : la capacité de généraliser.

Les VLA : quand l'IA devient le système nerveux des machines

La première moitié de la solution s'appelle le VLA (Vision-Language-Action model). Après les LLM comme ChatGPT (qui prédisent du texte) et les VLM (qui comprennent des images), les VLA sont l'aboutissement « incarné » de l'IA.

Donnez à un VLA l'image d'une table en désordre et l'instruction textuelle : « Range la pomme dans le bol ». Le modèle ne génère pas une phrase de réponse : il recrache directement des « tokens d'action ». Concrètement, il calcule l'angle exact du bras robotique et la force de préhension des doigts. Née avec le modèle RT-2 de Google, cette technologie a explosé avec des architectures comme OpenVLA et π0 (Physical Intelligence). Entraînés sur le « bon sens » d'Internet et des milliers d'heures de vidéos, ils permettent aux robots d'exécuter des instructions inédites.

L'enjeu géopolitique : si l'Occident en a posé les bases théoriques, la Chine est le leader incontesté du déploiement physique de ces cerveaux. Elle concentre aujourd'hui plus de 80 % des installations de robots humanoïdes. Xiaomi a, par exemple, intégré son modèle Xiaomi-Robotics-0 directement sur les chaînes de montage de ses voitures SU7. De son côté, XPENG déploie son architecture VLA 2.0 simultanément sur ses robotaxis, ses humanoïdes et ses voitures volantes. La Chine n'installe pas juste des robots ; elle bâtit une économie robotisée qui menace de laisser l'Europe à la traîne.

Les World Models : les 4 écoles de l'imagination artificielle

Si le VLA joue le rôle du système nerveux central, il lui manque une faculté essentielle pour ne pas faire de dégâts : l'imagination. C'est ici qu'entrent en scène les World Models (modèles du monde). C'est l'équivalent de notre cerveau qui « joue » des scénarios à l'avance : avant d'attraper un verre, vous savez que, si vous le bousculez, il va tomber et se briser.

Cependant, sous le terme « World Model » se cache une véritable guerre de paradigmes. Les chercheurs s'affrontent sur la meilleure façon d'enseigner la physique aux machines. Quatre grandes écoles se disputent la victoire :

Article réservé à nos abonnés.

Lire la suite s'abonner dès 5€/mois

L’article VLA et World Models : Comment les robots apprennent à imaginer… et à conquérir le monde ? est apparu en premier sur Les Électrons Libres.

💾

Un sèche-cheveux et 2,5 milliards de dollars : comment cet incroyable réseau de contrebande a inondé la Chine de puces Nvidia

20 mars 2026 à 10:15

Le 19 mars 2026, le département américain de la Justice a inculpé trois personnes liées à Super Micro Computer, un fabricant californien de serveurs coté en bourse. Leur crime présumé : avoir orchestré un vaste réseau de contrebande de semi-conducteurs à destination de la Chine, principal rival technologique des États-Unis.

DLSS 5 : Il n’y a pas de magie dans l’IA de Nvidia

19 mars 2026 à 11:56

L’histoire est assez simple. Pour le lancement de son système de génération d’images DLSS 5, Nvidia a proposé différentes vidéos mettant en scène des jeux avec et sans son filtrage. Les exemples proposés sont spectaculaires et on peut voir des univers totalement changer d’ambiance une fois l’algorithme activé.

Visages redessinés, textures appuyées, décors et ambiances bouleversées… Les jeux passés à la moulinette de l’IA du DLSS 5 ont causé un certain émoi chez les joueurs. Quand on passe des dizaines d’heures dans un univers spécifique, quand on apprécie le travail mené par les équipes créatives d’un jeu et qu’on voit ce travail bouleversé par un filtre, il est absolument normal de s’inquiéter.

Quand on mélange cela avec l’ambiance qui règne en ce moment autour de l’IA, cette inquiétude devient viscérale. On a déjà parlé à plusieurs reprises des errements de ces algorithmes qui ont tendance à manier le pinceau de la retouche avec la grâce d’un dinosaure et à jouer avec les réglages des différents effets les plus lourdingues avec des gants de boxe. Impossible de ne pas voir la pose d’un « nouveau visage » sur un personnage de jeu vidéo autrement que comme un masque grotesque. 

Image native sans DLSS 5

Image native sans DLSS 5

L’erreur de Nvidia est d’avoir cru au classique effet « wahou »

Nvidia a roulé sa bosse en termes de technologie et de communication avec le public. La marque est présente depuis des années sur ce terrain. Mais, souvent, son approche marketing se limite à deux aspects. De l’évangélisation technique avec l’explication de ses technologies qui sont très souvent assez complexes à appréhender. Puis, dans un second temps, l’exposition de l’intérêt de celles-ci avec des démonstrations techniques. Et, il faut l’avouer, depuis presque 30 ans que les GeForce sont en vente sur le marché PC, cette seconde phase suffit généralement à convaincre tout le monde. 

Voir pour la première fois le décor d’un jeu se refléter fidèlement sur une carcasse de voiture. Découvrir une illumination d’objet qui s’adapte au mouvement de l’éclairage que porte un personnage ou observer les comportements physiques d’un univers se mettre en scène dans une logique de pesanteur ou de fluidité, tout cela pose son petit effet Wahou sur les rétines de l’observateur. Que l’on comprenne ou pas comment tout cela fonctionne, le fait est que l’impact dans le jeu est suffisant pour convaincre. Et d’ailleurs, moins on comprend, plus cet effet est « magique » pour le joueur.

Image retravaillée par le DLSS 5

Image retravaillée par le DLSS 5

On ne touche pas aux doudous des joueurs !

Problème, cet effet a été considéré comme un argument suffisant pour la présentation du DLSS 5. Et cela du seul point de vue technique. Pour un ingénieur de chez Nvidia ou pour toute personne qui s’intéresse aux technologies employées dans le système plus qu’au jeu lui-même, cette démonstration est éblouissante. Le rendu apporté en temps réel par le DLSS 5 dans les titres mis en scène est techniquement incroyable. 

Mais du point de vue d’un joueur, ce n’est absolument pas ce qui est retenu. Chez Nvidia, la confiance dans le système a été portée sur la capacité et l’expertise du DLSS 5 comme système d’optimisation et d’affichage en tant que tel. Cela a certainement été conforté par les récents tests sur le DLSS 4.5 qui indiquaient que les joueurs préféraient le rendu généré au rendu natif.

En réalité, loin de l’aspect technologique, ce que le joueur lambda a vu, c’est le maquillage outrancier d’un univers qu’il connaissait déjà. Pour certains, changer le visage de son héros avec qui il a passé des dizaines et des dizaines d’heures est atroce. C’est comme si on échangeait un doudou pour un autre ou qu’on changeait un acteur par un autre au milieu d’un film. Ce n’est simplement pas intelligible.

Dès que ces vidéos ont été publiées, il est devenu impossible de nuancer ce qui était proposé par le DLSS 5. Dans la vidéo ci-dessus, on ne reconnait plus le personnage mis en scène par rapport à sa version native sans DLSS. Et c’est vraiment le principal problème de cette annonce. Tout le monde a immédiatement pensé à une IA hors de contrôle. Comme si un magicien malicieux prenait place dans votre carte graphique pour affubler les jeux de ces rendus pilotés par une IA sans supervision. Impossible d’expliquer ensuite si oui ou non ce « masque » porté par le personnage a été généré uniquement par l’IA ou en collaboration avec le studio de développement. Impossible de se dire que cela provient d’un travail de fond mené par les designers du jeu qui ont imposé leurs choix artistiques pour l’entrainement du DLSS 5. On ne peut plus y voir qu’une Sloperie2 de la part d’une machine sans goût ni sentiment.

C’est d’autant plus flagrant pour moi que cette image m’en a rappelé une autre que je vous proposais il y a quelques temps pour parler d’IA et de VPC. Les deux images se sont superposées immédiatement dans mon regard. Provoquant ainsi un rejet quasi épidermique de la proposition. Impossible pour moi de continuer à regarder ces images sereinement. Il a fallu que je laisse un peu de temps à mon cerveau pour refroidir et essayer d’appréhender le sujet de manière plus réfléchie. Et, à bien y regarder, en écoutant les arguments des différents acteurs mis en scène dans toute cette histoire, la proposition de Nvidia avec le DLSS 5 est un peu plus intéressante que cette simple histoire de maquillage de personnages à la truelle.

Le gros problème de cette démonstration technique est d’avoir pris des jeux existants. Des jeux qui ont déjà gagné le cœur des joueurs, et d’avoir poussé le côté technique de la démonstration au lieu d’ajuster un mélange entre avancées technologiques et ambiance connue.

L’effet est logiquement le même que la découverte d’une personne en face à face alors qu’elle use et abuse de filtres IA pour paraitre différente sur ses photos en ligne. Ou la découverte d’un lieu ultra-touristique photographié sur les réseaux sociaux et qui s’avère être un cadrage d’un angle précis. Cadrage qui cache la réalité de la scène toute entière souvent moins étonnante ou esthétique. L’aspect totalement artificiel de ce qui est proposé par le DLSS 5 parait non seulement faux mais également totalement incongru au joueur qui connait déjà le jeu présenté.

Il n’y a pas de magie dans ce rendu

Nvidia l’affirme, les visages générés par l’algorithme, les décors léchés et les textures appliquées, sont bien réalisés en partenariat avec les éditeurs de jeu. Sous leur propre direction artistique. Cela veut dire que l’IA ne fantasme pas le visage de tel ou tel personnage à partir de rien. Qu’il ne changera pas d’une machine à l’autre ou d’une partie à l’autre. Le « masque » est décidé en amont et restera le même pour tout le monde. Il est généré par les équipes qui construisent l’âme graphique du jeu. À bien y regarder, toutes proportions gardées, l’approche de cette métamorphose IA ressemble à une version « premium » d’un pack de textures « 4K » proposées au téléchargement après la sortie d’un jeu lancé en FullHD. Bref, ce n’est pas un sortilège jeté à votre jeu vidéo, c’est juste une option comme une autre.

Nvidia n’aurait dû présenter qu’une démo purement technologique du DLSS 5

Employer des jeux déjà commercialisés a été une erreur. L’attachement des joueurs pour les personnages est trop fort pour qu’une réaction autre qu’épidermique puisse exister. Nvidia propose de changer des souvenirs. Des émotions. C’est totalement impossible. La marque n’aurait dû faire ce que fait un moteur de jeu comme Unreal pour présenter ses technologies. Telle que la démo que vous voyez ci-dessus. Proposer soit un jeu à venir, soit un jeu qui n’existe pas mais qui permet de mettre en scène ses nouveautés. Cela aurait permis de mettre en avant la participation des studios dans le développement des effets générés par l’IA mais surtout de se détacher du côté émotionnel que chacun entretient avec les jeux.

Nvidia l’a fait, la vidéo ci-dessus est une de ces présentations technologiques. Mais ce n’est pas celle-là qui a été retenue. Elle n’a quasiment pas été publiée ni reprise sur les réseaux sociaux. C’est logique puisqu’elle n’évoque rien à personne, ni en positif, ni en négatif. C’est juste une démo technique où on peut apprécier la technologie mise en avant.

Ne proposer que cette démo n’aurait pas impacté Nvidia puisque les éléments présentés ne tournent pour le moment que dans des conditions très particulières. On parle de solutions graphiques employant un matériel que personne ne possède combinant deux cartes GeForce haut de gamme. Le DLSS 5 n’est pas encore prêt à trouver sa voie chez la majorité des joueurs.  Le moteur est prévu pour cet automne, mais il faudra probablement beaucoup plus de temps avant que ce système se déploie véritablement auprès du grand public. Et d’ici là, les jeux concernés seront différents de ceux présentés.

Il faudra faire attention à l’avenir à la présence de ce filtre dans les démos de jeu

Ce que je redoute au final, ce n’est pas le maquillage façon clown d’anniversaire des prochains jeux. C’est plutôt la tendance qui risque d’apparaitre de démonstrations de jeu sous leur meilleur angle avec le DLSS 5. Exactement comme la carte postale présentant une vision « Instagram » d’un lieu touristique. Vision qui, une fois sur place, n’est pas tout à fait aussi glamour. Les studios et les éditeurs de jeu auront certainement tendance à mettre en avant des jeux au réalisme poussé au travers du processus proposé par Nvidia. Et si l’approche esthétique sera bien pilotée en interne, elle ne concernera pendant très longtemps qu’une minorité de joueurs.

Or, si on vous met en scène un jeu « sublimé » par un filtre que vous ne pouvez pas appliquer, vous allez acheter autre chose que le produit présenté. Encore une fois, s’il n’y a pas de magie dans l’algorithme, il y’en a toujours une dose dans le marketing.

DLSS 5 : Il n’y a pas de magie dans l’IA de Nvidia © MiniMachines.net. 2026

Les coulisses du DLSS 5 seraient pires que ce qu’on croit

19 mars 2026 à 08:52

Des développeurs de Capcom et Ubisoft, deux entreprises annoncées comme partenaires de Nvidia sur le DLSS 5, auraient découvert la technologie en même temps que tout le monde. Ce qui pose la question du réel contrôle de la part des pôles créatifs.

« Ils ont tort » : le patron de Nvidia répond aux blagues et aux critiques sur le DLSS 5

18 mars 2026 à 10:50

Jensen Huang, CEO de Nvidia, a répondu aux pluies de critiques sur le DLSS 5, nouvelle génération d'une technologie accusée de dénaturer totalement la vision artistique des développeurs de jeux vidéo.

« Alerte rouge » chez OpenAI : Sam Altman sacrifie ses projets annexes pour sauver ChatGPT

17 mars 2026 à 11:28

Tandis qu’Anthropic cartonne, OpenAI acté un revirement de stratégie clair : fini les projets annexes, la priorité passe désormais aux outils de productivité pour les entreprises, rapporte le Wall Street Journal le 16 mars 2026. Un changement de cap qui confirme, une nouvelle fois, que la course à l’IA s’accélère.

❌