Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

[Édito] IA : il nous faut un traitement plus nuancé

IA quoi ?

Alors que la machine médiatique participe à amplifier le buzz autour de l’intelligence artificielle, Next se demande comment traiter le sujet à sa juste mesure.

Comment parler correctement d’intelligence artificielle ? Il y a quelques semaines, auprès de la BBC, le professeur d’intelligence artificielle à la Liverpool Hope University David Reid déclarait : « je situerais la couverture médiatique de l’IA quelque part autour de 2 sur 10 ». Sa critique principale : le monde médiatique parle du champ comme d’une entité unique, alors qu’il ne l’est pas. Et d’appeler à une couverture plus nuancée.

La critique n’est ni neuve, ni cantonnée au monde britannique. À en croire Emily Bell, directrice du Tow Center for Digital Journalism de l’Université de Columbia, aux États-Unis, elle peut même s’expliquer par l’accélération du cycle de l’actualité, qui rend plus complexe, encore, la couverture de l’explosion de l’IA générative que ne l’a été celle de l’explosion d’internet en 2000 ou celle des smartphones en 2007.

Quoi qu’il en soit, les chiffres sont là : au Royaume-Uni, 60 % des articles relatifs à l’intelligence artificielle concernaient en 2018 des produits, des initiatives et des annonces de l’industrie technologiques. 33 % des sources identifiables venaient du secteur privé, soit deux fois plus que celles issues du monde académique. Pour certains chercheurs cités par le Reuters Institue, une partie du traitement du domaine s’apparente carrément à une « épidémie de mésinformation », dans laquelle les médias se contentent d’amplifier un buzz alimenté par les constructeurs.

La problématique se traduit, aussi, dans le type de sources relevées dans les articles de presse tech comme généralistes : dans l’ultra-majorité des cas, il s’agit d’une poignée d’informaticiens, d’entrepreneurs et de politiciens aux positions quasi unanimes, en faveur du développement et du déploiement de ces technologies.

Sauf qu’au Canada comme ailleurs, les liens entre intérêts universitaires, industriels et politiques, en matière d’IA, sont finement intriqués, les premiers cherchant financement chez les deux autres, qui interagissent par ailleurs pour la création d’un écosystème favorable à la promotion de l’IA. Ce qu’il manque, dans tout cela, ce sont les voix de ceux qui s’intéressent au reste, aux externalités sociales, environnementales, aux effets concrets et présents de l’expansion de cette industrie.

Côté francophone, on trouve des chiffres sur le succès médiatique du champ technologique : depuis 2022, selon la plateforme de veille Tagaday, le volume d’articles relatifs à l’IA a été multiplié par trois, sachant qu’au 1er trimestre 2023, un article sur 100 était consacré au sujet. Selon l’entreprise, une telle visibilité médiatique a quelque chose de comparable… « au conflit Israël – Hamas ». Si bien qu’entre 70 % et 80 % de la population interrogée par le Reuters Institute dans six pays (dont la France) a entendu parler de l‘IA générative… alors qu’à peine 15 % des Français utilisent un outil comme ChatGPT au moins une fois par mois.

Dans le détail, on trouve aussi un nombre croissant d’articles sur le casse-tête que l’intelligence artificielle, générative ou non, pose dans les rédactions (pour, contre, ou les deux ? Quels types de modèles ? Pour quels types d’usages ? De la modération ? De l’enquête ? Du bâtonnage de dépêche chiffrée ?). Difficile, en revanche, de trouver une estimation claire de la manière dont ce type de technologie et son déploiement sont couverts. Tout juste Tagaday rapporte-t-elle, sur les plus de 162 000 articles ou sujets audiovisuels analysés, une surreprésentation très nette de ChatGPT parmi les noms de modèles génératifs évoqués.

En 2023, nous revenions aussi sur le travail des sociologues Anne Bellon et Julia Velkovska, qui rapportait une évolution globale du traitement de l’IA en France (moins d’utilisation du terme « robot » à partir de 2016, plus d’occurrence de l’expression « IA » depuis). Comme d’autres, elles soulignent qu’une petite poignée de personnalités (Yann Le Cun, Ray Kurzweil ou, plus franco-français, Cédric Villani) est très largement citée, dont certains présentent une expertise débattue. Ainsi de Stephen Hawking, qui n’était pas expert de l’IA, et surtout de Laurent Alexandre, cinquième personnalité la plus présente dans leur corpus.

Les enjeux sont multiples, pourtant, et les seuls représentants de l’industrie numérique ne permettront pas de les décortiquer avec la nuance nécessaire. Il y a à peine six mois, ces leaders appelaient eux-mêmes à une pause dans le développement de l’IA. De pause, il n’y a pas eu. À la place, pointe la journaliste Julia Angwin, nous voilà aux prises avec des technologies génératives instables, qui inondent le web de contenus de faible qualité, mais peinent à prouver leur utilité.

Ça n’est pas la première fois que le monde médiatique se fait avoir par les promesses délirantes des industriels de la tech. Avons-nous seulement appris du passé ? De la bulle internet ? De celle des cryptos ? Du métavers ?

Il ne s’agit pas de tout jeter. Les technologies déployées par le champ de l’intelligence artificielle sont multiples, pour certaines anciennes, et sont là pour rester. Il s’agit de reconnaître, en revanche, que les questions auxquelles il nous faut chercher des réponses sont multiples.

Sur les modèles eux-mêmes, pour commencer : GPT-4 a-t-il réellement réussi haut la main l’examen du barreau, comme le clamait OpenAI en mars 2023 ? Un réexamen du chercheur Eric Martínez laisse penser qu’il s’est plutôt trompé pour une question sur deux. Quid de la capacité de ces modèles à répondre à des questions simples ? En contexte médical, une étude de Stanford montre que si un médecin sur dix utilise déjà ChatGPT au quotidien aux États-Unis, le grand modèle de langage produit trop d’erreurs pour être utilisable.

Les cadrages économiques aussi demandent de la nuance : quand Emmanuel Macron promeut l’intelligence artificielle en France, quelles mesures proposent-ils concernant les emplois qui seront touchés, forcés à muter ? Quelle évolution des cadres de travail, outre la réduction de l’assurance-chômage ?

Dans un autre domaine, la conférence Vivatech fait le plein de tables rondes sur les intérêts du nucléaire. Le président de la République joue, lui aussi, de cet argument pour attirer les géants numériques. Et c’est vrai, l’électricité française peut se targuer d’être peu carbonée.

Mais quid des autres effets du numérique sur l’environnement ? Sur quels terrains seront construits les data centers ? Avec quelle eau les refroidira-t-on ? En cas de canicule, comment l’arbitrage entre les usages des entreprises et ceux des citoyens sera-t-il organisé ?

Chez Next, on essaie d’aborder l’intelligence artificielle en gardant ce type de questions en tête. On s’interroge aussi sur l’utilité des technologies que l’on croise avant de s’y attarder. Notre problème, évidemment, est qu’il est matériellement impossible de traiter la totalité des applications concrètes de l’IA. Chaque jour, il nous faut donc faire des choix.

Et vous, comment voudriez-vous entendre parler d’intelligence artificielle ?

☕️ Investissements dans l’IA : l’Union européenne à la traîne, faute de suivi

Malgré d’importants travaux pour faciliter le développement de l’intelligence artificielle, l’Union européenne reste à la traîne sur la scène mondiale avec des investissements inférieurs à ceux des États-Unis et de la Chine, selon un rapport de la Cour des Comptes européenne.


Quand bien même des mesures ont été prises pour développer un écosystème d’IA au tournant des années 2020, l’entité souligne un manque d’outils de gouvernance et de suivi des objectifs d’investissements comme de leurs résultats.

Elle appelle à des actions mieux ciblées, pour que les dépenses réalisées par l’Union européenne donnent un réel coup d’accélérateur au milieu.

[Édito] IA : il nous faut un traitement plus nuancé

IA quoi ?

Alors que la machine médiatique participe à amplifier le buzz autour de l’intelligence artificielle, Next se demande comment traiter le sujet à sa juste mesure.

Comment parler correctement d’intelligence artificielle ? Il y a quelques semaines, auprès de la BBC, le professeur d’intelligence artificielle à la Liverpool Hope University David Reid déclarait : « je situerais la couverture médiatique de l’IA quelque part autour de 2 sur 10 ». Sa critique principale : le monde médiatique parle du champ comme d’une entité unique, alors qu’il ne l’est pas. Et d’appeler à une couverture plus nuancée.

La critique n’est ni neuve, ni cantonnée au monde britannique. À en croire Emily Bell, directrice du Tow Center for Digital Journalism de l’Université de Columbia, aux États-Unis, elle peut même s’expliquer par l’accélération du cycle de l’actualité, qui rend plus complexe, encore, la couverture de l’explosion de l’IA générative que ne l’a été celle de l’explosion d’internet en 2000 ou celle des smartphones en 2007.

Quoi qu’il en soit, les chiffres sont là : au Royaume-Uni, 60 % des articles relatifs à l’intelligence artificielle concernaient en 2018 des produits, des initiatives et des annonces de l’industrie technologiques. 33 % des sources identifiables venaient du secteur privé, soit deux fois plus que celles issues du monde académique. Pour certains chercheurs cités par le Reuters Institue, une partie du traitement du domaine s’apparente carrément à une « épidémie de mésinformation », dans laquelle les médias se contentent d’amplifier un buzz alimenté par les constructeurs.

La problématique se traduit, aussi, dans le type de sources relevées dans les articles de presse tech comme généralistes : dans l’ultra-majorité des cas, il s’agit d’une poignée d’informaticiens, d’entrepreneurs et de politiciens aux positions quasi unanimes, en faveur du développement et du déploiement de ces technologies.

Sauf qu’au Canada comme ailleurs, les liens entre intérêts universitaires, industriels et politiques, en matière d’IA, sont finement intriqués, les premiers cherchant financement chez les deux autres, qui interagissent par ailleurs pour la création d’un écosystème favorable à la promotion de l’IA. Ce qu’il manque, dans tout cela, ce sont les voix de ceux qui s’intéressent au reste, aux externalités sociales, environnementales, aux effets concrets et présents de l’expansion de cette industrie.

Côté francophone, on trouve des chiffres sur le succès médiatique du champ technologique : depuis 2022, selon la plateforme de veille Tagaday, le volume d’articles relatifs à l’IA a été multiplié par trois, sachant qu’au 1er trimestre 2023, un article sur 100 était consacré au sujet. Selon l’entreprise, une telle visibilité médiatique a quelque chose de comparable… « au conflit Israël – Hamas ». Si bien qu’entre 70 % et 80 % de la population interrogée par le Reuters Institute dans six pays (dont la France) a entendu parler de l‘IA générative… alors qu’à peine 15 % des Français utilisent un outil comme ChatGPT au moins une fois par mois.

Dans le détail, on trouve aussi un nombre croissant d’articles sur le casse-tête que l’intelligence artificielle, générative ou non, pose dans les rédactions (pour, contre, ou les deux ? Quels types de modèles ? Pour quels types d’usages ? De la modération ? De l’enquête ? Du bâtonnage de dépêche chiffrée ?). Difficile, en revanche, de trouver une estimation claire de la manière dont ce type de technologie et son déploiement sont couverts. Tout juste Tagaday rapporte-t-elle, sur les plus de 162 000 articles ou sujets audiovisuels analysés, une surreprésentation très nette de ChatGPT parmi les noms de modèles génératifs évoqués.

En 2023, nous revenions aussi sur le travail des sociologues Anne Bellon et Julia Velkovska, qui rapportait une évolution globale du traitement de l’IA en France (moins d’utilisation du terme « robot » à partir de 2016, plus d’occurrence de l’expression « IA » depuis). Comme d’autres, elles soulignent qu’une petite poignée de personnalités (Yann Le Cun, Ray Kurzweil ou, plus franco-français, Cédric Villani) est très largement citée, dont certains présentent une expertise débattue. Ainsi de Stephen Hawking, qui n’était pas expert de l’IA, et surtout de Laurent Alexandre, cinquième personnalité la plus présente dans leur corpus.

Les enjeux sont multiples, pourtant, et les seuls représentants de l’industrie numérique ne permettront pas de les décortiquer avec la nuance nécessaire. Il y a à peine six mois, ces leaders appelaient eux-mêmes à une pause dans le développement de l’IA. De pause, il n’y a pas eu. À la place, pointe la journaliste Julia Angwin, nous voilà aux prises avec des technologies génératives instables, qui inondent le web de contenus de faible qualité, mais peinent à prouver leur utilité.

Ça n’est pas la première fois que le monde médiatique se fait avoir par les promesses délirantes des industriels de la tech. Avons-nous seulement appris du passé ? De la bulle internet ? De celle des cryptos ? Du métavers ?

Il ne s’agit pas de tout jeter. Les technologies déployées par le champ de l’intelligence artificielle sont multiples, pour certaines anciennes, et sont là pour rester. Il s’agit de reconnaître, en revanche, que les questions auxquelles il nous faut chercher des réponses sont multiples.

Sur les modèles eux-mêmes, pour commencer : GPT-4 a-t-il réellement réussi haut la main l’examen du barreau, comme le clamait OpenAI en mars 2023 ? Un réexamen du chercheur Eric Martínez laisse penser qu’il s’est plutôt trompé pour une question sur deux. Quid de la capacité de ces modèles à répondre à des questions simples ? En contexte médical, une étude de Stanford montre que si un médecin sur dix utilise déjà ChatGPT au quotidien aux États-Unis, le grand modèle de langage produit trop d’erreurs pour être utilisable.

Les cadrages économiques aussi demandent de la nuance : quand Emmanuel Macron promeut l’intelligence artificielle en France, quelles mesures proposent-ils concernant les emplois qui seront touchés, forcés à muter ? Quelle évolution des cadres de travail, outre la réduction de l’assurance-chômage ?

Dans un autre domaine, la conférence Vivatech fait le plein de tables rondes sur les intérêts du nucléaire. Le président de la République joue, lui aussi, de cet argument pour attirer les géants numériques. Et c’est vrai, l’électricité française peut se targuer d’être peu carbonée.

Mais quid des autres effets du numérique sur l’environnement ? Sur quels terrains seront construits les data centers ? Avec quelle eau les refroidira-t-on ? En cas de canicule, comment l’arbitrage entre les usages des entreprises et ceux des citoyens sera-t-il organisé ?

Chez Next, on essaie d’aborder l’intelligence artificielle en gardant ce type de questions en tête. On s’interroge aussi sur l’utilité des technologies que l’on croise avant de s’y attarder. Notre problème, évidemment, est qu’il est matériellement impossible de traiter la totalité des applications concrètes de l’IA. Chaque jour, il nous faut donc faire des choix.

Et vous, comment voudriez-vous entendre parler d’intelligence artificielle ?

☕️ Investissements dans l’IA : l’Union européenne à la traîne, faute de suivi

Malgré d’importants travaux pour faciliter le développement de l’intelligence artificielle, l’Union européenne reste à la traîne sur la scène mondiale avec des investissements inférieurs à ceux des États-Unis et de la Chine, selon un rapport de la Cour des Comptes européenne.


Quand bien même des mesures ont été prises pour développer un écosystème d’IA au tournant des années 2020, l’entité souligne un manque d’outils de gouvernance et de suivi des objectifs d’investissements comme de leurs résultats.

Elle appelle à des actions mieux ciblées, pour que les dépenses réalisées par l’Union européenne donnent un réel coup d’accélérateur au milieu.

Linux Mint Disabling Unverified Flatpaks By Default

The Linux Mint project is out with its monthly newsletter that highlights recent progress made on this Ubuntu (and Debian) derived, desktop-focused Linux distribution. In May they worked out enhancements to Linux Mint's software manager and also continued working on optimizing their package archive hosting...

La ConsolePC ROG Ally X se dévoile en détails

Minimachines.net en partenariat avec TopAchat.com

La ROG Ally X vient donc d’être présentée et montre une foule de petits ajustements opérés par Asus par rapport aux modèles Z1 sortis l’année dernière

Si les fondamentaux ergonomiques et d’affichage ne changent pas, Asus a souhaité améliorer des éléments critiqués par les utilisateurs sur ces premiers modèles. On retrouve ainsi le même affichage 7 pouces en FullHD avec un rafraichissement 120 Hz piloté par le même processeur AMD Ryzen Z1 Extreme. Le tout portant un Windows 11 mâtiné d’une interface maison.

Ce qui va changer est situé sur  d’autres postes comme la mémoire vive, le stockage ou l’autonomie. Ainsi le nouveau modèle de console embarque 24 Go de LPDDR5-7500X. Mieux que les 16 Go de LPDDR5-5600 du modèle Z1 Extreme. Plus rapide et plus imposante, cette mémoire permettra notamment d’allouer plus de mémoire dédiée au circuit graphique sans avoir a partager avec le reste du système. 

Autre nuance de taille un passage d’un stockage en M.2 2230 NVMe de 512 Go max en sortie d’usine à un M.2 2280 plus classique de 1 To  pour la ROG Ally X. Ce choix d’un SSD d’un format plus standard permettra une évolution plus simple pour le particulier mais offre également plus de choix pour Asus. Ce qui a surement permis de limiter l’impact de ce changement de capacité sur le tarif.

La disparition du connecteur propriétaire ROG XG Mobile est actée. Asus l’a remplacé par un plus commun et plus sobre port USB4. Un second port USB 3.2 Gen2 toujours en Type-C permettra une connexion plus classique. Les deux ports permettront un affichage déporté en DisplayPort 1.4 et fourniront une alimentation Power Delivery 3.0 à la console. 

L’autre grand chantier qui occupé les ingénieurs d’Asus ces derniers mois a été le passage d’une batterie de 40 Wh à un modèle de 80 Wh. Un doublement de capacité qui devrait autoriser une bien meilleure autonomie à la minimachine. Cette évolution comme le changement de divers autres postes a semble t-il pensé Asus a repenser totalement les entrailles de l’engin. Le lecteur de cartes MicroSDXC a été modifié pour éviter les problèmes de chauffe de la version actuelle. La ventilation a été adaptée pour mieux correspondre aux divers changements de la machine et Asus insiste également sur une amélioration de l’ergonomie des éléments de jeu.

Le résultat de ces mouvements a évidemment des conséquences sur le châssis de la console. Le poids grimpe à 678 grammes, soit 70 grammes de plus que les modèles de base. L’épaisseur minimale évolue de 2.12 cm à 2.47 cm tandis que les points les plus épais atteignent désormais 3.69 cm contre 3.24 cm auparavant.

Le reste ne change pas… sauf au niveau du prix. La ROG Ally X est annoncée à 899.99€ en France. Le précédent modèle, la Asus ROG Ally Z1 Extreme était proposée à 799.99€ avec 16 Go de mémoire moins rapide et 512 Go de stockage. Si le prix de cette évolution ne semble pas démesuré, cela pose tout de même la question de l’investissement nécessaire. Pour ce tarif on peut choisir un Steam Deck 1 To avec écran OLED proposé à 679€ par Valve. Si Asus n’hésite pas a monter son tarif c’est probablement parce que les acheteurs de sa console tiennent a retrouver un équipement spécifique avec des fondamentaux différents de ce que propose Valve. Les ventes des premiers modèles de la console d’Asus ont été très bons, il est logique de voir la marque persévérer.

Asus ROG Ally : présentation officielle et AMD Ryzen Z1

La ConsolePC ROG Ally X se dévoile en détails © MiniMachines.net. 2024.

☕️ Hugging Face : la sécurité de certains « espaces » compromise

La semaine dernière, la plateforme d’hébergement spécialisée dans le machine learning a détecté des « accès non autorisés » à des « Spaces », nom donné aux espaces utilisateurs sur Hugging Face.

Dans un billet publié vendredi soir, la startup franco-américaine soupçonne que ces intrusions auraient été possibles grâce à la récupération d’un sous-ensemble de secrets. Hugging Face ne donne pas le nombre de secrets touchés. Elle explique avoir révoqué les jetons présents dans ces secrets et informé les utilisateurs concernés.

Hugging Face recommande d’actualiser toute clé ou jeton. Elle pousse aussi ses utilisateurs à envisager de remplacer les jetons Hugging Face par des jetons d’accès à granularité fine (« fine-grained tokens ») mis en place sur la plateforme depuis un mois. L’entreprise a mis en ligne un petit tuto vidéo pour montrer comment créer un « fine-grained tokens » :

Interrogée par TechCrunch, Hugging Face a répondu : « nous avons vu le nombre de cyberattaques augmenter considérablement au cours des derniers mois, probablement parce que l’utilisation de nos services a augmenté de manière significative et que l’IA devient de plus en plus courante. Il est techniquement difficile de savoir combien de secrets d’espaces ont été compromis ».

☕️ Hugging Face : la sécurité de certains « espaces » compromise

La semaine dernière, la plateforme d’hébergement spécialisée dans le machine learning a détecté des « accès non autorisés » à des « Spaces », nom donné aux espaces utilisateurs sur Hugging Face.

Dans un billet publié vendredi soir, la startup franco-américaine soupçonne que ces intrusions auraient été possibles grâce à la récupération d’un sous-ensemble de secrets. Hugging Face ne donne pas le nombre de secrets touchés. Elle explique avoir révoqué les jetons présents dans ces secrets et informé les utilisateurs concernés.

Hugging Face recommande d’actualiser toute clé ou jeton. Elle pousse aussi ses utilisateurs à envisager de remplacer les jetons Hugging Face par des jetons d’accès à granularité fine (« fine-grained tokens ») mis en place sur la plateforme depuis un mois. L’entreprise a mis en ligne un petit tuto vidéo pour montrer comment créer un « fine-grained tokens » :

Interrogée par TechCrunch, Hugging Face a répondu : « nous avons vu le nombre de cyberattaques augmenter considérablement au cours des derniers mois, probablement parce que l’utilisation de nos services a augmenté de manière significative et que l’IA devient de plus en plus courante. Il est techniquement difficile de savoir combien de secrets d’espaces ont été compromis ».

AMD Unveils Ryzen AI and 9000 Series Processors, Plus Radeon PRO W7900 Dual Slot

The highlight of AMD's presentation Sunday at Computex 2024 was "the introduction of AMD's Ryzen AI 300 Series processors for laptops and the Ryzen 9000 Series for desktops," writes Slashdot reader BrianFagioli (sharing his report at Beta News): AMD's Ryzen AI 300 Series processors, designed for next-generation AI laptops, come with AMD's latest XDNA 2 architecture. This includes a Neural Processing Unit (NPU) that delivers 50 TOPS of AI processing power, significantly enhancing the AI capabilities of laptops. Among the processors announced were the Ryzen AI 9 HX 370, which features 12 cores and 24 threads with a boost frequency of 5.1 GHz, and the Ryzen AI 9 365 with 10 cores and 20 threads, boosting up to 5.0 GHz... In the desktop segment, the Ryzen 9000 Series processors, based on the "Zen 5" architecture, demonstrated an average 16% improvement in IPC performance over their predecessors built on the "Zen 4" architecture. The Ryzen 9 9950X stands out with 16 cores and 32 threads, reaching up to 5.7 GHz boost frequency and equipped with 80MB of cache... AMD also reaffirmed its commitment to the AM4 platform by introducing the Ryzen 9 5900XT and Ryzen 7 5800XT processors. These models are compatible with existing AM4 motherboards, providing an economical upgrade path for users. The article adds that AMD also unveiled its Radeon PRO W7900 Dual Slot workstation graphics card — priced at $3,499 — "further broadening its impact on high-performance computing... "AMD also emphasized its strategic partnerships with leading OEMs such as Acer, ASUS, HP, Lenovo, and MSI, who are set to launch systems powered by these new AMD processors." And there's also a software collaboration with Microsoft, reportedly "to enhance the capabilities of AI PCs, thus underscoring AMD's holistic approach to integrating AI into everyday computing."

Read more of this story at Slashdot.

Up To 162% Faster AES-GCM Encryption/Decryption For Intel & AMD CPUs On Linux

With the in-development Linux 6.10 kernel Eric Biggers of Google landed new AES-XTS implementations for much faster performance for Intel/AMD processors via new AES-NI + AVX, VAES + AVX2, VAES + AVX10/256, and VAES + AVX10/512 code paths. Biggers has since begun tackling even better AES-GCM encryption/decryption performance by leveraging a new code path to utilize AVX-512/AVX10 and/or VAES...

GCC 15 Merges Support For Intel APX NF

The latest feature work around Intel's Advanced Performance Extensions (APX) that is merged for the in-development GCC 15 compiler is supporting APX NF functionality for suppressing the update of status flags on arithmetic operations...

AMD Ryzen AI 300 : un nouveau cocktail à base de Zen5 et RDNA3.5

Minimachines.net en partenariat avec TopAchat.com

Le Ryzen AI 300 réinvente la gamme de processeurs AMD pour portables avec de gros changement sur tous les éléments de son architecture. On passe à Zen 5 pour la partie calcul, à RDNA3.5 pour l’ensemble graphique et à XDNA2 pour le NPU. En ligne de mire pour AMD, damer le pion à Intel et rabattre son caquet à Qualcomm.

Ryzen AI 300 : un processeur à tout faire pour des machines portables plus performantes

Le Zen5 est une nouvelle architecture qui devrait apporter 15% de performances en plus aux solutions actuelles sous Zen4. Pas un changement suffisant pour passer obligatoirement de l’un à l’autre mais une puce qui saura attirer des propriétaires de générations précédentes. Si AMD n’a pour le moment pas dévoilé grand chose sur la partie graphique de cette offre, on sait déjà que le RDNA3.5 lancera la gamme Radeon 8xxM.

Autre évolution logique l’arrivée d’un NPU plus puissant dans les Ryzen AI 300 puisque c’est le nouveau cheval de bataille des bâtisseurs de ces architectures. Après Qualcomm qui annonçait un NPU délivrant 45 TOPS de performance avec ses derniers Snapdragon X Elite. AMD en annonce 50. On pouvait imaginer assez facilement la réponse de la concurrence avec cette course à la puissance NPU, il suffit de dimensionner en conséquence son processeur en ajoutant la partie nécessaire pour assombrir l’argumentaire concurrent sur le sujet.

Deux processeurs ont été annoncés pour le moment. Le premier est le Ryzen AI 9 HX370 qui propose pas moins de 12 coeurs Zen5. 4 cœurs Zen 5+ et 8 cœurs Zen 5C pour 24 Threads. Sa fréquence de base sera de 2 GHz pour un maximum de 5,1 GHz. Il embarquera pas moins de 36 Mo de cache en additionnant le L2 et le L3. Il est muni d’un circuit graphique Radeon 890M avec 16 Compute Units RDNA 3.5 capable d’atteindre les 2.9 GHz.

Le second est le Ryzen AI 9 H365 qui embarque 10 coeurs Zen5 et 20 Threads. Toujours 4 cœurs Zen 5+ mais 6 cœurs Zen 5C pour une fréquence de 5 GHz au maximum. Son cache baisse à 34 Mo. Ici le circuit graphique rassemble 12 cœurs RDNA3.5 dans un circuit Radeon 880M toujours à 2.9 GHz. Le Ryzen AI 9 H365 ressemble fortement à un Ryzen AI 9 H370 dégradé. Sans info plus explicite sur le RDNA3.5 on restera dans le doute d’un gain majeur de performances par rapport à la génération concurrente.

Les deux puces recevront le nouveau NPU XDNA2 qui proposera pas moins de 50 TOPS de puissance de calcul. Cela qualifie le processeur pour l’intégration de machines Copilot+ de Microsoft et autorisera tous les services dévoilés par l’éditeur. Même les pires. Tout le discours de Qualcomm sous entendant la seule compatibilité de ses Snapdragon avec les solutions Copilot+ s’écroule donc d’un coup. Comme annoncé, les solutions AMD et Intel sont également éligible à ces usages.

Des performances globalement en hausse

Comme d’habitude AMD a étalé des tableaux mettant en avant ses puces par rapport à la concurrence et comme ses petits camarades elle a passé un doctorat en Cherry picking. Choisissant probablement les éléments les plus avantageux dans un panel de dizaines de tests pour faire briller ses nouveaux processeurs. Tous font la même chose, il n’y a donc pas de vraie surprise ici.

Face au Snapdragon X Elite, le nouveau Ryzen AI 9 HX 370 serait 5% plus rapide en mono cœur sur GeekBench . 10% plus performant sous un test de bureautique et 30% plus rapide sous Cinebench 24 en multitâche. Mais c’est sur le terrain du jeu que le nouveau venu se démarque réellement avec 60% de performance en plus sous 3DMark. De la même manière AMD a comparé son Ryzen à coeur Zen5 au Apple M3 et au Core Ultra 9 185H d’Intel et, comme on pouvait s’y attendre, les performances seraient bien meilleures à en croire AMD. 

On notera au passage le merveilleux sous titre de l’image qui explique que la puce travaille sans émulation. Un point qui s’évalue dans les deux sens à mon avis car parvenir à des scores de ce type montre l’étendue du travail de Qualcomm sur cette émulation justement. Mais un point qui rappelle aussi le problème posé par cette traduction en temps réel du code d’une architecture vers une autre qui ne manquera pas de poser de nombreux soucis à l’usage pour les propriétaires de machines Sapdragon.

En comparaison avec un Core Ultra 185H d’Intel, la productivité de la solution Ryzen AI 300 fait assez mal. De +4% sous un bench de bureautique à +73% en rendu 3D avec des scores de +40% et +47% en édition vidéo sous Premiere Pro et en multitâche sous Cinebench 24…. ces chiffres font mal. Mais il convient de rappeler que AMD compare ici sa nouvelle puce à l’ancienne génération d’Intel, l’actuelle. 

En jeu, la solution graphique RDNA3.5 semble toujours être à son avantage face aux puces ARC d’Intel. Cela n’est pas une grosse surprise et il conviendra d’ajuster ces scores au moment de la sortie prochaines générations de processeurs du concurrent.

Face à l’Apple M3 c’est également un sans faute pour cette nouvelle génération Ryzen AI 300 avec des chiffres assez hauts mais peu de détails sur les plateformes comparées. 

Une consommation très classique

Les nouveaux processeurs Ryzen AI 300 fonctionneront dans une enveloppe thermique de base de 28 watts. Comme d’habitude chez AMD, cette enveloppe pourra être réglée par le constructeur mais également varier à la volée. Il sera ainsi possible de les proposer entre 15 et 54 Watts directement au sortir de la boite – même si les modèles 54 watts ne devraient pas trop être visibles sur des machines nomades. Mais il sera également possible de proposer aux constructeurs des logiques d’adaptation suivant des profils d’usage. La puce pourra basculer d’un mode ascétique en mobilité à une plus grande puissance une fois de retour à une alimentation sur secteur. 

Cela nous amène à des calculs d’autonomies complexes dans lesquels AMD ne s’est pas engouffré. Le nombre de scénarios étant très vaste entre un portable avec une batterie particulièrement imposante et un autre plus léger, cela n’aurait probablement pas beaucoup de sens. Ce qu’il faut surtout retenir sur ce poste est la large possibilité d’adaptation de ces puces laissée aux constructeurs comme aux utilisateurs. Les scores d’autonomie seront a déterminer avec les machines elles-mêmes.

Evidemment, l’ensemble des acteurs du marché PC a répondu à l’appel et AMD annonce plus de 100 portables différents sous Ryzen AI 300. Dès le mois de juillet. nous devrions commencer a voir des annonces de ces engins même si le gros des troupes ne devrait pas débarquer avant la rentrée de septembre. 

AMD Ryzen AI 300 : un nouveau cocktail à base de Zen5 et RDNA3.5 © MiniMachines.net. 2024.

NVIDIA : IA, IA, GPU Rubin, IA, IA, SFF-Ready, IA, IA…

Huang et Macron sont-ils une seule et même personne ?

La conférence de NVIDIA au Computex était évidemment tournée vers l’IA : « nous sommes à l’aube d’un changement majeur dans l’informatique », déclare le patron de l’entreprise Jensen Huang. « L’intersection de l’IA et de l’informatique accélérée est sur le point de redéfinir l’avenir ».

L’IA est partout : dans les cartes graphiques, les datacenters, les portables, les jeux, les applications… Bref, partout et pour tous, exactement comme le veut Emmanuel Macron.

Mais NVIDIA n’oublie pas (complètement) la partie hardware. S’il n’y a pas de grosses annonces, le patron de l’entreprise donne des détails sur la feuille de route des prochaines années, avec la prochaine génération de GPU pour les datacenters et l’IA. Il en profite aussi pour venir jouer les arbitres dans le domaine des mini-PC et de la compatibilité entre cartes graphiques et boîtiers.

Blackwell : voici GB200 NVL2, avec 2 CPU et 2 GPU


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Computex 2024 : NVIDIA présente son label SFF Enthusiast GeForce

Nous l'évoquions dans une news précédente, NVIDIA souhaitait soutenir le format SFF (Small Form Factor), afin de permettre à chacun de créer son PC au format plus contenu, plus compact. À l'occasion du Computex 2024, NVIDIA a concrétisé ce souhait avec la création du label SFF Enthusiast GeForce, ce dernier sera exploitable, d'une part, par les fabricants de cartes graphiques, les cartes devront mesurer, au maximum, 30.4 centimètres x 15.1 centimètres x 5 centimètres (longueur x hauteur x largeur), afin de ne pas excéder 2.5 slots d'occupation ! […]

Lire la suite

Bon Plan : le jeu Tell Me Why offert par Steam

Le jeu Tell Me Why est offert par le store virtuel Steam, l'ajout est possible ici, vous avez jusqu'au 1er juillet 2024, 19 heures pour effectuer cette opération.Tell Me Why est le dernier jeu d'aventure de DONTNOD Entertainment, le studio à l'origine de la populaire série des Life is Strange. Dans ce mystère intimiste, Tyler et Alyson Ronan, des jumeaux récemment réunis, se servent de leur lien surnaturel afin de dévoiler les souvenirs de leur enfance aimante, mais troublée. Situé dans une petite ville d'Alaska, Tell Me Why comprend des personnages réalistes, des thèmes adultes et des choix captivants. En invoquant les souvenirs du passé, vos choix affecteront la relation entre les jumeaux, détermineront la force de leur lien et traceront le cours de leurs vies. […]

Lire la suite
❌