Vue lecture

ATTENTION, ce soir, à 21 h 30, on bascule nos serveurs !!!

Une petite news rapide pour vous dire que ce soir, nous basculons les serveurs de la Ferme du Hardware chez un nouvel hébergeur. Cela veut donc dire qu'à partir de 21 h 30 le site ne sera plus accessible, et cela, pour une durée que l'on espère la plus courte possible. On espère aussi que la migration se passera sans souci... […]

Lire la suite
  •  

AMD lance la Radeon RX 7700, au GPU sacrément castré mais avec 16Go de VRAM

Cette carte graphique là, on peut sans doute dire que personne ne l'avait vu venir ! Il y avait bien eu des rumeurs au sujet d'une carte du même nom il y a deux ans environ, mais qui n'annonçaient de toute manière pas du tout les caractéristiques de celle qui vient d'être officialisée par AMD en ce...

  •  

$599 MacBook With iPhone Chip Expected To Enter Production This Year

An anonymous reader shares a report: Apple supply chain analyst Ming-Chi Kuo today reiterated that a more affordable MacBook powered by an iPhone processor is slated to enter mass production in the fourth quarter of 2025, which points towards a late 2025 or early 2026 launch. Kuo was first to reveal that Apple is allegedly planning a more affordable MacBook. In late June, he said the laptop would have around a 13-inch display, and an A18 Pro chip. Kuo said potential color options include silver, blue, pink, and yellow, so the laptop could come in bright colors, like 2021-and-newer models of the 24-inch iMac. This time around, he only mentioned the MacBook will have an unspecific iPhone processor. Apple recently introduced the A19 Pro chip, which has 12GB of RAM, so it will be interesting to see if the lower-cost MacBook uses that chip instead. The entire Mac lineup has started with at least 16GB of RAM since last year, with the only option with 8GB being the MacBook with an M1 chip, which is sold exclusively by Walmart for $599.

Read more of this story at Slashdot.

  •  

Bon Plan : Jeu PC Samorost 2 offert sur Epic Games

Samorost 2, c’est l’histoire surréaliste d’un gnome de l’espace dont le chien se fait enlever par des extraterrestres facétieux. Partez pour une brève expédition au secours de votre ami quadrupède, croisez d’étranges étrangers et détendez-vous avec les sonorités apaisantes de la bande-son signée Tomáš Dvořák alias Floex.

Dispo gratuitement sur Epic Games Store

PEGI 7 – Audio et Texte en Français – Windows 

Bon Plan : Jeu PC Samorost 2 offert sur Epic Games © MiniMachines.net. 2025

  •  

LinkedIn s’autorise à utiliser vos données pour l’IA générative, comment refuser

En deux clics
LinkedIn s’autorise à utiliser vos données pour l’IA générative, comment refuser

Pour LinkedIn, utiliser vos données personnelles pour entrainer des IA génératives de contenus relève de l’intérêt légitime. Le réseau social laisse jusqu’au 3 novembre à ses utilisateurs européens pour désactiver cette fonctionnalité.

Il y a un an, jour pour jour, LinkedIn s’accordait le droit d’utiliser vos informations et publications « pour développer les produits et services de LinkedIn et de ses affiliés », y compris pour entrainer des IA génératives. Les utilisateurs avaient alors deux mois pour faire part de leur désaccord et couper cette fonctionnalité, activée par défaut.

LinkedIn utilisera vos données dès le 3 novembre

Les utilisateurs dans l’Espace économique européen, la Suisse et le Royaume-Uni étaient épargnés, mais le réseau social avait prévenu que cela arriverait prochainement. C’est désormais le cas. L’option est là encore activée par défaut et vous avez jusqu’au 3 novembre pour refuser que vos données soient utilisées.

LinkedIn affiche depuis aujourd’hui un message à ses utilisateurs européens, comme nous avons pu le voir à la rédaction : « À compter du 3 novembre 2025, certaines de vos données LinkedIn seront utilisées par l’intelligence artificielle générative pour améliorer votre expérience, sauf si vous le refusez dans vos préférences. Nos conditions générales évoluent aussi : consultez les changements et gérez vos données ». Un lien vers ce billet permet d’en savoir plus.

Pour désactiver cette option, c’est par là que ça se passe. Il suffit de cliquer sur le bouton pour activer/désactiver l’autorisation d’utiliser ses données pour entrainer des IA de génération de contenus.

« Nous nous fondons sur l’intérêt légitime »

« Nous nous fondons sur l’intérêt légitime pour traiter vos données à cette fin », explique LinkedIn pour justifier le « passage en force » avec un opt-out. Cet intérêt légitime est une des bases légales prévues par le RGPD pour des traitements de données personnelles.

« Le recours à cette base légale suppose que les intérêts (commerciaux, de sécurité des biens, etc.) poursuivis par l’organisme traitant les données ne créent pas de déséquilibre au détriment des droits et intérêts des personnes dont les données sont traitées », rappelle la CNIL. Tout est donc une question d’équilibre.

Si on voit bien l’intérêt pour LinkedIn et donc Microsoft de disposer de toujours plus de données, reste la question des « droits et intérêts » des personnes. Le réseau social en tout cas a pris sa décision et de plus amples précisions sur l’intérêt légitime vu du côté de LinkedIn se trouvent sur cette page.

On peut y lire que « les Membres ou les clients peuvent communiquer des données personnelles en tant qu’entrée dans une fonctionnalité d’IA ou d’IA générative, ce qui peut avoir pour effet que des données personnelles figurent dans la sortie ».

LinkedIn ratisse large : « les données que vous fournissez ou que d’autres fournissent dans le cadre de posts, commentaires, articles ou de tout autre contenu sur nos Services, y compris l’historique de recherches, le fil d’actualité, le contenu que vous consultez, le contenu que vous partagez, qui vous suivez ou qui vous suit, vos relations et votre participation, les pages que vous visitez ou les vidéos que vous visualisez, les actions que vous effectuez sur les publicités (vues et clics) et vos recherches d’emploi ».

Refuser l’entrainement n’empêche pas d’utiliser l’IA générative

LinkedIn précise que cette option ne s’applique qu’à « l’entraînement et à l’amélioration des modèles d’IA générative utilisés pour générer du contenu (par exemple, des posts ou messages suggérés). Elle ne s’applique pas à notre entraînement de modèles d’IA utilisés à d’autres fins, comme les modèles que nous utilisons pour personnaliser votre expérience sur LinkedIn ou à des fins de sécurité, de protection ou de lutte contre les abus ».

Si vous désactivez cette fonction, « vous pourrez continuer à utiliser nos fonctionnalités d’IA générative qui créent du contenu […] Cette préférence ne régit pas l’utilisation de vos données lorsque vous ou d’autres personnes utilisez des fonctionnalités d’IA générative sur LinkedIn. Elle régit uniquement l’utilisation de vos données pour l’entraînement des modèles susceptibles d’alimenter ces fonctionnalités ».

Et si vous vous demandez ce que peut proposer LinkedIn avec ses IA génératives : « Nos fonctionnalités d’IA générative peuvent aider les recruteurs à vous trouver et à vous contacter plus facilement, et assister les membres dans la création de contenu tel que des mises à jour de profil, des messages et des publications ».

  •  

NVIDIA pris entre deux feux : on vous explique la bataille entre les États-Unis et la Chine

Il bluffe ! Pas sur ! Si si il bluffe !
NVIDIA pris entre deux feux : on vous explique la bataille entre les États-Unis et la Chine

Le jeu de ping-pong sur les GPU entre les États-Unis et la Chine continue de plus bel. Quand le premier finit, après des mois, par ouvrir un peu les vannes, le second lui répond finalement « non, merci ». Une situation tendue où chacun dégaine des restrictions/taxes/déclarations à tour de rôle, mais qui pourrait se décanter rapidement avec un entretien entre Donald Trump et Xi Jinping prévu demain.

Voilà des années que les États-Unis ont mis en place un embargo sur les ventes de semi-conducteurs vers la Chine, ce qui n’empêche pas toujours des ventes de quelques lots. En première position, on retrouve les GPU NVIDIA, les plus prisés actuellement pour l’intelligence artificielle.

La Chine, comme le reste du monde, a besoin de grosses quantités de cartes graphiques pour entrainer ses modèles d’intelligence artificielle et rester dans la course.

États-Unis vs Chine : rappel des saisons précédentes


Il reste 93% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

LinkedIn s’autorise à utiliser vos données pour l’IA générative, comment refuser

En deux clics
LinkedIn s’autorise à utiliser vos données pour l’IA générative, comment refuser

Pour LinkedIn, utiliser vos données personnelles pour entrainer des IA génératives de contenus relève de l’intérêt légitime. Le réseau social laisse jusqu’au 3 novembre à ses utilisateurs européens pour désactiver cette fonctionnalité.

Il y a un an, jour pour jour, LinkedIn s’accordait le droit d’utiliser vos informations et publications « pour développer les produits et services de LinkedIn et de ses affiliés », y compris pour entrainer des IA génératives. Les utilisateurs avaient alors deux mois pour faire part de leur désaccord et couper cette fonctionnalité, activée par défaut.

LinkedIn utilisera vos données dès le 3 novembre

Les utilisateurs dans l’Espace économique européen, la Suisse et le Royaume-Uni étaient épargnés, mais le réseau social avait prévenu que cela arriverait prochainement. C’est désormais le cas. L’option est là encore activée par défaut et vous avez jusqu’au 3 novembre pour refuser que vos données soient utilisées.

LinkedIn affiche depuis aujourd’hui un message à ses utilisateurs européens, comme nous avons pu le voir à la rédaction : « À compter du 3 novembre 2025, certaines de vos données LinkedIn seront utilisées par l’intelligence artificielle générative pour améliorer votre expérience, sauf si vous le refusez dans vos préférences. Nos conditions générales évoluent aussi : consultez les changements et gérez vos données ». Un lien vers ce billet permet d’en savoir plus.

Pour désactiver cette option, c’est par là que ça se passe. Il suffit de cliquer sur le bouton pour activer/désactiver l’autorisation d’utiliser ses données pour entrainer des IA de génération de contenus.

« Nous nous fondons sur l’intérêt légitime »

« Nous nous fondons sur l’intérêt légitime pour traiter vos données à cette fin », explique LinkedIn pour justifier le « passage en force » avec un opt-out. Cet intérêt légitime est une des bases légales prévues par le RGPD pour des traitements de données personnelles.

« Le recours à cette base légale suppose que les intérêts (commerciaux, de sécurité des biens, etc.) poursuivis par l’organisme traitant les données ne créent pas de déséquilibre au détriment des droits et intérêts des personnes dont les données sont traitées », rappelle la CNIL. Tout est donc une question d’équilibre.

Si on voit bien l’intérêt pour LinkedIn et donc Microsoft de disposer de toujours plus de données, reste la question des « droits et intérêts » des personnes. Le réseau social en tout cas a pris sa décision et de plus amples précisions sur l’intérêt légitime vu du côté de LinkedIn se trouvent sur cette page.

On peut y lire que « les Membres ou les clients peuvent communiquer des données personnelles en tant qu’entrée dans une fonctionnalité d’IA ou d’IA générative, ce qui peut avoir pour effet que des données personnelles figurent dans la sortie ».

LinkedIn ratisse large : « les données que vous fournissez ou que d’autres fournissent dans le cadre de posts, commentaires, articles ou de tout autre contenu sur nos Services, y compris l’historique de recherches, le fil d’actualité, le contenu que vous consultez, le contenu que vous partagez, qui vous suivez ou qui vous suit, vos relations et votre participation, les pages que vous visitez ou les vidéos que vous visualisez, les actions que vous effectuez sur les publicités (vues et clics) et vos recherches d’emploi ».

Refuser l’entrainement n’empêche pas d’utiliser l’IA générative

LinkedIn précise que cette option ne s’applique qu’à « l’entraînement et à l’amélioration des modèles d’IA générative utilisés pour générer du contenu (par exemple, des posts ou messages suggérés). Elle ne s’applique pas à notre entraînement de modèles d’IA utilisés à d’autres fins, comme les modèles que nous utilisons pour personnaliser votre expérience sur LinkedIn ou à des fins de sécurité, de protection ou de lutte contre les abus ».

Si vous désactivez cette fonction, « vous pourrez continuer à utiliser nos fonctionnalités d’IA générative qui créent du contenu […] Cette préférence ne régit pas l’utilisation de vos données lorsque vous ou d’autres personnes utilisez des fonctionnalités d’IA générative sur LinkedIn. Elle régit uniquement l’utilisation de vos données pour l’entraînement des modèles susceptibles d’alimenter ces fonctionnalités ».

Et si vous vous demandez ce que peut proposer LinkedIn avec ses IA génératives : « Nos fonctionnalités d’IA générative peuvent aider les recruteurs à vous trouver et à vous contacter plus facilement, et assister les membres dans la création de contenu tel que des mises à jour de profil, des messages et des publications ».

  •  

Revisiting DDR5-6400 vs. MRDIMM-8800 Performance With Intel Xeon 6 "Granite Rapids"

One of the exciting elements of Intel's Xeon 6 Granite Rapids launch last year was introducing support for MRDIMMs alongside DDR5-6400 memory support. After the Xeon 6900P series debut I posted some of the first independent DDR5-6400 vs. MRDIMM-8800 benchmarks. One year later, today is a fresh look at the DDR5-6400 vs. MRDIMM-8800 performance for Granite Rapids with new/updated benchmarks, the latest Linux software improvements, and also looking at the impact on power and thermals of MRDIMM memory.
  •  

How Americans View AI and Its Impact on People and Society

Key takeaways from a new survey by Pew Research: 1. Americans are much more concerned than excited about the increased use of AI in daily life, with a majority saying they want more control over how AI is used in their lives. 2. Far larger shares say AI will erode than improve people's ability to think creatively and form meaningful relationships. 3. At the same time, a majority is open to letting AI assist them with day-to-day tasks and activities. 4. Most Americans don't support AI playing a role in personal matters such as religion or matchmaking. They're more open to AI for heavy data analysis, such as for weather forecasting and developing new medicines. 5. Americans feel strongly that it's important to be able to tell if pictures, videos or text were made by AI or by humans. Yet many don't trust their own ability to spot AI-generated content.

Read more of this story at Slashdot.

  •  

NVIDIA investit 5 milliards dans Intel : bientôt des CPU avec un GPU RTX !

Le mariage de la carpe et du lapin
NVIDIA investit 5 milliards dans Intel : bientôt des CPU avec un GPU RTX !

Intel et NVIDIA ont posé jeudi les bases d’une collaboration stratégique inédite, qui verra le spécialiste de la carte graphique investir à hauteur de 5 milliards de dollars dans le leader de l’architecture x86. L’accord prévoit notamment qu’Intel intègre des GPU NVIDIA dans certaines de ses puces, mais aussi que les deux industriels fassent converger leurs technologies autour de NVLink dans le datacenter.

Certains y verront un mariage de raison, d’autres un signe des temps : Intel et NVIDIA ont en effet annoncé jeudi un accord de collaboration sans précédent, dont la portée paraitra aussi stratégique que symbolique à ceux qui suivent depuis près de trente ans les démêlés de ces deux piliers du monde informatique.

Selon les termes d’un communiqué, cette collaboration doit leur permettre de développer conjointement « plusieurs générations de produits » sur les segments grand public, entreprises et datacenters, soit en théorie l’ensemble des marchés communs aux deux entreprises.

Des CPU Intel avec un GPU NVIDIA intégré

Quelle nature prendra cette collaboration ? « Intel développera et commercialisera des puces tout-en-un (system-on-chips) intégrant des GPU NVIDIA RTX », destinées à alimenter « une large gamme de PC nécessitant l’intégration de CPU et de GPU de classe mondiale ». La description qu’en font les deux entreprises augure donc des puces tout-en-un signées Intel, mais équipées d’un composant graphique NVIDIA, alors qu’Intel développe aujourd’hui sa propre gamme de contrôleurs graphiques, en intégré ou sous forme de carte dédiée.

Dans le monde du datacenter – de loin le plus significatif pour NVIDIA en matière de chiffre d’affaires, la collaboration porte sur deux aspects. D’abord, le recours à NVLink pour « connecter sans effort les architectures Intel et NVIDIA », ce qui confère en théorie un avantage concurrentiel à Intel vis-à-vis d’AMD dans les systèmes dédiés à l’intelligence artificielle basés sur des GPU NVIDIA.

L’accord prévoit également qu’Intel développe des CPU personnalisés à la demande de NVIDIA, pour que la firme au caméléon puisse les intégrer, à sa façon, dans ses propres plateformes complètes d’IA. Plutôt que de développer ses propres CPU (une intention qu’on prête de longue date à Jensen Huang) ou de devoir mettre en concurrence les différents fournisseurs du marché, NVIDIA disposerait donc ainsi d’une faculté de développement à la carte avec le concours d’Intel.

NVIDIA entre au capital d’Intel

La mise en œuvre de cette collaboration s’accompagne d’un volet financier : NVIDIA s’engage en effet à acquérir pour 5 milliards de dollars d’actions Intel, au prix déterminé de 23,28 dollars, soit un montant légèrement supérieur à celui négocié par l’administration Trump pour formaliser son entrée au capital de la firme de Santa-Clara.

« L’IA alimente une nouvelle révolution industrielle et réinvente chaque couche de la pile informatique, du silicium aux systèmes en passant par les logiciels. Au cœur de cette réinvention se trouve l’architecture CUDA de NVIDIA », souligne Jensen Huang, CEO de NVIDIA. Nul doute qu’il apprécie cette revanche, alors qu’un certain Pat Gelsinger, ancien patron d’Intel, s’est par le passé fendu de quelques déclarations méprisantes au sujet du coup de chance que représentait ce kit de développement conçu pour convertir les cartes graphiques au calcul.

L’accord, qui reste soumis à l’approbation des autorités compétentes, souligne l’inflexion stratégique engagée par Lip-Bu Tan, CEO d’Intel depuis le début d’année. Il illustre aussi combien le rapport financier s’est inversé entre les deux entreprises. Intel, un temps numéro un mondial des semi-conducteurs, pesait avant cette annonce un peu plus de 100 milliards de dollars en bourse quand son concurrent caracole à plus de 4 000 milliards de capitalisation…

Excited to team up with my good friend Jensen to jointly develop multiple generations of custom data center and PC products!

Our collaboration brings together the best of @Intel and @nvidia to benefit customers – and shows how vital x86 architecture and NVLink will be in… pic.twitter.com/lnEtmJW73A

— Lip-Bu Tan (@LipBuTan1) September 18, 2025

  •  

NVIDIA investit 5 milliards dans Intel : bientôt des CPU avec un GPU RTX !

Le mariage de la carpe et du lapin
NVIDIA investit 5 milliards dans Intel : bientôt des CPU avec un GPU RTX !

Intel et NVIDIA ont posé jeudi les bases d’une collaboration stratégique inédite, qui verra le spécialiste de la carte graphique investir à hauteur de 5 milliards de dollars dans le leader de l’architecture x86. L’accord prévoit notamment qu’Intel intègre des GPU NVIDIA dans certaines de ses puces, mais aussi que les deux industriels fassent converger leurs technologies autour de NVLink dans le datacenter.

Certains y verront un mariage de raison, d’autres un signe des temps : Intel et NVIDIA ont en effet annoncé jeudi un accord de collaboration sans précédent, dont la portée paraitra aussi stratégique que symbolique à ceux qui suivent depuis près de trente ans les démêlés de ces deux piliers du monde informatique.

Selon les termes d’un communiqué, cette collaboration doit leur permettre de développer conjointement « plusieurs générations de produits » sur les segments grand public, entreprises et datacenters, soit en théorie l’ensemble des marchés communs aux deux entreprises.

Des CPU Intel avec un GPU NVIDIA intégré

Quelle nature prendra cette collaboration ? « Intel développera et commercialisera des puces tout-en-un (system-on-chips) intégrant des GPU NVIDIA RTX », destinées à alimenter « une large gamme de PC nécessitant l’intégration de CPU et de GPU de classe mondiale ». La description qu’en font les deux entreprises augure donc des puces tout-en-un signées Intel, mais équipées d’un composant graphique NVIDIA, alors qu’Intel développe aujourd’hui sa propre gamme de contrôleurs graphiques, en intégré ou sous forme de carte dédiée.

Dans le monde du datacenter – de loin le plus significatif pour NVIDIA en matière de chiffre d’affaires, la collaboration porte sur deux aspects. D’abord, le recours à NVLink pour « connecter sans effort les architectures Intel et NVIDIA », ce qui confère en théorie un avantage concurrentiel à Intel vis-à-vis d’AMD dans les systèmes dédiés à l’intelligence artificielle basés sur des GPU NVIDIA.

L’accord prévoit également qu’Intel développe des CPU personnalisés à la demande de NVIDIA, pour que la firme au caméléon puisse les intégrer, à sa façon, dans ses propres plateformes complètes d’IA. Plutôt que de développer ses propres CPU (une intention qu’on prête de longue date à Jensen Huang) ou de devoir mettre en concurrence les différents fournisseurs du marché, NVIDIA disposerait donc ainsi d’une faculté de développement à la carte avec le concours d’Intel.

NVIDIA entre au capital d’Intel

La mise en œuvre de cette collaboration s’accompagne d’un volet financier : NVIDIA s’engage en effet à acquérir pour 5 milliards de dollars d’actions Intel, au prix déterminé de 23,28 dollars, soit un montant légèrement supérieur à celui négocié par l’administration Trump pour formaliser son entrée au capital de la firme de Santa-Clara.

« L’IA alimente une nouvelle révolution industrielle et réinvente chaque couche de la pile informatique, du silicium aux systèmes en passant par les logiciels. Au cœur de cette réinvention se trouve l’architecture CUDA de NVIDIA », souligne Jensen Huang, CEO de NVIDIA. Nul doute qu’il apprécie cette revanche, alors qu’un certain Pat Gelsinger, ancien patron d’Intel, s’est par le passé fendu de quelques déclarations méprisantes au sujet du coup de chance que représentait ce kit de développement conçu pour convertir les cartes graphiques au calcul.

L’accord, qui reste soumis à l’approbation des autorités compétentes, souligne l’inflexion stratégique engagée par Lip-Bu Tan, CEO d’Intel depuis le début d’année. Il illustre aussi combien le rapport financier s’est inversé entre les deux entreprises. Intel, un temps numéro un mondial des semi-conducteurs, pesait avant cette annonce un peu plus de 100 milliards de dollars en bourse quand son concurrent caracole à plus de 4 000 milliards de capitalisation…

Excited to team up with my good friend Jensen to jointly develop multiple generations of custom data center and PC products!

Our collaboration brings together the best of @Intel and @nvidia to benefit customers – and shows how vital x86 architecture and NVLink will be in… pic.twitter.com/lnEtmJW73A

— Lip-Bu Tan (@LipBuTan1) September 18, 2025

  •  

Gerbes de blé ou gerbes de sang, le DLSS 4 est à l'aise partout

Dans la journée, le DLSS 4 avec Multi Frame Generation multiplie les performances dans Dying Light: The Beast. Cette technologie est également disponible dans Farming Simulator 25 et la bêta fermée de Mistfall Hunter. Par ailleurs, Jump Space sort cette semaine avec le DLSS Super Resolution, tandis que Gears of War: Reloaded est déjà disponible, lui aussi compatible avec le DLSS Super Resolution. […]

Lire la suite
  •  

Intel et NVIDIA main dans la main (et le portefeuille) pour des processeurs x86 avec un iGPU RTX

C'est l'annonce que personne n'attendait, et elle est bien là : NVIDIA et Intel viennent d'annoncer une collaboration sur plusieurs secteurs. Pour les particuliers, les processeurs Intel auront prochainement le droit à un iGPU NVIDIA RTX. Tout comme il y a quelques années avec AMD sur quelques processeurs fort intéressants, Intel va donc prendre des solutions externes pour booster les performances et proposer des SoC toujours plus polyvalents. Le deuxième secteur concerne, sans grande surprise, l'intelligence artificielle. NVIDIA voulait des processeurs, c'est désormais chose faite sur le papier. Intel produira des processeurs x86 pour NVIDIA qui seront intégrés dans des structures spécifiques. Le tout avec l'utilisation de la technologie NVLink. […]

Lire la suite
  •  

L'Arc A380 en GPU secondaire pour doubler son framerate par IA ? Voilà une upgrade apacher !

Les vieux se souviendront de l’époque du SLI/CrossFire, où l’ajout d’un second GPU permettait de gagner en performance en jeu, et, ainsi, offrir un moyen de mettre à jour sa configuration sans avoir à remplacer totalement sa carte graphique. Les encore plus vieux ont peut-être des souvenirs des prem...

  •  

Nvidia investit massivement dans Intel et promet des puces « Intel x86 RTX »

Les manœuvres autour d’Intel ces derniers mois étaient au moins autant politiques qu’économiques et devaient finalement se solder par un nouveau tournant plus stratégique et technique. C’est chose faite avec une annonce fracassante. Nvidia vient d’annoncer un investissement de 5 milliards de dollars chez Intel tout en prévoyant l’arrivée de plusieurs générations de processeurs développés en commun.

Difficile de savoir si l’administration Trump a tordu le bras aux deux entités pour qu’elles s’entendent ou si un rapprochement concurrentiel pour faire face à AMD était inévitable. L’annonce n’en reste pas moins explosive, les deux frères ennemis vont désormais travailler main dans la main pour développer des solutions communes.

On retrouvera donc de nouvelles générations de puces x86 Intel avec des circuits Nvidia RTX embarqués à destination du marché créatif et des joueurs. Ces processeurs « Intel x86 RTX » seront également accompagnés par des solutions x86 sur mesures pour serveurs correspondant exactement aux besoins et appétits de Nvidia.  Des puces pensées pour les solutions d’IA et les architectures qui leur seront nécessaires. Pour valider ce partenariat, Nvidia va acheter 5 milliards de dollars d’actions Intel pour un montant total de 5% de la société. Un échange de bons procédés qui impactera directement Nvidia d’un point de vue financier en cas d’échec et qui devrait donc assurer que le duo s’implique totalement dans la réussite du projet.

Impossible pour le moment de voir un calendrier quelconque se dessiner autour de ces annonces, les processeurs ne se dessinent pas en quelques semaines. Il faudra du temps pour savoir ce que ces puces pourront donner en termes de produits finis. Pour vous donner une idée, la puce Intel Core i7-88099G lancée par le fondeur en 2018 pour ses NUC et qui embarquait un circuit graphique AMD Vega a demandé plus de trois ans entre son ébauche et sa commercialisation. Tellement de temps que lors de sa sortie, la puce commençait déjà à donner des signes de faiblesse par rapport aux solutions AMD Ryzen concurrentes. Un an plus tard, plus personne ne la proposait et Intel a logiquement décidé d’arrêter les frais. En pratique, les puces Intel ARC sont déjà implantées par package dans les processeurs Intel. On peut donc imaginer un changement pour une solution signée par Nvidia.

L’important est de noter cette arrivée sur le long terme avec une vision sur plusieurs générations de processeurs. Des puces qui vont entrer en concurrence beaucoup plus frontale avec celles d’AMD qui combinent des cœurs Ryzen et des circuits graphiques Radeon. Si cela n’empêchera pas Nvidia de continuer ses propres développements indépendants et en particulier ses architectures ARM, on peut tout de même se demander si cette annonce n’aura pas d’autres effets chez Intel. Je pense notamment aux gammes de puces graphiques Intel qui pourraient sentir le fil d’une lame d’acier sabrer leurs divisions.

Nvidia chez Intel Foundry ?

L’autre grand questionnement vient de l’exploitation massive par Nvidia des services de fonderie d’Intel. D’un point de vue purement économique, la marque aurait tout avantage à rapatrier tout ou partie de sa production chez son nouveau partenaire. Son chiffre d’affaires influe directement ses parts dans l’entreprise. Mais on peut également se demander si Nvidia ne voudrait pas jouer la carte de la prudence. En disséminant ses œufs dans plus de paniers, la marque assurerait une certaine sécurité et garder une partie de sa production chez TSMC semble assez logique pour le moment. En attendant, Nvidia est déjà client d’Intel pour la conception et le prototypage de puces. 

Il est par ailleurs possible que cet aspect soit largement prématuré. Les contrats passés par Nvidia et son fondeur actuel sont signés et, pour le moment, il n’y a pas de raisons de changer. Lorsque les puces Intel x86 RTX seront proposées sur le marché, il sera évidemment temps de revoir l’opportunité d’une gravure en interne1.

Un point important à prendre en compte est dans la possibilité, largement développée par Intel au fil des ans, d’intégrer au mieux des circuits graphiques dans ses processeurs. Avec différents brevets comme Foveros depuis 2018, ou l’intégration Tile comme l’usage d’une architecture 3D initiés avec Meteor Lake. Cela mélangé aux technologies Nvidia comme NVLink pourrait permettre une intégration très intéressante. Largement plus performante que l’usage d’un système basé sur les lignes PCIe, la collaboration via NVLink apporterait une bande passante 14 fois supérieure. Reste à connaitre les impacts en termes de prix, mais aussi de consommation, de tels processeurs. Pas sûr que Nvidia ait spécialement envie de venir concurrencer ses propres circuits graphiques indépendants.

Un des tournants majeurs de ces derniers mois  était dans la volonté de proposer à des acteurs tiers l’expertise de développement d’Intel pour concevoir des puces « sur mesures » pour ses clients. Charge ensuite à ses capacités de fonderie de les produire. Ce partenariat pourrait véritablement lancer cette idée et ainsi concurrencer les excellentes réussites d’AMD dans ce domaine. Le papa des Ryzen ayant su montrer à de multiples reprises qu’il était capable d’assurer un développement adapté à des scénarios précis. Sa réussite dans le développement de puces de consoles comme celles du Steam Deck en étant un excellent indicateur.

Une concurrence très sensible

Intel pèche clairement sur le poste graphique face à AMD aujourd’hui. Sur beaucoup de segments, il faut impérativement recourir à une puce tierce pour obtenir le profil de machine recherché. La fusion des technologies d’Intel et de Nvidia au sein d’un même processeur aura donc l’avantage de combler ce trou et permettra sans doute à l’ensemble de proposer des puces capables de rivaliser avec les futures générations de Ryzen.

Même si, il ne faut pas l’oublier, AMD n’attendra pas ses concurrents les bras croisés et tirera profit de son avance pour continuer à progresser. On peut en tout cas imaginer l’apparition de puces hybrides pouvant enfin répondre pied à pied aux arguments concurrents pour Intel.

Nvidia investit massivement dans Intel et promet des puces « Intel x86 RTX » © MiniMachines.net. 2025

  •