Vue normale

Reçu — 17 mars 2026 Next - Articles gratuits

GeForce RTX : avec DLSS 5 et son rendu photoréaliste, l’IA de NVIDIA va-t-elle trop loin ?

17 mars 2026 à 14:31
(Re)jet avec Force
GeForce RTX : avec DLSS 5 et son rendu photoréaliste, l’IA de NVIDIA va-t-elle trop loin ?

Sur la partie matériel, les annonces de NVIDIA se concentrent exclusivement sur les datacenters et l’IA, avec Vera Rubin en ligne de mire. Pour le grand public et les amateurs de jeux vidéo, pas de nouvelles GeForce RTX, mais des « améliorations » logicielles. Des nouveautés pour DLSS 4.5 arrivent, tandis que DLSS 5 est annoncé… et reçoit un accueil plus que mitigé, accusé par certains d’AI Slop.

En janvier, lors du CES de Las Vegas, NVIDIA présentait la version 4.5 de son DLSS, le Deep Learning Super Sampling, avec la fonction Super Resolution dotée d’un « modèle transformer de deuxième génération », fonctionnant sur toutes les GeForce RTX à partir de la série 20.

DLSS 4.5 avec Dynamic Multi Frame Generation et mode 6x le 31 mars

« Il utilise cinq fois la puissance de calcul du modèle transformer original et a été entraîné sur un ensemble de données haute fidélité considérablement élargi », affirme l’entreprise. Autre annonce à l’époque, l’arrivée au printemps du Dynamic Multi Frame Generation. On connait désormais la date précise : le 31 mars, « dans le cadre de la prochaine bêta opt-in de l’application NVIDIA ».

Cette fonction, explique NVIDIA, ajoute un nouveau mode 6x (cinq images générées par IA pour une image réellement calculée par le GPU) au Multi Frame Generation (MFG) ainsi que le « Dynamic Multi Frame Generation, permettant aux jeux et à l’application NVIDIA d’ajuster le multiplicateur de frames en temps réel pour atteindre la fréquence d’images cible du joueur ou correspondre au taux de rafraîchissement de son écran ».

Ni trop de frames générées par IA (elles seraient inutiles), ni trop peu grâce à un nouveau coefficient 6x. Vous avez un écran à 240 Hz ? DLSS 4.5 avec le mode 6x permet de monter à 240 fps avec seulement 40 fps en sortie de carte graphique.

Actuellement, le mode dynamique ne fonctionne qu’avec un coefficient multiplicateur entier (de x2 à x6), il n’y a pas de multiplicateur avec un nombre à virgule afin de s’approcher au mieux de la fréquence cible de l’écran. Le Dynamic Multi Frame Generation et le mode 6x sont réservés aux GeForce RTX de la série 50.

D’autres annonces avaient été faites lors de la GDC il y a quelques jours, notamment que, « à partir du 19 mars, GeForce Now supportera jusqu’à 90 FPS sur les casques de réalité virtuelle, dont l’Apple Vision Pro et le Meta Quest, contre 60 FPS auparavant ».

DLSS 5 veut « transformer la fidélité visuelle dans les jeux »

En cette période de GTC orientée IA, NVIDIA annonce la suite avec le DLSS 5, mais il faudra être patient puisque l’arrivée n’est prévue qu’à l’automne 2026. NVIDIA n’y va pas avec le dos de la cuillère : « DLSS évolue au-delà de la performance pour transformer la fidélité visuelle dans les jeux ».

Si les modèles d’IA sont capables depuis un moment maintenant de réaliser des images (et donc des vidéos) photoréalistes, ils ont plusieurs problèmes si on veut les utiliser dans des jeux. Ils sont notamment « difficiles à contrôler avec précision et manquent souvent de prévisibilité ». De plus, chaque nouveau prompt change la donne.

« Pour les jeux, les pixels doivent être déterministes, livrés en temps réel et solidement ancrés dans l’univers 3D et l’intention artistique du développeur du jeu ». C’est là qu’entre en piste DLSS 5, affirme NVIDIA, qui « utilise un modèle d’IA pour infuser la scène d’un éclairage photoréaliste et de matériaux ancrés pour fournir du contenu en 3D, et cohérent d’une image à l’autre ». DLSS 5 prendra en charge les résolutions jusqu’à la 4K maximum.

NVIDIA insiste sur son modèle d’IA qui a été entraîné « pour comprendre la sémantique complexe de scènes », aussi bien les personnages, leurs cheveux et leur peau que les conditions d’éclairage ; et « le tout en examinant une seule image ».

Du côté des développeurs, DLSS 5 propose des contrôles pour ajuster l’intensité, l’étalonnage des couleurs, etc. « L’intégration est fluide, utilisant le même framework NVIDIA Streamline que les technologies existantes DLSS et NVIDIA Reflex », affirme NVIDIA. Une longue liste de partenaires est déjà citée : Bethesda, Capcom, NetEase, NCSOFT, Tencent, Ubisoft, Warner Bros. Games…

NVIDIA propose plusieurs vidéos de DLSS, avec (forcément) des résultats « bluffants » (ou inquiétants, cela dépend des points de vues comme nous allons le voir). Il faudra maintenant attendre les tests indépendants pour transformer (ou pas) l’essai. Des « avants / après » sur des images de jeu sont aussi disponibles par ici.

Tollé face au DLSS 5, l’IA va-t-elle trop loin ?

La présentation par NVIDIA a rapidement été émaillée de commentaires acerbes de certains, comme s’en font l’écho plusieurs de nos confrères, notamment Les Numériques. Sur les réseaux sociaux, les mèmes n’en finissent pas de pleuvoir. Quelques exemples sur Bluesky et sur X. Certains parlent même d’AI Slop pour les rendus de DLSS 5.

Voici quelques exemple avant/après, avec une modification assez profonde des visages pour comprendre de quoi on parle (ce sont des images officielles de NVIDIA) :

DLSS 5
DLSS 5

Face au tollé, NVIDIA est sortie du bois avec un commentaire (rappelant les annonces de son communiqué) sous la vidéo de présentation de DLSS 5 :

« Il est important de noter que, grâce à cette avancée technologique, les développeurs des jeux disposent d’un contrôle artistique complet et précis sur les effets DLSS 5, leur permettant ainsi de préserver l’esthétique unique de leur jeu.

Le kit de développement logiciel (SDK) inclut des fonctionnalités telles que le réglage de l’intensité, l’étalonnage des couleurs et le masquage des zones où l’effet ne doit pas être appliqué.

Il ne s’agit pas d’un filtre : DLSS 5 intègre les vecteurs de couleur et de mouvement de chaque image du jeu dans le modèle, ancrant ainsi le résultat dans le contenu 3D source ».

Bethesda (partenaire officiel de NVIDIA sur DLSS 5) aussi a pris la parole : « Nous apprécions votre enthousiasme et votre analyse du nouvel éclairage DLSS 5. Il s’agit d’un aperçu préliminaire, et nos équipes artistiques continueront d’ajuster l’éclairage et l’effet final afin d’obtenir le rendu optimal pour chaque jeu. Ces modifications resteront entièrement sous le contrôle de nos artistes et les joueurs pourront les activer ou les désactiver ».

SSD PCIe 6.0, HBM4 et SOCAMM2 : Micron fait « all-in » sur NVIDIA et l’IA

17 mars 2026 à 12:05
Y’a autre chose que l’IA dans la vie ?
SSD PCIe 6.0, HBM4 et SOCAMM2 : Micron fait « all-in » sur NVIDIA et l’IA

HBM4 pour NVIDIA, SOCAMM2 aussi pour NVIDIA, SSD PCIe 6.0 pour les datacenters pour l’IA : vous voyez un schéma se dessiner dans les annonces de Micron ? Le fabricant fait en effet un « all-in » sur l’IA générative et ses besoins quasi exponentiels en GPU, mémoire et stockage.

Micron, qui souffle le chaud et le froid sur les produits grand public face à la déferlante de l’IA générative, multiplie les annonces à l’occasion de la GTC 2026 (GPU Technology Conference) de NVIDIA.

Elles concernent toutes des produits pour les datacenters, et plus particulièrement les futurs GPU Rubin de NVIDIA… ce qui ne devrait pas aider à sortir de la pénurie pour le grand public et l’explosion des prix que cela entraine. Bien d’autres annonces ont été faites, nous aurons l’occasion d’y revenir.

HBM4 36 Go en production de masse, HBM4 48 Go et HBM4E arrivent

La première concerne la HBM4 (finalisée il y a un an par le JEDEC), la mémoire pour la nouvelle génération de puces Vera Rubin de NVIDIA : les livraisons en volume de modules de 36 Go (12H, soit 12 couches) ont débuté durant ce premier trimestre. Il faut dire que NVIDIA avance à grands pas puisque les « produits basés sur Rubin [le nouveau GPU de NVIDIA, ndlr] seront disponibles auprès de partenaires au second semestre 2026 ».

Micron annonce des débits de 11 Gb/s par broche pour sa HBM4, soit une bande passante totale de plus de 2,8 To/s, « ce qui représente une bande passante 2,3x supérieure et une efficacité énergétique en hausse de 20 % par rapport à la HBM3E ». Dans le même temps, les premiers échantillons de modules de 48 Go (16 couches) sont livrés aux clients pour des tests et des qualifications.

Samsung n’est pas en reste et annonce sa 7e génération de mémoire HBM, avec la présentation pour la première fois d’une puce physique de HBM4E à la GTC, comme le rapporte l’agence de presse Yonhap. Micron aussi a déjà annoncé son intention de se lancer dans la HBM4E, pour 2027 aux dernières nouvelles, avec des modules de 64 Go.

SOCAMM2 chez Micron et SK hynix, là encore dans le sillage de NVIDIA

Toujours selon nos confrères, avec la HBM4E de Samsung, les débits sont en hausse pour atteindre 16 Gb/s par broche, une bande passante totale de 4 To/s. Chez SK hynix, on se contente du minimum, en expliquant simplement que des modules « conçus pour les plateformes d’IA NVIDIA » seront présentés à la GTC, notamment de la HBM4 et de la mémoire SOCAMM2, qui est aussi au cœur des annonces de Micron.

En effet, Micron se place aussi dans le sillage de NVIDIA pour ses modules mémoire SOCAMM2 (Small Outline Compression Attached Memory Module, des modules pour serveurs) qui sont « conçus pour les systèmes NVIDIA Vera Rubin NVL72 ». Par rapport aux modules classiques RDIMM (Registred DIMM), la « consommation d’énergie et l’encombrement sont réduits d’un tiers », affirme le fabricant.

Micron annonce des modules jusqu’à 256 Go (à partir de 48 Go pour les plus petits), soit une capacité totale de 2 To de mémoire et une bande passante de 1,2 To/s sur un processeur avec huit emplacements. Les premiers échantillons de 256 Go sont actuellement expédiés.

Micron 9650 : un SSD PCIe jusqu’à 28 Go/s

Enfin, le fabricant affirme être la « première entreprise à produire en série un SSD pour les datacenters en PCIe Gen 6 » : le Micron 9650. Il est présenté dans des formats E1.S et E3.S. Le fabricant revendique des débits en lecture séquentielle allant jusqu’à 28 Go/s et 14 Go/s en écriture, pour respectivement 5,5 millions et 900 000 IOPS en lecture et écriture aléatoire.

Micron affirme que la production de masse a débuté et que son SSD a été « qualifié par des clients clés en OEM et dans les centres de données IA ».

☕️ NVIDIA donne de nouveaux détails sur son CPU Vera, qui est en « pleine production »

17 mars 2026 à 10:26


Lors du CES de Las Vegas au début de l’année, NVIDIA présentait son nouveau GPU Rubin qui remplacera Blackwell et son CPU Vera qui prendra la place de Grace. Les grandes lignes de Vera étaient déjà connues, comme nous l’expliquions : 88 cœurs (176 threads) Olympus avec une architecture Armv9.2, 176 Mo de cache L2, 162 Mo de cache L3 unifié, jusqu’à 1,5 To de LPDDR5X avec une bande passante de 1,2 To/s maximum, etc.

Durant la GTC 2026, NVIDIA revient sur son nouveau CPU, qui est « en pleine production et sera disponible auprès des partenaires au cours du second semestre de cette année ». NVIDIA donne quelques détails techniques supplémentaires.

Pour commencer, NVIDIA place son CPU face aux processeurs « traditionnels », sans plus de précision sur les références auxquels l’entreprise se compare : « Vera offre des performances deux fois supérieures en termes d’efficacité, mais qu’il est aussi 50 % plus rapide que les processeurs traditionnels ». NVIDIA en profite pour donner une longue liste de partenaires, avec notamment Alibaba, ByteDance, Meta et Oracle.

Le fabricant ajoute que sa puce est « le premier CPU à prendre en charge la précision FP8 » et, c’est dans l’air du temps, qu’il s’agit du « premier processeur au monde conçu spécifiquement pour l’ère de l’IA agentique et de l’apprentissage par renforcement ».

NVIDIA passe à la seconde génération de la structure de cohérence évolutive (SCF). C’est une structure maillée de cache distribué « pour répondre de manière efficace aux défis posés par la mise à l’échelle des cœurs et de la bande passante en matière de consommation et d’espace », explique-t-elle.

Dans la première génération avec les CPU Grace, SCF propose jusqu’à « 3,2 To/s de bande passante de bisection au total, soit le double de celle des processeurs classiques, pour assurer la circulation des données entre les cœurs, la mémoire et les E/S du système ». La structure de cohérence évolutive « réduit les goulots d’étranglement dans les applications nécessitant des mouvements de données, telles que l’analyse de graphes, pour laquelle NVIDIA Grace offre jusqu’à deux fois plus de performances que les principaux serveurs x86 ». Avec la seconde génération de SCF dans le processeur Vera, NVIDIA annonce une hausse de la bande passante, jusqu’à 3,4 To/s.

NVIDIA profite de la GTC pour présenter une baie, équipée d’un refroidissement liquide, avec 256 processeurs Vera soit un total de 22 528 cœurs Olympus. Cette baie utilise la conception modulaire NVIDIA MGX, qui est compatible avec les CPU Grace, Vera ainsi que les x86. De plus amples détails sur MGX sont disponibles par ici, et par là pour le CPU Vera.

Comment concilier proxy (serveur web filtrant) et RGPD ?

17 mars 2026 à 08:14
Intérêt légitime n’empêche pas d’informer, au contraire !
Comment concilier proxy (serveur web filtrant) et RGPD ?

Un proxy permet à une entreprise de renforcer sa sécurité en filtrant le contenu venant d’Internet. Sa mise en place, qui peut avoir un intérêt légitime, soulève des questions au titre du RGPD. La CNIL publie sa recommandation sur les bonnes pratiques et informations à donner aux utilisateurs.

Depuis plusieurs mois, la CNIL consulte et travaille sur une recommandation pour le déploiement d’un serveur mandataire web filtrant (alias un proxy). Un projet a été soumis à consultation entre juillet et fin septembre 2025 ; la version finale est désormais en ligne, comme en atteste sa publication au Journal officiel.

Le but est d’« accompagner les utilisateurs et les fournisseurs de serveurs mandataires web filtrants ». La Commission ajoute néanmoins que cette recommandation « n’a pas de caractère contraignant et ne préjuge pas des obligations légales applicables aux responsables de traitement ».

C’est quoi un serveur mandataire web filtrant (proxy)

La recommandation de huit pages (pdf) commence par rappeler la définition d’un mandataire web filtrant, aussi appelé proxy. Il s’agit d’« un dispositif ou un service relais entre l’équipement client (poste de travail) et le serveur web (sur Internet). Son rôle principal est de bloquer ou restreindre l’accès à certains sites web ou catégories de contenus ». Bien évidemment, les autorisations diffèrent suivant les employés.

Ce genre de service peut être une réponse à l’obligation de sécurisation des données (article 32 du RGPD), mais repose aussi « sur des traitements de données dont la conformité au RGPD doit aussi être assurée ». C’est sur ce point que la CNIL revient en détail.

Intérêt légitime, proportionnalité, minimisation…

Sur les finalités de traitement, certaines mesures sont considérées comme légitimes : « le respect des exigences réglementaires en matière de cybersécurité (notamment l’article 32 du RGPD) ; la protection des systèmes d’information contre les cybermenaces ; la prévention des accès à des sites web illégaux, non conformes à la politique de l’organisme ou à des sites malveillants ». La CNIL prend bien soin de préciser que cela « ne doit pas conduire à une surveillance excessive de l’activité des salariés ».

Sur la base légale du traitement, l’intérêt légitime peut être invoqué, explique la CNIL. Il s’agit pour rappel de l’une « des 6 bases légales prévues par le RGPD autorisant la mise en œuvre de traitements de données à caractère personnels ». Attention, « Il appartiendra alors notamment au responsable de traitement de mettre en balance ses intérêts propres et ceux des personnes concernées ».

Le responsable doit aussi s’assurer de la proportionnalité du traitement. La durée de conservation aussi doit être étudiée ; « une durée supérieure aux préconisations de la CNIL (6 mois à 1 an) doit être justifiée et documentée ».

La minimisation des données est aussi dans la recommandation. Le but est de restreindre l’utilisation des données à caractère personnel à celles strictement nécessaires au regard de chaque finalité, c’est-à-dire les fonctionnalités de filtrage et de journalisation.

Dessin d'un homme invisible, lunettes noires, avec une tapette RGPD
Illustration : Flock

Une analyse d’impact ? C’est une « bonne pratique »

La CNIL donne quelques exemples de données qui peuvent en principe être collectées et traitées : « l’identité de l’utilisateur (gestion des accès web des utilisateurs ou authentification sur le proxy web filtrant) ; l’adresse IP du poste de l’utilisateur ; tout ou partie de l’URL consultée ; l’horodatage de l’accès ; la catégorie de site visité ; l’action (autorisé, bloqué, forcé et/ou ajout demandé – si ces dernières possibilités sont offertes aux utilisateurs) ».

Faut-il une analyse d’impact relative à la protection des données (AIPD), se demande la CNIL ? Ça dépend « de plusieurs facteurs liés aux fonctionnalités retenues et à leurs usages », indique-t-elle prudemment. Si deux des critères suivants sont remplis, alors l’AIPD devrait être réalisée : « collecte de données sensibles ou données à caractère hautement personnel ; collecte de données personnelles à large échelle ; personnes vulnérables ; surveillance systématique ». La Commission estime que, dans tous les cas, une AIPD « devrait être une bonne pratique ».

Attention au déchiffrement HTTPS

La CNIL prend les devants sur le HTTPS en rappelant que « l’URL complète, accessible lors d’un déchiffrement HTTPS, est susceptible de donner accès à des données à caractère personnel ». Il faut donc prendre des précautions. La Commission consacre un encadré au déchiffrement HTTPS : « lorsqu’un déchiffrement est nécessaire, celui-ci ne devrait être réalisé que sur les domaines non listés dans les listes d’exceptions et les données échangées dans les requêtes HTTPS ne devraient pas être conservées (à moins qu’une charge malveillante soit détectée) ».

Enfin, la Commission rappelle que toutes les personnes concernées par le traitement de leurs données, aussi bien employés que visiteurs, doivent être informées, par exemple via le règlement intérieur sous forme d’une charte informatique.

« L’information [doit] être individuelle », rappelle aussi la gardienne des libertés. Enfin, une partie concerne la gestion des logs et les informations qui y sont remontées. Par exemple, elle recommande que « seuls les noms de domaine des sites web bloqués et non catégorisés soient remontés à l’éditeur en vue de leur analyse, sans rattachement à la personne concernée par la tentative d’accès au site ».

Reçu — 16 mars 2026 Next - Articles gratuits

☕️ [MàJ] Les boîtes emails MX Plan d’OVHcloud sont de retour

17 mars 2026 à 07:00


Mise à jour du 17 mars à 8h00. OVHcloud a mis à jour son ticket de support cette nuit pour indiquer que l’incident « a été résolu ». La cause profonde a été causée par « un problème logiciel », sans plus de détails.

Mise à jour du 16 mars à 18h25. OVHcloud précise que cette panne fait suite à la procédure de migration en cours des boîtes Outlook Web Access vers Zimbra (de décembre 2025 à mai 2026). L’hébergeur assure que « les emails envoyés ou reçus seront stockés et livrés une fois l’opération terminée ». OVHcloud précise que cela ne concerne que les MX Plan.

Brief original du 16 mars à 17h21. Via un message publié sur sa page de statut, OVHcloud explique à ses clients qu’il rencontre actuellement un incident : « L’accès aux boîtes aux lettres et au webmail est indisponible ». « Nous avons déterminé l’origine du problème affectant notre offre de solutions collaboratives », ajoute l’hébergeur, mais sans donner plus de précisions.

« Les clients ne peuvent actuellement pas accéder à leurs boîtes aux lettres, ce qui signifie qu’ils ne peuvent ni lire, ni envoyer ni gérer leurs e-mails », détaille l’entreprise roubaisienne. Cela concerne aussi bien les clients Plan MX.

Via le chat, nous demandons au service client si les emails reçus pendant cette période seront quand même dans la boite de réception après l’incident. Réponse de l’agent (humain) : « Je ne peux pas répondre pour le moment car nous n’avons pas l’information ». OVHcloud ne donne aucune prévision quant au délai de retour à la normale.

☕️ Adobe et ses « procédures alambiquées » : un accord avec le DOJ à 150 millions de dollars

16 mars 2026 à 08:32


En 2024, le Département de la Justice des États-Unis (DOJ) attaquait Adobe en justice sur ses pratiques en matière de résiliation d’abonnements (dont la suite Creative Cloud). Aujourd’hui, Adobe transige : « Bien que nous contestions les affirmations du gouvernement et niions toute malversation, nous sommes heureux de régler cette affaire ».

L’éditeur annonce deux choses. Tout d’abord, « fournir gratuitement des services d’une valeur de 75 millions de dollars aux clients admissibles ». Une fois l’accord entériné par le tribunal (ce n’est pas encore fait), Adobe contactera de manière proactive les clients concernés. De plus, Adobe a « accepté de verser 75 millions de dollars au ministère de la Justice ».

Dans sa plainte, le DOJ n’était pas tendre avec les pratiques d’Adobe : « Lors de l’inscription, Adobe dissimule des conditions importantes de son plan APM [Annual, Paid Monthly, ndlr] en petits caractères, derrière des encadrés et des liens hypertextes optionnels, fournissant des informations conçues pour passer inaperçues et que la plupart des consommateurs ne consultent jamais ».

De plus, « Adobe dissuade ensuite les résiliations en employant une procédure de résiliation lourde et complexe ». Vous en voulez encore ? « Dans le cadre de cette procédure alambiquée, Adobe tend un guet-apens à ses abonnés avec des frais de résiliation anticipée (ETF), auparavant masqués, lorsqu’ils tentent de résilier ». Pour le Département de la Justice, « Adobe a enfreint les lois fédérales destinées à protéger les consommateurs ».

Adobe n’est évidemment pas du même avis et affirme être « transparent sur les termes et les conditions des contrats d’abonnement et disposer d’un processus d’annulation simple ». L’entreprise ajoute néanmoins « Ces dernières années, nous avons rendu nos processus d’inscription et d’annulation encore plus fluides et transparents ».

Adobe creative Cloud

Dans un communiqué, le DoJ en rajoute une couche : « Adobe avait contrecarré les tentatives d’annulation des abonnés, les soumettant à des processus d’annulation complexes et inefficaces, remplis d’étapes inutiles, de retards, d’offres non sollicitées et d’avertissements ». Il ajoute que « Adobe devra clairement préciser tout frais de résiliation anticipée et la manière dont le paiement est effectué avant la souscription des clients aux abonnements ».

Cette annonce arrive quelques heures seulement après celle du départ de Shantanu Narayen, qui est CEO d’Adobe depuis 18 ans. Le communiqué est très poli en remerciant chaleureusement le futur ex-patron, mais selon Bloomberg, il démissionnerait suite à des « préoccupations des investisseurs concernant l’IA ».

☕️ DirectStorage 1.4 avec compression zstd et Game Asset Conditioning Library

16 mars 2026 à 07:27


DirectStorage est une fonctionnalité permettant aux GPU de discuter directement avec les périphériques de stockage de l’ordinateur, en évitant donc un passage par le processeur central. L’API vient de passer en version 1.4, avec comme principale nouveauté la prise en charge du codec zstd (ou ZStandard).

Cet algorithme est largement répandu ; nous avions d’ailleurs passé au crible ses performances en les comparant avec celles de plus d’une dizaine d’autres codecs. Microsoft a mis en ligne du code sur GitHub pour son utilisation avec les GPU.

Pour Microsoft, zstd a plusieurs avantages dans ce cas d’usage : il « se distingue par ses taux de compression et ses performances de décompression, sa large disponibilité sur le matériel et les logiciels à travers les systèmes d’exploitation, et son adoption généralisée dans les systèmes d’exploitation, le cloud et le web ».

GeForce RTX 40 Super

L’entreprise annonce dans le même temps sa Game Asset Conditioning Library (GACL), elle aussi sur GitHub. Elle propose « plusieurs composants pour améliorer la compression des assets du jeu ». Les textures sont la priorité de cette bêta car elles représentent la plus grosse taille des packages dans la plupart des jeux, explique Microsoft.

GACL « prépare » le contenu qui va être envoyé à zstd pour que les algorithmes de compression soient les plus efficaces possible. La Game Asset Conditioning Library « est conçue pour fonctionner avec le contenu existant, offrant jusqu’à 50 % d’amélioration des taux de compression Zstd pour vos assets, tout en maintenant un coût de décompression à l’exécution bas lorsqu’il est utilisé avec DirectStorage », affirme l’éditeur. Tous les détails se trouvent par ici.

Reçu — 13 mars 2026 Next - Articles gratuits

☕️ CEO depuis 18 ans d’Adobe, Shantanu Narayen va démissionner… à cause de l’IA ?

13 mars 2026 à 10:00


Dans un communiqué, Adobe explique que Shantanu Narayen démissionnera de son poste de CEO une fois que son successeur sera trouvé. Il restera par contre président du conseil d’administration pour assurer la transition. C’est Frank Calderoni, administrateur indépendant d’Adobe, qui dirige un comité spécial en charge d’examiner les candidatures, aussi bien internes qu’externes.

Il en profite pour jeter des fleurs au futur ex-CEO, qu’il présente comme « architecte de la transformation d’Adobe au cours des 18 dernières années, et pour avoir positionné avec succès Adobe dans une ère pilotée par l’IA ». Shantanu Narayen a publié un mémo pour ses équipes. Il évoque lui aussi l’intelligence artificielle : « La prochaine ère de la créativité est en train de s’écrire – façonnée par l’IA, par de nouveaux flux de travail et par des formes d’expression entièrement nouvelles. Adobe n’a jamais attendu l’arrivée du futur. Nous l’avions anticipé. Nous l’avons construit ».

Bloomberg n’est pas vraiment du même avis : « Le CEO d’Adobe va démissionner face aux préoccupations des investisseurs concernant l’IA », titrent nos confrères. Adobe « fait partie d’un groupe d’entreprises de logiciels applicatifs, dont Salesforce Inc et Atlassian Corp, perçues comme ayant du mal à conquérir de nouveaux clients face aux nouveaux arrivants de l’IA », affirment-ils.

Toujours selon Bloomberg, les investisseurs étaient de plus en plus nombreux à remettre en question les choix et l’orientation de Shantanu Narayen pour Adobe. « L’IA générative a facilité la création de médias visuels sans les produits coûteux d’Adobe. Beaucoup des nouveaux outils créatifs d’IA les plus populaires, comme les modèles d’IA Veo 3 de Google, sont développés par des concurrents ». L’IA est pourtant au cœur des annonces des conférences MAX depuis quelque temps maintenant, mais ce n’est a priori pas suffisant.

En bourse, le cours de l’action d’Adobe est en baisse depuis maintenant près de deux ans. Après une année 2021 au plus haut, la chute a été brutale en 2022, avant une remontée en 2023 et 2024. Actuellement, l’action est à 270 dollars, en dessous des 275 dollars de septembre 2022 quand Adobe était dans le creux de la vague.

☕️ Une nouvelle version de TrueNAS arrive : Connect, avec des fonctions payantes

13 mars 2026 à 07:40


iXsystems, qui s’occupe du développement de TrueNAS, affirme que ses utilisateurs demandaient depuis longtemps un « moyen d’accéder aux fonctionnalités de TrueNAS Enterprise sur leur propre matériel ».

Comme l’expliquent les développeurs, il y a actuellement deux îlots distincts de TrueNAS : Community Edition (CE) en open source et Enterprise disponible seulement avec des NAS vendus par l’entreprise. TrueNAS Connect vient faire le pont entre les deux, avec des fonctions supplémentaires par rapport à CE, mais pas toutes celles de TrueNAS Enterprise non plus.

iXsystems présente Connect comme un panneau de contrôle en ligne pour simplifier la gestion de TruNAS : « depuis une seule interface, vous pouvez gérer plusieurs systèmes, surveiller l’état du système, configurer des alertes, visualiser le matériel et effectuer des installations web. TrueNAS Connect fonctionne sur votre réseau en utilisant des web sockets sécurisés, une authentification OAuth simple, et aucun matériel supplémentaire ».

Cette nouvelle version sera disponible avec un premier palier gratuit « Foundation », avec deux systèmes TrueNAS maximum et un suivi en temps réel, mais aussi des publicités dans les emails et l’interface en ligne. L’offre « Plus » est annoncée à 60 dollars par an (actuellement en promotion à 30 dollars) avec des fonctionnalités supplémentaires, puis arrivera plus tard « Business » pour ceux qui ont besoin de gérer davantage de machines.

iXsystems affirme enfin que « TrueNAS Community Edition restera toujours une solution de stockage sans frais. Aucune fonctionnalité existante ne sera payante, et de nouvelles seront ajoutées comme toujours. TrueNAS Connect est totalement optionnel ».

La première bêta de TrueNAS 26 (avec la nouvelle numérotation des versions) est toujours prévue pour avril, avec la version finale attendue pour le troisième trimestre.

Reçu — 12 mars 2026 Next - Articles gratuits

☕️ Fedora 44 disponible en bêta

12 mars 2026 à 07:16


Un peu moins de cinq mois après la mise en ligne de la version finale de Fedora 43, l’équipe en charge du projet a publié cette semaine la première bêta de la 44, aussi bien en version Workstation que KDE Plasma Desktop, Server, IoT et Cloud.

Parmi les changements, le passage au noyau Linux 6.19, l’environnement de bureau Gnome 50 ou KDE Plasma 6.6 suivant les versions. Bien d’autres changements sont de la partie, comme en témoignent les notes de version.

Comme toujours, à utiliser en connaissance de cause, une bêta peut rencontrer des problèmes de stabilité. Pour télécharger une des versions de Fedora, c’est par ici que ça se passe (y compris en LiveCD si vous voulez simplement tester).

Reçu — 11 mars 2026 Next - Articles gratuits

Intel lance ses premiers Core Ultra en version « Plus »

11 mars 2026 à 17:07
Vivement les Pro Max à ce rythme…
Intel lance ses premiers Core Ultra en version « Plus »

Intel annonce les deux premiers processeurs « Plus » de sa gamme Core Ultra 200S (Arrow Lake) : les Ultra 7 270K Plus et Ultra 5 250K Plus. Le fondeur met en avant de « nouvelles fonctionnalités et des améliorations architecturales ».

Commençons par les présentations des caractéristiques techniques : les Core Ultra 7 270K(F) Plus et Ultra 5 250K(F) Plus « disposeront d’un plus grand nombre de cœurs et d’une augmentation de fréquence die-to-die pouvant atteindre 900 MHz par rapport aux processeurs » classiques, non « Plus ».

Les Core Ultra 200S ont été lancé fin 2024, mais un an plus tard (en septembre 2025), Intel reconnaissait officiellement avoir « raté le coche », tout en promettant de se rattraper. David Zinsner, directeur financier d’Intel et co-CEO par intérim à l’époque, n’expliquait pas comment. Cette version « Plus » pourrait être un début de réponse.

Quatre E-Core et 100 MHz en boost de plus par rapport aux 264K et 245K

Voici sans plus tarder les caractéristiques techniques des nouveaux processeurs :

Core Ultra 5 250K Plus :

  • 18 cœurs et 18 threads : 6x P-Cores et 12x E-Core
  • Jusqu’à 5,3 GHz sur les P-Core, 4,7 GHz sur les E-Core
  • 199 dollars

Core Ultra 7 270K Plus :

  • 24 cœurs et 24 threads : 8x P-Cores et 16x E-Core
  • Jusqu’à 5,5 GHz sur les P-Core, 4,7 GHz sur les E-Core
  • 299 dollars

C’est donc 100 MHz de plus sur les P-Core et E-Core, avec quatre E-Core de plus par rapport aux Ultra 7 265K(F) et Ultra 5 245K(F)… et rien de plus ? Si. Comme indiqué précédemment, Intel a procédé à des changements sous le capot, notamment sur les fréquences d’autres éléments que les cœurs eux-mêmes.

900 MHz de plus pour le D2D, Binary Optimization Tool

C’est le cas de la liaison avec la mémoire et les cœurs. « Certaines de ces fréquences ont été augmentées de près d’un GHz, ce qui réduit la latence et augmente les performances », notamment dans les jeux. 900 MHz de plus, mais par rapport à quoi comme fréquence de base ? 2,1 GHz, selon plusieurs de nos confrères, donc un saut important.

Plus précisément, « la fréquence d’horloge de la liaison die-to-die (D2D) entre la tuile du SoC d’Arrow Lake (où se trouve le contrôleur de mémoire) et celle de calcul (avec les cœurs du processeur) est considérablement augmentée, passant de 2,1 GHz sur les puces Arrow Lake normales à 3,0 GHz sur les puces plus, soit une augmentation de 900 MHz (43 %) », explique ServeTheHome.

Autre amélioration, l’Intel Binary Optimization Tool. L’entreprise explique qu’elle peut, à partir d’une charge de travail existante, « comprendre exactement comment elle utilise le processeur, et si elle n’est pas aussi optimale qu’elle pourrait l’être, nous pouvons restructurer et rationaliser cette application pour qu’elle fonctionne mieux sur un CPU Intel x86 ».

Avec tout cela, Intel annonce 15 % de performances en plus sur le Core Ultra 7 270K Plus par rapport au 265K, contre 13 % pour le 250K Plus par rapport au 245K.

Support des barrettes de mémoire 4R CUDIMM

Intel affirme que n’importe quelle carte mère avec un chipset de la série 800 fonctionnera avec ces nouveaux CPU. Une mise à jour du BIOS peut être nécessaire, mais « le système démarrera », affirme le fondeur.

Sur la mémoire, Intel annonce une prise en charge précoce des barrettes 4R CUDIMM, avec 4R pour 4-Rank, en opposition aux modules 1R et 2R qui étaient déjà supportés. La carte mère peut ainsi prendre en charge des modules de 128 Go, et ainsi monter à 256 Go avec deux barrettes ou 512 Go avec quatre, « sans compromettre les taux de transferts, la latence ou la bande passante ».

Enfin, la mémoire DDR5-7200 est prise en charge, alors que la génération précédente s’arrête à la DDR5-6400. Rendez-vous le 26 mars pour le lancement.

Fin de la 2G, 3G et xDSL : un décret pour « garantir la sécurité des ascenseurs »

11 mars 2026 à 09:39
Quid du reste ?
Fin de la 2G, 3G et xDSL : un décret pour « garantir la sécurité des ascenseurs »

La fin des réseaux d’anciennes générations soulève des inquiétudes sur de nombreux service utilisant encore la 2G par exemple pour des alertes. C’est notamment le cas des ascenseurs, dont un décret vient préciser les modalités de contrôle. Une première étape, mais il en reste encore bien d’autres alors que la 2G va commencer à s’éteindre dans moins de trois semaines.

Le décret 2026 - 166 du 4 mars et publié au Journal officiel du 6 mars vise « à garantir la sécurité des ascenseurs face à l’arrêt de certains réseaux téléphoniques ». En l’occurrence, il s’agit de la fin du xDSL (paire de cuivre, remplacée par la fibre optique), de la 2G et de la 3G.

Toutes les six semaines, vérification « des moyens d’alerte »

Le texte s’adresse aussi bien aux propriétaires et installateurs d’ascenseurs qu’aux entreprises d’entretien et aux contrôleurs techniques. L’article R134-6 détaille les dispositions minimales suivantes que le propriétaire d’une installation d’ascenseur doit prendre, comme l’explique Locatis, un média de la Banque des Territoires.

Cela comprend notamment, dans la version actuelle du texte, « une visite toutes les six semaines en vue de surveiller le fonctionnement de l’installation et effectuer les réglages nécessaires ». À partir du 1ᵉʳ avril 2026, s’ajoutera « la vérification toutes les six semaines du bon fonctionnement des moyens d’alerte et de communication avec un service d’intervention ».

De plus, le propriétaire de l’ascenseur doit être informé par le prestataire (lettre recommandée avec avis de réception) lorsque les systèmes d’alertes « fonctionnent grâce au réseau téléphonique commuté fixe ou à un réseau de téléphonie mobile ouvert au public de troisième génération ou antérieur, et lorsque des travaux sont nécessaires à la mise à niveau de ce matériel ». Jusqu’à ce que les travaux soient faits, l’alerte doit être renouvelée tous les six mois par le prestataire.

Contrôle technique renforcé pour les ascenceurs

Comme indiqué dans l’article R134-11, le propriétaire d’un ascenseur doit faire réaliser tous les cinq ans un contrôle technique de l’installation. À compter du 15 mai 2026, de nouvelles obligations s’ajouteront afin « de vérifier que les ascenseurs sont équipés des dispositifs permettant la réalisation des objectifs de sécurité mentionnés à l’article R. 134 - 2, que ces dispositifs sont en bon état et que les moyens d’alerte et de communication avec un service d’intervention sont compatibles avec les systèmes de communication autres que le réseau téléphonique commuté fixe ou un réseau de téléphonie mobile ouvert au public de troisième génération ou antérieur ».

Le travail de migration est important, comme l’expliquait le spécialiste des ascenseurs Kone il y a un an. Sur l’intégralité du parc d’ascenseurs dont il a la gestion, « environ 30 % utilisent encore des lignes filaires et 20 % fonctionnent en 3G ». Les ascenseurs sont une des composantes importantes de la fin des réseaux d’anciennes générations (DSL, 2G et 3G), mais ce n’est pas la seule. Il y a aussi le cas des systèmes d’alarme, d’appareils de santé (connectés), de voitures, etc.

Dans moins d’un mois, Orange va commencer à couper la 2G

La fin de la 2G sera une réalité à partir d’avril 2026 chez Orange (de manière progressive), puis fin 2026 chez Bouygues Telecom et SFR. Free Mobile n’a pas de 2G et s’appuie exclusivement sur le réseau d’Orange.

Orange prépare des vagues successives dans neuf départements du Sud-Ouest. Le 31 mars 2026 à Biarritz, Anglet et Bayonne, le 12 mai 2026 dans les Landes (40) et le reste des Pyrénées-Atlantiques (64), le 09 juin 2026 en Ariège (09), en Haute-Garonne (31), dans le Gers (32), le Lot (46), le Lot-et-Garonne (47), les Hautes-Pyrénées (65) et le Tarn-et-Garonne (82).

Ensuite, à partir de fin septembre 2026, « la 2G sera définitivement arrêtée dans le reste de la France métropolitaine. Fin décembre 2026, la technologie 2G devrait donc avoir totalement disparu de l’ensemble du réseau mobile d’Orange en France métropolitaine ».

Pour la 3G, l’échéance est à fin 2028 pour Orange et SFR, fin 2029 pour Bouygues Telecom. Free Mobile a déjà fermé sa 3G, qui passe elle aussi par un accord d’itinérance avec Orange, au grand dam de Bouygues Telecom et SFR.

Selon le dernier décompte de l’Arcep, 2,66 millions de terminaux utilisaient encore la 2G fin 2025. On passe à 5,61 de terminaux en 2G/3, dont 2,62 millions « de cartes SIM dans des terminaux pour des usages voix/SMS/internet mobile (en particulier des téléphones mobiles et tablettes) des abonnés de Bouygues Telecom, Free Mobile, Orange et SFR ».

Pour la fermeture cuivre, seul Orange est aux commandes. L’entreprise a passé la seconde en ce début d’année, avec la fermeture commerciale pour 20 millions de logements. La fermeture technique, avec coupure des abonnements existants, a aussi débuté et va s’intensifier jusqu’à fin 2030, avec l’arrêt définitif et complet du cuivre.

Reçu — 9 mars 2026 Next - Articles gratuits

☕️ Projet Helix : la console Next Gen de Microsoft, compatible avec les jeux Xbox et PC

9 mars 2026 à 07:18


Fin février, la division Xbox de Microsoft vivait un important séisme : Phil Spencer (38 ans d’ancienneté, présent pour le lancement de toutes les consoles) était remplacé par Asha Sharma. Elle est désormais CEO de Microsoft Gaming, alors qu’elle s’occupait depuis deux ans de la branche produit de Microsoft CoreAI.

Sur X, elle a publié un message annonçant le « projet Helix, nom de code de notre console de nouvelle génération ». Son message est relativement court, sans aucun détail. Elle précise simplement que « project Helix offrira des performances exceptionnelles et sera compatible avec vos jeux Xbox et PC ».

Elle donne rendez-vous aux « partenaires et studios » à la GDC (Game Developers Conference) qui se tient cette semaine, au Moscone Center de San Francisco. Un rendez-vous important de la communauté où elle devra prendre ses marques et s’imposer alors que le « fantôme » de Phil Spencer (qui a écumé les GDC pendant des années) sera certainement présent.

Lors de la présentation des résultats financiers au début du mois, la CEO d’AMD, Lisa Su, expliquait que « le développement de la Xbox de nouvelle génération, équipée d’un SoC semi-personnalisé AMD, progresse bien pour épauler un lancement 2027 », rapporte The Verge. AMD ne dit pas que Microsoft lancera sa console en 2027, mais se tient prêt si besoin.

L’année dernière, le compte officiel Xbox annonçait sur X « construire la prochaine génération d’appareils et de services cloud Xbox, y compris nos futures consoles Xbox, en collaboration avec AMD ». Asha Sharma a donné le coup d’envoi de la guerre des consoles « next gen », à voir maintenant ce qui va en sortir durant la GDC, et notamment si Sony va entrer dans la partie avec la PlayStation 6.

Reçu — 6 mars 2026 Next - Articles gratuits

[MàJ] YggTorrent (et YGG) S01E42 : retour (encore) abandonné, Gr0lum aurait été identifié

13 mars 2026 à 08:10
Bonne ambiance !
[MàJ] YggTorrent (et YGG) S01E42 : retour (encore) abandonné, Gr0lum aurait été identifié

YggTorrent est mort, mais il bouge encore. Le message affiché sur la page d’accueil change, répond à certaines accusations et propose désormais les noms de domaine à la vente… « exclusivement pour un projet légal ». Pendant un temps, un compte à rebours annonçait un retour, sous la forme Ygg tout court.

Mise à jour du 13 mars à 8h15. La page a de nouveau été modifiée, le compte à rebours supprimé. Un nouveau message annonce désormais que « le relancement initialement envisagé est abandonné, faute des conditions nécessaires pour poursuivre le projet dans un contexte marqué par des cyberattaques répétées ». YGGtorrent remonte aussi la piste de Gr0lum. L’actualité a été mise à jour en conséquence.

Mise à jour du 6 mars à 12h55. Le compte à rebours est de retour, toujours avec un rendez-vous lundi à 21 h.


Article du 6 mars à 9 h 33. En début de semaine, le site YggTorrent annonçait sa fermeture, suite à un piratage massif de ses données : pas moins de 30 Go ont été publiées avec des informations sur le code source, les utilisateurs, bancaires, etc. Le pirate expliquait aussi en détail comment il était entré dans les serveurs.

Le message de l’équipe d’YggTorrent était alors clair, sans ambiguïté : il débutait par « Fermeture définitive de YggTorrent » et se terminait par « L’histoire s’arrête ici ». Une « reconstruction serait techniquement possible », affirmait l’équipe, mais elle ne souhaitait pas « continuer dans un climat d’acharnement permanent ». Mais en fait non, l’histoire ne s’arrête pas là.

Nouveau message, toujours une « fermeture définitive »

Un nouveau texte a été mis en ligne sur le site de YggTorrent. Il est plus court et moins dans l’émotion que le premier et donne de nouvelles informations. Tout d’abord, le site affirme qu’« aucune donnée bancaire n’a jamais été collectée ni stockée par nos systèmes, et l’ensemble des mots de passe des comptes actifs étaient protégés par un hachage cryptographique sécurisé ». Il était auparavant précisé que les mots de passe étaient « hachés et salés ».

Il n’est plus du tout question des « portefeuilles crypto destinés uniquement au financement des serveurs, représentant plusieurs dizaines de milliers d’euros, [qui] ont également été dérobés (un détail que certains choisiront d’ignorer) ». Le site affirme que « les auteurs de l’attaque multiplient les déclarations mensongères […] Ils déforment les faits, fabriquent de fausses preuves et comptent sur la confusion pour imposer leur version ». À ce petit jeu, l’équipe d’YggTorrent semble aussi participer…

Offre légale mise en avant, l’intégralité des noms de domaine est à vendre

Enfin, comme précédemment, l’offre légale est mise en avant : « Ne vous laissez pas tromper et tournez-vous plutôt vers les nombreuses solutions légales désormais disponibles ». Le site est désormais divisé en deux, avec la partie droite qui met en avant les plateformes légales comme Netflix, Canal+, Disney+, Prime, France.tv, Arte…

Il est par ailleurs précisé que « l’intégralité de nos noms de domaine est à vendre, exclusivement pour un projet légal, sans aucun lien avec le torrenting ni le téléchargement d’œuvres protégées. Les demandes non sérieuses seront ignorées ».

Il y a peu, un compte à rebours annonçait… un retour d’Ygg

Mais ne pensez pas que l’histoire s’arrête là ! Avant cette mise en vente, il y a eu un retour annoncé de Ygg (sans le Torrent) avec un compte à rebours, comme le rapporte ZDNet, avec le message « Quelque chose se prépare », et une phrase en russe : « il est trop tôt pour nous enterrer ». Le rendez-vous était pour lundi 16 mars à priori, mais le compte à rebours a disparu… pour l’instant ? Le site est cette semaine en mode girouette, bien malin celui qui arrive à prévoir le prochain coup.

En effet, quelques heures avant la capture d’écran de ZDNet, un utilisateur sur X faisait état d’encore une nouvelle version du site, déjà avec un compte à rebours, mais surtout avec un « communiqué », que l’on retrouve aussi sur Reddit. Le message affirmait déjà qu’« aucune donnée bancaire n’a jamais été collectée, stockée ni traitée par nos systèmes ».

Le communiqué ajoutait que « notre architecture n’a à aucun moment intégré de module de stockage d’informations de cartes de paiement. Les allégations contraires sont factuellement fausses […] Le recours au hachage MD5 évoqué concerne exclusivement moins de 3 % des comptes utilisateurs ». Communiqué qui n’est aujourd’hui plus disponible.

Selon le texte qui était alors disponible, le site rejette la faute du piratage sur son hébergeur, sauf que comme l’a montré Grolum dans sa longue explication, cela ne colle pas vraiment avec ses explications.

Retour du compte à rebours

Dans la matinée, le compte à rebours était de retour, comme nous l’a signalé Droup dans les commentaires. Le reste du message, y compris la vente des noms de domaine, est le même. Seule différence, le mot Torrent de YggTorent est barré.

On retrouve donc le message « YggTorrentest mort », « Quelque chose se prépare » et « Non omnis moriar ». Du latin qui, d’après DeepL, se traduirait par « Je ne mourrai pas complètement ». Rendez-vous lundi à 21 h… du moins si le compte à rebours reste en place et annonce vraiment quelque chose. Le code source de la page ne semble pas cacher de secret particulier.

Encore une « fermeture définitive » de YGGtorrent (et YGG)

Finalement, pas besoin d’attendre lundi 16 mars. Hier, un nouveau message est arrivé : « YGGtorrent / YGG. Fermeture définitive ». La « fermeture définitive de YggTorrent » avait déjà été annoncée au début de cette affaire. Le billet de l’époque se terminait par « l’histoire s’arrête ici »… autant dire que c’est loin d’être le cas.

Cette nouvelle « fermeture définitive » concerne cette fois-ci aussi bien YGGtorrent que le nouveau projet YGG. La suite du message ne laisse aucune place au doute :

« Après plusieurs années d’activité, nous mettons fin à l’ensemble des services YGGtorrent / YGG (site, tracker et infrastructure). Le relancement initialement envisagé est abandonné, faute des conditions nécessaires pour poursuivre le projet dans un contexte marqué par des cyberattaques répétées […] Aucun retour n’est prévu. Méfiez-vous des sites ou services se présentant comme des alternatives dans les semaines à venir : la plupart sont malveillants. Restez vigilants ».

L’offre légale est de nouveau vantée, et la vente des noms de domaine – « qui continuent de générer un volume de trafic significatif » – toujours d’actualité. YGGtorrent annonce aussi que « l’auteur de l’intrusion et de la fuite de données a été identifié », avec un lien vers cette page.

Pour YGGtorrent, pas de doute : « Gr0lum est @uwudev »

L’équipe de YGGtorrent y affirme que Gr0lum aurait envoyé un email « exigeant 300 XMR (plus de 100 000 $) en échange du non-leak des données de l’infrastructure ». Refus de YGGtorrent et publication des données, comme nous l’avons expliqué.

Ils ajoutent que Gr0lum aurait aussi envoyé un « faux signalement à Cloudflare prétendant que ygg.guru sert de serveur C2 pour un ransomware », puis « compile un véritable ransomware intégrant un appel vers ygg.guru/api/health ». « Cette opération a porté ses fruits : à la suite de ces faux signalements, le domaine ygg.guru a été placé en onhold par le registrar, rendant le nouveau site inaccessible ».

L’équipe de YGGtorrent remonte ensuite la piste de Gr0lum pour essayer de trouver qui se cache derrière ce pseudo. Leur enquête aurait porté ses fruits (on passe directement à la conclusion) : « Les éléments présentés dans ce dossier ne laissent aucun doute : Gr0lum est @uwudev. Il n’agit pas seul. D’autres individus, étroitement liés au milieu de la cybercriminalité, l’ont assisté dans ses activités ».

L’article se termine par un message adressé à Gr0lum : « Nous nous arrêterons à la révélation du pseudo. Le reste est entre les mains de ceux que ça concerne. Ce dossier ne représente qu’une fraction de ce que nous détenons ».

Aucune nouvelle publication pour le moment sur Yggleak, le site mis en place par Gr0lum pour publier les données et informations qu’il avait récupérées sur YGGtorrent et son infrastructure.

La suite au prochain épisode ?

Reçu — 5 mars 2026 Next - Articles gratuits

Play Store : refonte et baisse des frais, Google et Epic font la paix et parlent… métavers

5 mars 2026 à 13:00
Meta quoi ?
Play Store : refonte et baisse des frais, Google et Epic font la paix et parlent… métavers

Comme prévu, Google a revu le fonctionnement de son Play Store, en partenariat avec Epic. Le géant du Net présente les changements à venir, avec un programme de certification pour les boutiques alternatives, des frais en baisse et la possibilité de passer par des systèmes de paiements tiers. Epic est sur un petit nuage et parle de métavers.

Google vient d’annoncer quatre changements majeurs à venir pour les développeurs d’applications et le Play Store : « davantage d’options de paiement, un programme pour les boutiques d’applications tierces, des frais réduits ainsi que de nouveaux programmes pour les développeurs ».

Pour les applications mobiles, Google indique que les développeurs « pourront utiliser leurs propres systèmes de paiement dans leurs applications, en parallèle de celui de Google Play, ou rediriger les utilisateurs vers leurs sites pour effectuer des achats en dehors de l’application ».

Registered App Stores : un programme, optionnel, pour les boutiques tierces

Google annonce aussi simplifier le sideloading, c’est-à-dire l’accès aux boutiques tierces d’applications. Un programme, optionnel, Registered App Stores, permettra des installations « plus simple pour les boutiques d’applications Android qui répondent à certains critères de qualité et de sécurité ». Au hasard, l’Epic Games Store.

Registered App Stores sera d’abord proposé en dehors des États-Unis, mais Google ajoute avoir « l’intention de le lancer également aux États-Unis, sous réserve de l’approbation du tribunal ». Voici la présentation faite par Google dans les documents transmis à la justice, repris par The Verge :

Rappelons que Google avait été largement critiqué en août dernier, lors de l’annonce d’une vérification d’identité imposée à tous les développeurs, y compris pour le sideloading. Le père d’Android avait ensuite mis de l’eau dans son vin avec l’annonce d’un « nouveau flux avancé qui permet aux utilisateurs expérimentés d’accepter les risques d’installer des logiciels non vérifiés ».

Les frais d’achat « in app » passent à 20 %, les récurrents à 10 %

Passons au porte-monnaie. Alors que les frais d’achat « in app » étaient de 30 % auparavant, ils vont passer à 20 %. Pour les abonnements récurrents, ils seront de 10 %. Google sépare ensuite ses frais en deux : ceux liés à sa boutique d’un côté, l’utilisation de son système de paiement de l’autre. Attention, il faudra ajouter 5 % si vous utilisez le système de paiement intégré à Android, la réduction passera alors de 30 à 25 % seulement.

Résumé présenté par Google des frais facturés aux éditeurs d’applications exploitant Google Play

Google en profite aussi pour lancer un programme Apps Experience Program et revoir son Google Play Games Level Up. Tous les deux permettent de profiter de frais différents, en baisse si l’on en croit le géant du Net (avec des réductions supplémentaires avant le premier million de dollars annuels de revenus).

Les critères du Level Up Program sont disponibles par ici. The Verge s’est procuré le document déposé au tribunal qui détaille les grandes lignes des programmes.

Rendez-vous cet été pour les changements en Europe

Les changements seront mis en place à partir du 30 juin dans l’espace économique européen, au Royaume-Uni et aux États-Unis. Il faudra attendre le 30 septembre en Australie, le 31 décembre en Corée et au Japon et enfin le 30 septembre 2027 pour le reste du monde. Le programme Registered App Stores devrait arriver avec une mise à jour majeure d’Android d’ici la fin de l’année.

Ce n’est pas tout, avec ces changements, Google annonce avoir « également résolu tous les litiges mondiaux avec Epic Games ». Les deux protagonistes avaient enterré la hache de guerre en novembre dernier, avec une annonce surprise autour d’une réforme du fonctionnement du Play Store.

Epic content, Fortnite revient sur le Play Store

Epic se réjouit d’ailleurs de cette nouvelle annonce au « bénéfice des développeurs et des consommateurs ». Le studio est ravi de voir que, « à l’échelle mondiale, les développeurs auront le choix de la manière dont ils effectuent leurs paiements en utilisant Google Play ou les systèmes concurrents, avec des frais réduits et la possibilité de diriger les utilisateurs hors applications pour effectuer des achats ».

Tim Sweeney, patron d’Epic, annonce sur X que « Fortnite sera bientôt de retour sur le Google Play Store dans le monde entier ».

The Verge ajoute que Google et Epic ont également « convenu d’un accord concernant une nouvelle catégorie d’applications qu’elles appellent « metaverse browsers » », selon ce document publié par nos confrères. Il est largement caviardé et ne permet pas d’en apprendre beaucoup plus.

Cette notion de métavers, on la retrouve aussi brièvement dans le communiqué d’Epic : « Google prendra des mesures pour soutenir le futur métavers ouvert », mais cela ne permet pas d’en savoir davantage. Tout juste peut-on apprendre que les navigateurs « ont pour but principal de permettre la navigation et l’exploration des mondes du métavers », de « prendre en charge les objets virtuels », d’être sécurisés.

Ni Google ni Epic n’ont souhaité commenter davantage. Tim Sweeney s’est contenté de republier le message X de The Verge. Facebook pendant un temps, ne jurait que par le métavers (la société est même devenue Meta), avant de freiner des quatre fers il y a quelques années déjà. C’est toujours le cas début 2026.

☕️ Qualcomm : du Wi-Fi 8 à 11,6 Gb/s et un modem 5G flashé à 14,8 Gb/s

5 mars 2026 à 08:27


FastConnect 8800 : Wi-Fi 8, Bluetooth, UWB et Thread

Qualcomm profite du MWC de Barcelone pour présenter ses nouveautés sur la connectivité. Il y a pour commencer le FastConnect 8800, un modem Wi-Fi en 4×4 capable de monter jusqu’à 11,6 Gb/s. Il prend en charge les bandes de 2,4, 5 et 6 GHz, avec des blocs de 320 MHz maximum.

La puce propose aussi du Bluetooth High Data Throughput (HDT) jusqu’à 7,5 Mb/s, de l’Ultra Wide Band (UWB) et Thread pour les objets connectés. Le FastConnect 8800 « intègre également Proximity AI, qui utilise l’UWB, le Bluetooth Channel Sounding, le Wi-Fi Ranging et d’autres technologies de détection pour un suivi précis au centimètre près ».

Tous les détails se trouvent par ici. Qualcomm propose des échantillons à ses clients, mais il faudra attendre la fin de l’année pour voir arriver les premiers produits commerciaux, précise l’entreprise.

Modem 5G X105 jusqu’à 14,8 Gb/s

Qualcomm présente aussi un nouveau modem 5G, le X105. Il succède donc au X85 annoncé en mars 2025. Le fabricant affirme que c’est le premier au monde à prendre en charge la Release 19 de la 3GPP.

La Release 18 est aussi appelée 5G Advanced ou 5,5G et c’est une « évolution majeure » de la 5G. La 19 est une version de transition qui doit « exploiter pleinement le potentiel de la 5G et faire le lien avec la 6G ». Elle propose diverses améliorations détaillées par Qualcomm dans ce document.

Revenons au modem 5G X105. Ses débits sont de 14,8 Gb/s en téléchargement et 4,2 Gb/s en upload, contre respectivement 12,5 et 3,7 Gb/s pour son prédécesseur.

Qualcomm met en avant des fonctionnalités comme le positionnement par satellites GNSS quadribande (L1, L2, L5, L6) et de la prise du NR-NTN (New Radio – Non Terrestrial Networks). L’intelligence artificielle est évidemment de la partie « pour détecter, classer et optimiser les flux de données en fonction des scénarios d’utilisation ».

Des échantillons sont en cours de qualification auprès des partenaires et les terminaux commerciaux sont attendus au second semestre de cette année. Tous les détails du X105 sont sur cette page.

Reçu — 4 mars 2026 Next - Articles gratuits

« Un empire bâti sur le racket » : YggTorrent ferme, 30 Go de données dans la nature

4 mars 2026 à 16:48
« Un empire bâti sur le racket » : YggTorrent ferme, 30 Go de données dans la nature

« L’histoire s’arrête ici. » C’est par ces mots que l’équipe de YggTorrent annonce la fin du site. Ce n’est pas son choix. Elle a été victime d’un piratage à grande échelle, qui met au jour 30 Go de données et lève le voile sur le caractère très lucratif de ses activités, ainsi que sur du code source, des mots de passe, des échanges, des bases de données, etc.

YggTorrent était un site dédié au téléchargement illégal et plus particulièrement aux torrents, comme son nom l’indique. Il changeait régulièrement de domaine, pour contrer les ordonnances de blocage dont il était régulièrement la cible. Le site affiche cette fois-ci un message différent : « Fermeture définitive de YggTorrent ».

« Fermeture définitive de YggTorrent »

Dernier épisode d’une série où des pirates s’attaquent aux pirates. L’équipe YggTorrent affirme en effet que, « le 3 mars 2026 au soir, un groupe malveillant a attaqué volontairement notre infrastructure. Un serveur secondaire de préproduction, distinct du système principal, a été compromis. Une escalade de privilèges a permis la suppression puis l’exfiltration de la base de données. Des portefeuilles crypto destinés uniquement au financement des serveurs, représentant plusieurs dizaines de milliers d’euros, ont également été dérobés (un détail que certains choisiront d’ignorer) […] C’était une attaque pensée, préparée et exécutée pour faire disparaître ».

L’attaque est signée et revendiquée par Grolum (parfois Gr0lum). Et au moins les deux « camps » sont raccords sur un point, le seul d’ailleurs : « Toute l’infrastructure de YGG a été compromise : code source, bases de données du tracker, du forum, de la boutique, logs serveur, configurations, mots de passe et cookies, projets en développement, échanges privés, données personnelles », affirme Grolum.

Grolum pas content : « mode "Turbo" de merde pour racketter »

« 6,6 millions d’utilisateurs. Des années de mensonges. Un empire bâti sur le racket. C’est fini. Les serveurs ont été vidés, puis détruits […] Près de 10 millions d’euros de recettes pour 2024 - 2025 ne vous ont pas suffi. Vous avez imposé votre mode « Turbo » de merde pour racketter quiconque voulait télécharger plus de cinq fichiers par jour. En profitant de votre monopole, vous avez pris les gens en otage avec un système de quota ridicule », ajoute-il.

En décembre, YggTorrent changeait de « modèle économique » avec un abonnement payant à la place des ratios (il fallait auparavant partager suffisamment pour pouvoir télécharger). La fronde est rapidement montée dans la communauté, comme nous l’avions alors relaté.

« Beaucoup ont payé, comme le montrent clairement vos chiffres de janvier et février », affirme Grolum. Ceux qui ont pris un « turbo à vie » ou ne serait-ce que pendant plusieurs mois, ne pensaient certainement pas que la vie du site serait aussi éphémère. Dans tous les cas, l’argent est arrivé dans les caisses de « l’équipe de YggTorrent » et selon Grolum les sommes seraient conséquentes. Reste maintenant à savoir qui a l’argent.

Ce tableau diffusé par le pirate détaillerait les revenus générés par YggTorrent – capture d’écran

« L’équipe YggTorrent » affirme que des sauvegardes existent et qu’une « reconstruction serait techniquement possible », mais ne souhaite pas « continuer dans un climat d’acharnement permanent ».

Grolum aussi parle d’un drôle de climat, mais avec un angle différent : « Alors que vos équipes de modérateurs bossent bénévolement pour faire tourner le site, vous continuez d’amasser une véritable fortune sur leur dos. Francisco depuis le Maroc et Vladimir depuis la France, vous avez exploité la naïveté de personnes qui croyaient en un projet de partage libre, désintéressé et communautaire. Pendant des années, vous avez utilisé des méthodes de crapules : DDoS contre les trackers concurrents, purges d’uploadeurs dès qu’ils ouvraient la bouche, sabotage de votre propre API pour empêcher quiconque d’utiliser des outils tiers ». Ambiance.

Il ajoute que Oracle, celui qui serait à la tête de YggTorrent, aurait enregistré « les 54 776 cartes bancaires [des] membres » et se demande « Pour en faire quoi, exactement ? ». D’autres questions remontent : « Le tracking comportemental de chaque visiteur, c’est pour quel usage ? Et le fingerprinting des wallets crypto, tes utilisateurs sont au courant ? Les scans de CNI volées que tu utilises pour payer les serveurs, tu es à l’aise avec ça ? ».

30 Go de données brutes

Pour joindre la parole aux actes, il propose un lien .torrent pour récupérer des données de 6,6 millions d’utilisateurs, avec en plus des informations sur les coulisses, l’infrastructure, l’organisation, les finances, les projets internes, les données personnelles des admins, etc.

Il explique son choix de publier : « des gens dont c’est le métier vont pouvoir y jeter un œil, collecter des preuves supplémentaires et peut-être engager des poursuites contre les responsables du site, mais aussi contre les hébergeurs ou d’autres tiers identifié ». Reste à savoir si toutes les données sont bien celles de YggTorrent.

Grolum précise avoir fait quelques caviardages : « Aucune information sur les utilisateurs (adresses IP, emails, mots de passe) ne sera accessible ici. Hélas pour l’ARCOM, je garde ça bien au chaud. D’ailleurs Oracle, la moitié des hash sont encore en md5, c’est pas sérieux l’ami », ajoute-t-il. En dépit de cette information selon laquelle les informations personnelles ont été expurgées, il faudra attendre de voir si dans l’immense quantité de données, il n’est pas possible de faire des rapprochements et remonter à des utilisateurs.

À ce sujet, YggTorrent affirme que « les mots de passe présents dans la base étaient hachés et salés, ce qui signifie qu’ils n’étaient pas stockés en clair et qu’ils bénéficiaient d’une protection cryptographique empêchant leur lecture directe », sans préciser la technique utilisée. La fonction de hachage md5 est pour rappel qualifiée d’obsolète par la CNIL. Toujours les mêmes recommandations : si vous avez utilisé le même mot de passe sur YggTorrent et d’autres sites/services, il faut en changer au plus vite.

Le fichier pèse pas moins de 11 Go et se présente sous la forme d’une archive compressée. L’espace total occupé par les fichiers est de 30 Go une fois décompressés, dont 20 Go rien que pour les bases de données et 14 Go dans un seul fichier ygg_tracker_redacted/torrents/data.sql . Autant dire qu’il faudra du temps pour tout analyser.

Dans les données, se trouve notamment un fichier « Reunion201117_fra.json » avec ce qui semble être une transcription d’une réunion audio. Voici quelques extraits :

« La sécurité va s’améliorer parce que je peux vous le dire sincèrement, je vais être 100 % clair et gardez ça pour vous, mais les mots de passe sont z-, sont cryptés médiocres. Euh, le, le, la sécurité en ce moment des utilisateurs est très minime. C’est pour ça que nous, euh, Destroy est venu nous voir et nous a demandé d’avoir une meilleure sécurité. Moi, je suis arrivé avec une entreprise privée pour, pour le, la machine, parce qu’avant, avant, c’était des mecs russes très bizarres qui, qui fouillaient un peu sur la machine, vous voyez le genre ? ».

On trouve aussi des emails et des mots de passe associés à des comptes (rappel, réutiliser le même n’est pas une bonne idée). Certains ne sont plus valides, d’autres demandent un code envoyé par email avant de laisser passer. Certains des comptes semblent bien avoir existé.

Les coulisses de l’attaque, la relève déjà en place

Dans la fin de son billet, Grolum explique de manière détaillée comment il est entré sur le serveur de YggTorrent et comment il a récupéré les données. S’il fallait simplifier à l’extrême voici la chaine d’opération, telle que décrite par le pirate.

Point de départ de l’attaque : le favicon de yggtorrent. « Chaque icône a une empreinte numérique unique. Si on calcule le hash de celle de YGG et qu’on le cherche dans Shodan, l’IP du serveur de pré-prod apparaît ».

Ensuite, un scan de port et découverte d’une entrée non sécurisée : « Le scan de ports a révélé le service SphinxQL sur le port 9306. Sphinx Search est un moteur de recherche full-text qui utilise un protocole compatible MySQL. Sur ce serveur, il est accessible depuis Internet sans aucune authentification […] SphinxQL supporte nativement la lecture de fichiers locaux ».

La suite : « Sur les serveurs Windows déployés automatiquement, le fichier sysprep_unattend.xml contient les paramètres d’installation, y compris, parfois, le mot de passe administrateur. Ce fichier aurait dû être supprimé après le déploiement. Il ne l’a pas été ».

Les pirates ont donc récupéré rien de moins que le mot de passe administrateur du serveur, en clair, « dans un fichier que n’importe qui pouvait lire via SphinxQL ». C’est la voie royale. Le pirate peut accéder en lecture et en écriture à l’ensemble du stockage.

Grolum affirme enfin que « Tous les torrents de YGG ont pu être sauvés grâce à l’aide de l’équipe du projet U2P », ou Utopeer. Sur les cendres de Torrent 411, Cpasbien ou encore Zone-Téléchargement, un nouveau site s’est encore lancé : ygg.gratis. Il propose « une interface de consultation qui permet de parcourir et télécharger les torrents issus de la base de données YggTorrent ayant fuité ».

☕️ GPT-5.3 Instant : OpenAI promet un ChatGPT moins moralisateur, plus direct et naturel

4 mars 2026 à 08:03

Depuis quelques jours, Anthropic et son IA Claude ont le vent en poupe, face à OpenAI et son ChatGPT dont les désinstallations de l’application ont explosé ces derniers jours. C’est la conjonction de deux événements liés. L’interdiction faite par Donald Trump d’utiliser les modèles d’Anthropic dans les armées et administrations américaines pour commencer. Ensuite, le fait que Sam Altman s’empresse de signer un contrat avec le Pentagone.

Alors qu’Anthropic surfe sur une vague de popularité, l’entreprise a décidé de permettre à tous les comptes, même les gratuits, d’utiliser la fonction Import Memory (pour faciliter une transition de ChatGPT à Claude, par exemple), OpenAI revient sur le devant de la scène avec encore un nouveau modèle, ou plutôt une mise à jour : GPT-5.3 Instant.

Lors du lancement de GPT-5.2 en décembre dernier, il était annoncé dans trois formats : Instant, Thinking et Pro. En février, c’était au tour de GPT-5.3-Codex de débarquer (à quelques minutes d’écart, Anthropic annonçait Claude Opus 4.6). Comme son nom l’indique – Codex –, c’est un modèle pensé pour le code informatique. OpenAI annonce aujourd’hui un modèle plus grand public : GPT‑5.3 Instant. Thinking et Pro suivront, mais plus tard.

Il promet « des conversations plus fluides et plus utiles au quotidien ». Nous avons droit au lot habituel de promesses : « réponses plus précises, résultats plus riches et mieux contextualisés lors des recherches sur le web, moins d’impasses inutiles, d’avertissements et de formulations trop affirmatives qui peuvent interrompre le fil de la conversation ».

OpenAI indique avoir reçu des retours d’utilisateurs indiquant que « GPT‑5.2 Instant refusait parfois de répondre à des questions auxquelles il devrait pouvoir répondre en toute sécurité, ou adoptait un ton trop prudent ou moralisateur, en particulier sur des sujets sensibles ». GPT‑5.3 Instant « réduit nettement les refus inutiles, tout en atténuant les préambules trop défensifs ou moralisateurs avant de répondre à la question ».

Concernant les informations glanées en ligne, GPT-5.3 Instant « équilibre plus efficacement […] avec ses propres connaissances et son raisonnement. Par exemple, il s’appuie sur sa compréhension existante pour contextualiser l’actualité récente plutôt que de simplement résumer les résultats de recherche ». Le Web ne sera plus survalorisé, promet OpenAI.

Enfin, l’entreprise de Sam Altman reconnait que « le ton de GPT‑5.2 Instant pouvait parfois mettre mal à l’aise, perçu comme envahissant ou faisant des suppositions injustifiées sur l’intention ou les émotions de l’utilisateur ». Avec GPT-5.3 Instant, le style devrait être plus naturel. Des exemples sont disponibles sur cette page.

GPT‑5.3 Instant est disponible dès maintenant, pour tous les utilisateurs de ChatGPT. Les mises à jour des modèles Thinking et Pro « suivront bientôt ». Enfin, GPT‑5.2 Instant restera disponible pendant trois mois pour les clients payants (il sera retiré le 3 juin 2026).

☕️ Seagate Mozaic 4+ : les expéditions en volume de HDD de 44 To ont commencé

4 mars 2026 à 07:18

La gamme de disques durs Mozaic de Seagate débute à la série « 3 + », avec des HDD de 30 To et plus exploitant la technologie HAMR (Heat Assisted Magnetic Recording, avec un faisceau laser). L’année dernière, Seagate passait à 36 To, aujourd’hui il est question de 44 To.

Le constructeur explique que « sa plateforme Mozaic 4 + […] est désormais qualifiée et en production chez deux fournisseurs cloud hyperscale de premier plan », mais sans les nommer.

De plus, les « disques durs Mozaic 4 + avec des capacités allant jusqu’à 44 To sont désormais expédiés en volume vers deux principaux fournisseurs cloud hyperscale ». La densité augmente puisque, en juin dernier, John Morris (CTO de Seagate) affirmait avoir « livré à ses clients de premiers échantillons à 40 To ».

La disponibilité plus large des disques durs Mozaic 4 + est prévue « à mesure que la production continue d’augmenter », sans plus de détails. Avoir des disques durs toujours plus gros permet d’augmenter la densité du stockage dans les datacenters, mais aussi d’utiliser moins de HDD pour une capacité donnée, et donc de réduire la consommation électrique.

Seagate prévoit toujours d’atteindre 10 To par plateau, soit 100 To avec 10 plateaux dans un disque dur classique de 3,5 pouces. En laboratoire, le fabricant a atteint 6,9 To par plateau fin 2025, pour rappel. Il faudrait encore attendre six ans selon l’entreprise pour avoir 100 To. En attendant, le passage par Mozaic 5 (50 To et plus) est prévu aux alentours de 2028.

Reçu — 3 mars 2026 Next - Articles gratuits

Apple renouvelle ses MacBook Pro et Air, puces M5 Pro et Max avec des « super-cœurs » CPU

3 mars 2026 à 16:26
Fusiiiionnnnnn !
Apple renouvelle ses MacBook Pro et Air, puces M5 Pro et Max avec des « super-cœurs » CPU

Deux nouvelles puces arrivent chez Apple : les M5 Pro et Max, avec des « super cœurs » pour la partie CPU. On les retrouve dans les nouveaux MacBook Pro de 14 et 16 pouces. Apple met aussi à jour son MacBook Air qui passe à la puce M5 pour l’occasion.

MacBook Air 13 et 15 pouces en M5, à partir de 1 199 euros

Après les iPhone 17e et l’iPad Air avec une puce M4, Apple continue sur sa lancée avec deux nouvelles annonces ce jour. Commençons par le MacBook Air avec une puce M5, dont les caractéristiques techniques peuvent changer suivant la taille de la diagonale de l’écran.

« Tous les modèles 15 pouces sont équipés de la puce M5 avec CPU 10 cœurs et GPU 10 cœurs », explique Apple. De son côté, le modèle de 13 pouces intègre 8 ou 10 cœurs GPU suivant les configurations, mais 10 cœurs CPU dans tous les cas. 16, 24 ou 32 Go de mémoire unifiée (partagés entre CPU et GPU) sont de la partie.

« Le MacBook Air dispose désormais d’un stockage de base deux fois plus important, porté à 512 Go, et d’une technologie SSD plus rapide », affirme Apple. Côté connectivité, c’est la puce maison N1 qui est aux commandes pour le Wi-Fi 7 et le Bluetooth 6. La connectique comprend deux ports Thunderbolt 4 (connecteur USB).

Niveau performances, Apple annonce que le MacBook Air M5 offre des performances « jusqu’à 4 fois plus rapides pour les tâches d’IA que son prédécesseur équipé de la puce M4, et jusqu’à 9,5 fois plus rapides que le MacBook Air avec puce M1 ».

Le MacBook Air 13 pouces M5 est proposé à partir de 1 199 euros avec 16 Go de mémoire et 512 Go de stockage (ajoutez 125 euros pour avec 10 cœurs GPU à la place de 8). De son côté, le MacBook Air 15 pouces M5 est vendu à partir de de 1 499 euros. Augmenter la mémoire vive vous coûtera 250 euros pour 8 Go de plus (24 Go au total) et 500 euros passer de 16 à 32 Go. 32 Go est toujours le maximum.

Les MacBook Pro de 14 et 16 pouces passent aux M5 Pro et Max

Passons aux MacBook Pro, avec de nouvelles puces M5 Pro et Max. Apple, comme toujours, n’est pas avare en superlatifs concernant ces deux nouveaux SoC : « nouveau CPU avec le cœur de CPU le plus rapide au monde, GPU nouvelle génération avec Neural Accelerator dans chaque cœur et bande passante mémoire unifiée plus élevée ». Elle passe de 153 Go/s sur la puce M5 à 307 Go/s sur la Pro et 614 Go/s sur la Max avec 40 cœurs GPU, mais « seulement » 460 Go/s pour le M5 Max avec 32 cœurs GPU.

Comme sur le MacBook Air, Apple vante le SSD des nouveaux MacBook Pro qui est « jusqu’à deux fois plus performant », avec 14,5 Go/s au maximum. Le stockage de base passe à 1 To pour le MacBook Pro en M5 ou M5 Pro et à 2 To pour le modèle M5 Max, au lieu de 512 Go sur le modèle d’octobre dernier en M5.

Pour la connectivité, la puce N1 est de nouveau présente, tandis que les ports USB Type-C prennent désormais en charge Thunderbolt 5. Un MacBook Pro avec une puce M5 Pro prend en charge deux écrans externes, contre quatre pour la version M5 Max.

Côté tarif, le MacBook Pro M5 avec 1 To débute à 1 899 euros (1 799 euros avec 512 Go auparavant), tandis que l’addition passe à 2 499 euros minimum pour un SoC M5 Pro… et encore ajoutez 200 euros de plus pour la version « complète » du SoC avec 18 cœurs CPU et 20 cœurs GPU (au lieu de 15 et 16 respectivement).

Pour le MacBook Pro M5 Max, le tarif débute à 4 199 euros avec 18 cœurs CPU et 32 cœurs GPU, puis il faut ajouter 375 euros pour avoir les 40 cœurs GPU. Ce sont les tarifs pour la version de 14 pouces, en 16 pouces comptez 2 999 euros en M5 Pro (il n’est pas disponible en M5) et 4 499 euros pour pour la puce M5 Max.

Du M1 au M5 Max, toutes les caractéristiques des puces Apple Silicon

Revenons aux deux nouvelles puces M5 Pro et Max, avec la mise a jour de notre grand tableau comparatif pour commencer :

Comme avec la M5 de « base », chaque cœur GPU dispose d’un « accélérateur neuronal ». Apple affirme que « les puces M5 Pro et M5 Max assurent un traitement des prompts LLM jusqu’à quatre fois plus rapide que les M4 Pro et M4 Max, et une génération d’images par IA jusqu’à huit fois plus rapide que les M1 Pro et M1 Max ».

Les précommandes des nouveaux MacBook Air et Pro ouvriront le 4 mars, les livraisons sont prévues à partir du 11 mars.

Des puces « pensées de A à Z pour l’IA » avec des 5 ou 6 « super-cœurs »

Les M5 Pro et M5 Max « intègrent un nouveau CPU de 18 cœurs, dont 6 super-cœurs, le cœur de CPU le plus rapide au monde, et 12 tout nouveaux cœurs de performance, optimisés pour des performances multithreads économes en énergie ». Pour la version 15 cœurs CPU du M5 Pro, il y a 5 super-cœurs et donc 10 efficaces. Apple ne parle pas de cœurs efficaces, mais « performance ». Les puces M5 Pro et Max ont donc un mélange de « super cœurs » et de « cœurs de performance ».

Auparavant, les puces M4 Pro et Max avaient entre 8 et 12 cœurs « performances », avec 4 cœurs « haute efficacité énergétique » (efficaces). Même chose sur la puce M5, les « super cœurs » n’existaient pas encore et les cœurs efficaces étaient toujours présents. À voir maintenant les résultats dans les tests.

Apple affirme que « la nouvelle architecture du processeur du M5 Pro améliore considérablement les performances multithread jusqu’à 30 % pour les charges de travail professionnelles ». Mais cette comparaison est faite entre des MacBook Pro M4 Pro avec 14 cœurs et M5 Pro avec 18 cœurs, soit… 30 % de cœurs en plus. La répartition entre les cœurs n’est pas non plus la même pour rappel.

Le fabricant ne s’en cache pas : il mise tout sur l’IA : « Les puces M5 Pro et M5 Max reposent sur la nouvelle architecture Fusion signée Apple et sont pensées de A à Z pour l’IA. Cette conception innovante combine deux puces en un seul système pour un gain de performances considérable ».

La version Max du M5 intègre deux encodeurs vidéo et deux encodeurs/décodeurs ProRes. Un comparatif de MacBook Pro 14 avec des puces M5, M5 Pro et M5 Max est disponible par ici.

❌