Vue normale

☕️ Le CPU Intel Xeon 6+ (Clearwater Forest) avec 288 E-cores Darkmont arrivera ce semestre

2 mars 2026 à 15:52

Cela fait maintenant des mois qu’Intel parle de son futur Xeon 6 + avec 288 E-Cores. Il s’agit de cœurs CPU « efficaces » dans le sens efficacité énergétique, et donc moins performants que les P–Cores avec un P comme Performance. Les Xeon 6 actuels (Sierra Forest) ne dépassent pas les 144 cœurs (des E-Cores Crestmont). Une version avec 288 cœurs (une puce, deux dies) était annoncée, mais n’est jamais arrivée.

Quoi qu’il en soit, la relève est dans les starting-blocks avec les processeurs Xeon 6 + Clearwater Forest, qui monteront jusqu’à 288 E-Core Darkmont (et donc toujours autant de threads). Comme le rapporte Videocardz, Intel donne de plus amples détails à l’occasion du MWC de Barcelone.

Si cette annonce est faite durant le salon de Barcelone, c’est parce qu’Intel s’est trouvé un partenaire de choix – Ericsson, comme l’indique Computer Base – et en profite pour mettre en avant ses Xeon 6(+) pour les opérateurs de télécoms : « Basé sur le procédé Intel 18A et conçu pour une efficacité exceptionnelle, le Xeon 6 + offre aux opérateurs une plateforme qui fait évoluer les charges de travail de manière agressive, réduit la consommation d’énergie et permet des services réseau plus intelligents ».

Ils seront gravés avec la technologie maison 18A, celle utilisée pour la première fois sur les processeurs Core Ultra Series 3 (Panther Lake). Le TDP sera de 300 à 500 watts. Le processeur pourra être en configuration 1P ou 2P (un ou deux sockets sur la carte mère, soit jusqu’à 576 cœurs CPU), il prendra en charge 12 canaux de DDR5 à 8 000 MHz, 64 lignes CXL, 96 lignes PCIe, etc.

Au niveau de la conception, le processeur sera composé de douze tuiles, chacune avec six modules et quatre cœurs Darkmont par module, soit 288 cœurs : 4 (cœurs) x 6 (modules) x 12 (tuiles)= 288, le compte est bon.

Chaque module dispose de 4 Mo de mémoire cache L2, soit un total de 288 Mo de cache L2 sur la version 288 E-Cores, auxquels il faut ajouter 576 Mo de cache de dernier niveau (L3 ?). D’autres tuiles sont de la partie : trois de « Base » en Intel 3 (contrôleurs mémoire notamment) et deux autres « I/O » en Intel 7.

Les nouveaux Xeon 6 + sont attendus pour la première moitié de l’année 2026.

Les Ryzen 400 AI d’AMD débarquent sur socket AM5, avec un NPU de 50 TOPS

2 mars 2026 à 15:26
Y’a-t-il un Copilot dans ton PC ?
Les Ryzen 400 AI d’AMD débarquent sur socket AM5, avec un NPU de 50 TOPS

AMD vient d’annoncer trois processeurs, déclinés en douze références, pour les ordinateurs de bureau, avec les Ryzen AI 400 en AM5. Les CPU disposent d’un NPU de 50 TOPS leur permettant de prétendre à la certification Copilot+ PC de Microsoft. Ils seront disponibles à partir du deuxième trimestre 2026.

Au CES de Las Vegas en début d’année, AMD présentait ses « nouveautés », qui ressemblaient davantage à du réchauffé. Il y avait tout d’abord les Ryzen AI 400 pour les ordinateurs portables, mais qui n’étaient finalement que des Ryzen AI 300 avec parfois 100 MHz de plus en boost ou une partie graphique un peu améliorée.

Au MWC, des processeurs pour les ordinateurs de bureau

AMD profite du MWC de Barcelone (avec un M comme Mobile) pour annoncer de nouveaux Ryzen AI 400 pour… les ordinateurs de bureau. Trois processeurs sont disponibles, chacun décliné en quatre versions, soit douze références au total.

Nous avons les Ryzen AI 5 435G, AI 5 440G et AI 7 450G, avec un TDP de 64 watts. Viennent ensuite des versions « GE » avec un TDP de 35 watts. Nous sommes donc à six références. Doublez la mise avec des versions Pro de chaque processeur, nous sommes bien à 12. Comme leur nom l’indique, les déclinaisons « Pro » ont « des fonctions de sécurité et de gestion de niveau professionnel », mais exactement les mêmes caractéristiques techniques pour le reste.

Des cœurs Zen 5 exclusivement, contrairement au Ryzen AI 400 mobile

On pourrait penser que le Ryzen AI 5 435 (version mobile) et le Ryzen AI 5 435G ou 435GE sont très proches avec 6 cœurs et 12 threads dans les deux cas, mais ce n’est pas le cas. Il y a une différence fondamentale dans l’architecture des cœurs.

Le Ryzen AI 5 435 dispose de deux cœurs Zen 5 et de quatre cœurs Zen 5c allégés, tandis que les Ryzen AI 5 435G(E) ont six cœurs Zen 5. C’est la même chose sur le reste de la gamme, les nouveaux Ryzen AI 400 en AM5 proposent exclusivement des cœurs Zen 5. Pour rappel, sur mobile, AMD propose aussi des processeurs exclusivement en Zen 5 avec sa gamme Ryzen AI Max+.

NPU de 50 TOPS, mais iGPU 860M maximum

Quoi qu’il en soit, les nouveaux processeurs Ryzen AI 400 pour les ordinateurs de bureau disposent d’un NPU (architecture XDNA 2) de 50 TOPS, supérieur au seuil de 40 TOPS imposé par Microsoft pour obtenir la certification Copilot+ PC. Sur mobile, la puissance du NPU varie entre 50 et 60 TOPS.

Côté GPU intégré au processeur (iGPU), l’architecture RDNA 3.5 est dans tous les cas aux commandes. AMD assure par contre le service minimum avec une puce Radeon 860M pour le plus haut de gamme des processeurs et une Radeon 840M pour les deux autres. Sur les versions mobiles, AMD monte jusqu’à la Radeon 890M avec 16 cœurs GPU contre 8 pour la Radeon 860M.

AMD en garde certainement sous le pied pour de prochaines références à venir, avec douze cœurs PU par exemple. Selon l’entreprise, les premiers ordinateurs équipés des nouveaux processeurs arriveront au second trimestre de 2026.

Data gouv lance son serveur MCP, les IA accèdent directement aux données publiques françaises

2 mars 2026 à 12:45
De MCP.data.gouv.fr à Sorry.data.gouv.fr/
Data gouv lance son serveur MCP, les IA accèdent directement aux données publiques françaises

La plateforme data.gouv.fr permet de rechercher et récupérer des données publiques françaises en open data. Elle vient de lancer un serveur MCP afin de permettre à des IA d’effectuer automatiquement des recherches puis de récupérer et d’utiliser des données. Une première étape sous la forme d’une expérimentation, avant une ouverture plus large.

La semaine dernière, la plateforme des données publiques françaises – data.gouv.fr – a lancé son « serveur MCP expérimental pour interagir avec les données françaises depuis son chatbot ». MCP signifie, pour rappel, Model Context Protocol. C’est un standard ouvert lancé par Anthropic (Claude) fin 2024 puis confié à la Linux Foundation. Il permet de connecter des modèles d’intelligence artificielle.

Lecture seule pour le moment

Cette première expérimentation « vise à tester, de manière encadrée, de nouvelles façons d’interroger et de valoriser les données publiques via des interfaces conversationnelles », explique data.gouv.fr. Le code du serveur MCP est disponible dans ce dépôt GitHub (licence MIT), avec des explications pour le connecter à différentes IA génératives. Un appel à contribution et à des retours (positifs comme négatifs) est lancé.

Des limitations sont présentes pour le moment : « À ce stade, le serveur MCP de datagouv fonctionne uniquement pour explorer les données publiques ouvertes en lecture, sans autoriser de modification. À terme, l’ambition est de tester également des usages pour éditer et publier de nouvelles données sur datagouv, toujours avec prudence, et en s’appuyant sur des modèles souverains ».

Nous avons testé l’expérience avec Claude, en version web et via Claude Code. Une seule adresse est à connaitre : celle du endpoint du serveur MCP de datagouv : https://mcp.data.gouv.fr/mcp. Dans Claude Code, il faut saisir la ligne suivante : claude mcp add --transport http data-gouv https://mcp.data.gouv.fr/mcp pour ajouter le serveur. Vous devez ensuite fermer (exit) et relancer Claude Code. Vous pouvez utiliser la commande claude -c, avec « c » comme continu pour reprendre la session précédente.

10 « outils » pour des jeux de données et des services

Dans la version web, rendez-vous dans les Paramètres puis Connecteurs. Cliquez sur Ajouter un connecteur personnalisé, donnez-lui un nom comme datagouv France et l’adresse https://mcp.data.gouv.fr/mcp.

Pour chaque « outil » (ou commande) du serveur MCP, il est possible de définir différents niveaux d’autorisations dans la version web : toujours autoriser, nécessite une approbation, bloqué.

  • search_datasets : rechercher des jeux de données par mots-clés
  • get_dataset_info : obtenir les métadonnées détaillées d’un jeu de données
  • list_dataset_resources : lister les données d’un dataset
  • get_resource_info : obtenir des infos détaillées sur une ressource
  • query_resource_data : interroger un dataset sans téléchargement
  • download_and_parse_resource : télécharger et parser une ressource
  • search_dataservices : rechercher des APIs sur data.gouv.fr
  • get_dataservice_info : infos détaillées sur une API
  • get_dataservice_openapi_spec : récupérer les specs OpenAPI d’une API
  • get_metrics : statistiques de visites et téléchargements d’un dataset ou ressource

Une fois connectée, l’IA peut utiliser le serveur MCP pour interagir avec les jeux de données de data.gouv.fr. Vous pouvez rechercher des ensembles de données par mots-clé (y compris avec des paramètres personnalisés si besoin), obtenir des informations sur les jeux de données, lister les ressources, télécharger les données, etc. Vous pouvez aussi rechercher des API sur data.gouv.fr et les utiliser. Enfin, des métriques sur les visites et les téléchargements sont également disponibles.

Par exemple, une recherche MCP depuis Claude Code pour les jeux de données sur la consommation électrique passera par la commande mcp__data-gouv__search_datasets query: "consommation électrique". Vous n’avez généralement rien à faire de votre côté, c’est l’IA qui se charge d’aller chercher les données.

Pour chaque jeu de données, le serveur MCP donne des informations avec un ID, l’origine des données, une URL, des commentaires, etc. Vous pouvez ensuite récupérer et utiliser les jeux de données, directement dans l’interface d’une IA.

Quelques exemples sont donnés par les développeurs du serveur MCP : « Au lieu de naviguer manuellement sur le site, vous pouvez simplement poser des questions comme « Quels jeux de données sont disponibles sur les prix de l’immobilier ?  » « ou "Montre-moi les dernières données de population pour Paris" et obtenir des réponses instantanées ».

Sorry.gouv.fr : « 🤕 Site en cours de maintenance »

Nous ne pouvons actuellement pas pousser beaucoup plus loin les tests puisque le site https://mcp.data.gouv.fr/ renvoie bien trop régulièrement vers https://sorry.data.gouv.fr/ avec un message d’erreur : « Site en cours de maintenance, nous faisons le maximum pour revenir en ligne rapidement ».

Ce problème est présent depuis le lancement la semaine dernière, comme le reconnait Antonin Garrone, responsable produit – pôle ouverture des données publiques (data.gouv.fr), sur X. Vendredi, il expliquait que « c’était lié au scaling à cause de la forte affluence d’aujourd’hui, c’est bon désormais ». Force est de constater que non…

Prudence : « Ce type de dispositif est difficile à auditer »

Pour résumer, le serveur MCP permet à des IA d’accéder aux jeux de données déjà publiés par datagouv, ce ne sont pas de nouvelles données. Les intelligences artificielles peuvent ensuite les utiliser pour créer des applications, des statistiques, des analyses, etc. Évidemment avec tous les risques d’erreurs et d’hallucinations liés à leur nature profonde (elles sont statistiques). L’avantage est que l’IA utilise automatiquement les dernières données disponibles à chaque fois.

Datagouv appelle à la prudence : « Ce type de dispositif est difficile à auditer. Les modèles de langage peuvent produire des réponses incomplètes, approximatives ou erronées. Ils ne constituent en aucun cas une source officielle ou fiable en tant que telle. Par ailleurs, il existe de nombreux serveurs MCP se présentant comme liés à data.gouv.fr sans être officiels. Une vigilance particulière est donc nécessaire quant aux outils utilisés et à leur provenance ».

Dans des commentaires sur LinkedIn, Antonin Garrone apporte une précision sur les serveurs MCP qui portent un nom similaire à celui de datagouv : « il s’agit moins d’un problème d’usurpation que de personnes ayant testé le protocole pour leurs propres cas d’usage, sans mauvaise intention ». Quoi qu’il en soit, il faut maintenant que le serveur MCP se stabilise et tienne autrement la charge que de manière épisodique.

☕️ Aux États-Unis, feu vert pour la fusion à 34,5 milliards de dollars entre Charter et Cox

2 mars 2026 à 12:16

En mai 2025, Charter Communications (qui propose des offres sous la marque Spectrum) et Cox Communications annonçaient « un accord définitif de fusion ». Comme le rappelle Reuters, il s’agit de regrouper « deux des plus grands opérateurs américains de câble et du haut débit dans leur bataille contre les sociétés de streaming et les opérateurs mobiles ».

Montant de la transaction : 34,5 milliards de dollars environ, pour reprendre Cox mais aussi ses 12,6 milliards de dollars de dette. « Le nouvel ensemble revendiquera ainsi la place de numéro un de l’Internet fixe au pays de l’oncle Sam », expliquait alors Les Échos. Reuters ajoute que cette nouvelle entité devrait regrouper « 38 millions d’abonnés, dépassant le leader du marché Comcast ».

La FCC (régulateur américain des télécoms) vient de donner son accord et son président, Brendan Carr, s’en félicite : « En approuvant cet accord, la FCC garantit des avantages considérables aux Américains. Cet accord signifie le retour aux États-Unis d’emplois délocalisés. Il signifie également le déploiement de réseaux modernes à haut débit dans davantage de zones rurales. Enfin, il permettra aux consommateurs d’accéder à des forfaits moins chers. De plus, l’accord consacre des protections contre la discrimination fondée sur la diversité, l’équité et l’inclusion. ».

Il ajoute que Charter prévoit d’investir des « milliards de dollars » pour améliorer son réseau après cette opération. « Cela signifie que les Américains bénéficieront d’un accès internet plus rapide et de prix plus bas », peut-on lire dans le document de la FCC.

Engadget tempère l’enthousiasme de la FCC : « Bien que la FCC de Carr dresse un tableau très favorable de l’acquisition de Charter, l’histoire a fourni de nombreux exemples de fusions ayant eu l’effet inverse sur les emplois et les prix. Par exemple, les redondances lors de la fusion de T-Mobile avec Sprint en 2020 ont entraîné une vague de licenciements chez l’opérateur ».

Nos confrères rappellent que, en 2018, « peu de temps après l’approbation de la fusion de Charter avec Time Warner Cable par la FCC, la société a augmenté les prix de son service Spectrum de plus de 91 dollars par an ».

☕️ La console Orange Pi Neo « suspendue » à cause des hausses sur la mémoire et les SSD

2 mars 2026 à 08:10

Le développement de l’intelligence artificielle générative et des grands modèles de langage demande toujours plus de puissance de calcul et de mémoire pour les entraînements et l’inférence. Si NVIDIA est sur un petit nuage (ou gros matelas rempli de billets) financier, la pénurie des puces entraîne une hausse des prix des SSD et de la mémoire, avec dans leur sillage le reste du monde du numérique.

HP par exemple, prévoit que la mémoire et le stockage vont représenter 35 % du prix de vente d’un ordinateur, contre 15 à 18 % il y a quelques mois. C’est désormais au tour du projet de console Orange Pi Neo d’en faire les frais. Elle est développée conjointement par la société chinoise Orange Pi (qui propose des micro-ordinateurs type Raspberry Pi) et la distribution Linux Manjaro.

Annoncée il y a deux ans, elle devait arriver cette année, durant le premier semestre. Deux versions étaient attendues, à 450 ou 550 dollars suivant la configuration (Ryzen 7840U avec 16 Go ou Ryzen 8840U avec 32 Go). Sur le forum officiel de Manjaro, le couperet est tombé : « En raison des prix élevés de la mémoire DDR5 et des SSD, le projet est actuellement en pause ».

L’équipe en profite pour indiquer que « les certifications CE et FCC sont désormais complètes. De plus, beaucoup d’améliorations ont été apportées à la Manjaro Gaming Edition. Nous attendons maintenant le bon moment pour lancer le produit… ». Reste que les prévisions sont assez pessimistes pour 2026, voire 2027. Octave Klaba, PDG d’OVHcloud, estime par exemple que « les prix resteront importants jusqu’à au moins 2028, le temps que de nouvelles capacités de production de mémoire voient le jour ».

☕️ Laser UltraAir : l’ESA connecte un avion à un satellite géostationnaire à 2,6 Gb/s

2 mars 2026 à 07:26

L’Agence spatiale européenne explique avoir réalisé une première mondiale fin février : « Lors d’essais en vol à Nîmes, en France, le système laser UltraAir d’Airbus a maintenu une connexion sans erreur tout en transmettant des données à un débit de 2,6 gigabits par seconde pendant plusieurs minutes ».

L’avion était connecté au satellite géostationnaire Alphasat TDP-1 (Tesat), qui se trouvait donc à 36 000 km d’altitude. Le satellite est composé de quatre charges utiles pour des démonstrations, et TDP-1 est un module de communications optiques. « Il combine un terminal laser et une liaison descendante à haute vitesse pour acheminer des flux de données des satellites en orbite basse vers les stations terrestres via son satellite hôte », et maintenant aussi vers des avions en vol.

L’ESA en profite pour rappeler les avantages des lasers par rapport aux communications radio dont les fréquences sont de plus en plus rares : « ils offrent des liaisons plus sécurisées et peuvent transporter beaucoup plus d’informations ». Par contre, les « faisceaux laser se propagent beaucoup moins loin que les ondes radio ».

Le projet n’est pas nouveau, il avait été présenté par l’ESA en 2021. Il était alors question d’une « tête optique et plusieurs petits racks électroniques contenant principalement des équipements ». La tête est « isolée mécaniquement des vibrations » de l’avion. Le matériel est prévu pour être installé dans la cabine d’un petit jet, dont une des fenêtres est remplacée pour accueillir le matériel de réception du laser.

Le projet est en retard sur le calendrier qui prévoyait qu’une « fois la phase de démonstration menée à bien, la phase de prototypage débuterait début 2023 ». Quoi qu’il en soit, « ces avancées laissent entrevoir un avenir où les voyageurs pourront profiter d’une connexion Internet fiable et haut débit pendant leurs vols, et où les personnes à bord de navires ou de véhicules traversant des régions reculées pourront rester connectées sans interruption », explique l’Agence spatiale.

Il y a 18 mois, l’armée française signait une autre « première mondiale » avec une liaison laser stable entre un nano-satellite en orbite basse et une station sol optique. Le général Stéphane Mille, chef d’état-major de l’Armée de l’air et de l’Espace, ajoutait que les lasers n’étaient pas utiles que pour les communications, c’est aussi une arme qu’il est possible d’utiliser depuis le sol ou l’espace, pour attaquer d’autres satellites par exemple.

#Nextpresso Adaptateur M.2 vers PCIe à 10 euros pour installer un SSD sur sa carte mère

27 février 2026 à 16:02
On ne branche pas directement le SSD dans le port PCIe !
#Nextpresso Adaptateur M.2 vers PCIe à 10 euros pour installer un SSD sur sa carte mère

Installer un SSD M.2 NVMe dans le port PCIe d’une carte mère peut se faire simplement à l’aide d’un adaptateur vendu quelques euros. Nous avons testé un modèle de Sabrent avec un radiateur pour refroidir les puces de NAND qui pourraient chauffer lors de gros transferts.

Nous avons commandé il y a quelque temps un adaptateur M.2 pour les SSD NVMe afin de les installer dans un emplacement PCIe de carte mère. C’est l’occasion d’expliquer comment cela fonctionne. C’est simple : un PCB, quelques pistes et quasiment aucun composant.

M.2 NVMe et PCIe : blanc bonnet et bonnet blanc

La raison est simple : les SSD au format M.2 utilisant le protocole NVMe sont déjà avec un câblage en PCIe, il n’y a donc aucune conversion de signal à faire pour les brancher sur un connecteur PCIe, il faut simplement emmener les broches du SSD au bon endroit sur le port PCI Express. Ce n’était pas le cas de l’adaptateur M.2 vers USB dans lequel, pour rappel, un contrôleur Realtek se chargeait de la conversion du signal.

Le PCB de notre adaptateur de marque Sabrent était vendu 10 euros sur Amazon il y a quelques mois quand nous l’avons acheté, mais il est désormais à 18 euros, ce qui est largement au-dessus de la moyenne pour ce genre de produit. Il en existe d’autres marques (ou sans marque) à 10 euros sur la marketplace d’Amazon.

Un PCB quasiment vide, et c’est normal

Le même bout de PCB (en no-name, sans la marque Sabrent, mais le reste du PCB est identique) est vendu quelques euros sur les plateformes chinoises, mais sans radiateur.

L’intérêt de ce modèle est qu’il est livré avec un pad thermique à poser sur les puces de mémoire NAND du SSD et un radiateur métallique qui englobe entièrement le SSD.

L’installation nécessite un peu de dextérité avec une vis pour faire tenir le SSD dans son emplacement M.2 (des trous sont disponibles pour les SSD au format 2230, 2242, 2260 et 2280, c’est-à-dire en 30, 42, 60 et 80 mm de long) et quatre autres pour fermer le boîtier. Dans le bundle, nous avions également un petit tournevis adapté aux vis, pratique.

À y regarder de plus près, on remarque quelques composants, à vrai dire. Deux condensateurs pour l’alimentation électrique, quatre LED et autant de résistances pour ces dernières. Aucun des composants ne sert au transfert des données.

Sur les photos ci-dessous, vous pouvez voir que seuls les deux premiers morceaux de PCB du port PCIe sont connectés, ce sont ceux qui correspondent à du x4. Les autres ne sont pas branchés, ce qui explique qu’on peut mettre la carte dans un emplacement x4, x8 ou x16.

Il suffit donc d’installer l’adaptateur dans un port PCIe de votre ordinateur. Il doit être en x4 minimum (il n’est pas compatible avec les ports x1), mais il peut aussi être en x4, x8 ou x16. Dans tous les cas, le câblage interne est en x4 maximum.

Sur la seconde rangée d’images, vous pouvez voir l’installation dans un emplacement x16, puis dans un emplacement x4 et enfin en face d’un emplacement x1 qui n’est pas compatible.

Cinq vis plus tard, 3 Go/s comme prévu avec notre SSD

Nous avons installé un SSD Kingston NV2S de 500 Go, qui est au format M.2 avec une interface NVMe en PCIe x4 Gen 4. Attention, cet adaptateur n’est compatible qu’avec les SSD M.2 avec une interface en PCIe, pas ceux en S-ATA !

Notre SSD était déjà partitionné et considérablement rempli, mais les performances sont équivalentes à celles obtenues s’il était directement branché sur la carte mère. Nous avons ainsi un peu plus de 3 Go/s en lecture et près de 2,4 Go/s en écriture.

Rien de surprenant puisque, une fois encore, cet adaptateur ne fait que mettre les broches du SSD M.2 au bon endroit sur le port PCIe, rien de plus ni rien de moins.

Sabrent adaptateur M.2 pour les SSD NVMe

Des adaptateurs pour 2 ou 4 SSD existent, attention à la bifurcation !

Si vous avez des SSD à brancher sur votre ordinateur et plus (ou pas) d’emplacement M.2 disponible, alors ce genre d’adaptateur est fait pour vous, à condition d’avoir au moins un port PCIe x4 de libre. Nous n’avons testé qu’un seul modèle, mais il existe des dizaines de déclinaisons, avec un ou plusieurs emplacements M.2.

Sur les adaptateurs avec quatre emplacements, vous verrez parfois une mention du type : nécessite la fonction de bifurcation. Cette technique permet de diviser un port x16 en deux ports x8 ou en quatre ports x4. C’est nécessaire pour utiliser quatre SSD M.2 sur une même carte. Nous en avions déjà parlé il y a plusieurs années.

Même encore aujourd’hui, mieux vaut vérifier ce qu’il en est sur le manuel de votre carte mère. Première chose, bien différencier le format du connecteur PCIe et son câblage. Un emplacement x16 peut ne proposer que du x4 ou x8, cela peut même varier en fonction du CPU (qui peut proposer plus ou moins de lignes PCIe).

Un exemple ? La X670-P-CSM avec un port PCIe x16 en x16 et deux autres ports PCIe x16 en… x4. Ne comptez donc pas y installer plus d’un SSD M.2. Asus propose aussi une page dédiée à la bifurcation et aux différentes possibilités… vous allez voir que c’est plus complexe qu’il n’y parait.

AirSnitch : quand l’isolement des utilisateurs sur les points d’accès Wi-Fi vole en éclats

27 février 2026 à 11:00
Je vais passer au Wi-Fi filaire, ça sera plus simple !
AirSnitch : quand l’isolement des utilisateurs sur les points d’accès Wi-Fi vole en éclats

Les points d’accès Wi-Fi proposent souvent la possibilité de créer plusieurs réseaux pour séparer les utilisateurs et gérer les accès. Problème, des chercheurs montrent que cette isolation peut facilement voler en éclats, via trois méthodes. Ils ont testé 11 routeurs, 11 étaient vulnérables. Certains auraient corrigé le tir, d’autres ne le pourraient pas.

Lors du Network and Distributed System Security (NDSS) Symposium qui se tient du 23 au 27 février à San Diego, des chercheurs de l’université de Californie à Riverside et de la Katholieke Universiteit de Louvain (Belgique) ont présenté leurs travaux baptisés « AirSnitch : démystifier et briser l’isolement des clients dans les réseaux Wi-Fi ». Un papier technique a aussi été mis en ligne (.pdf).

Attention, on parle bien ici de l’isolation des utilisateurs sur un même point d’accès, pas de casser le chiffrement du Wi-Fi. Si le WEP est depuis longtemps obsolète, WPA2 AES (pas en version TKIP, cassé avec KRACK) et WPA3 tiennent encore. Rien ne change avec AirSnitch, les chercheurs ne s’attaquent absolument pas au chiffrement des données, qui reste intact.

Wi-Fi invité : faites comme chez vous… heu wait !!

Pour être mises en œuvre, les attaques décrites dans leur papier nécessitent que l’utilisateur puisse se connecter à la borne Wi-Fi, que ce soit sur le même SSID ou un autre, du moment que le point d’accès est le même. Mais c’est aussi plus large, suivant les configurations.

Les chercheurs ajoutent en effet que des attaques sont également possibles entre plusieurs points d’accès, « mais aussi réalisables dans les réseaux d’entreprise et de campus où plusieurs points d’accès sont connectés sur un même réseau filaire ». Une solution pour limiter les dégâts est de mettre en place des VLAN, à condition de bien le faire évidemment.

Pour le grand public et certaines petites entreprises, les risques peuvent donc être importants si vous avez, par exemple, un réseau « invité » largement accessible.

Des protections sont en théorie en place depuis longtemps : « Pour empêcher les clients Wi-Fi malveillants d’attaquer d’autres clients sur le même réseau, les fournisseurs ont introduit l’isolation des clients, une combinaison de mécanismes bloquant la communication directe entre les clients. Cependant, l’isolation des clients n’est pas une fonctionnalité standardisée, ce qui rend ses garanties de sécurité incertaines », expliquent les chercheurs en guise d’introduction.

AirSnitch : trois vecteurs d’attaques

Ils ont identifié trois principaux vecteurs permettant de casser l’isolation. La première vient « des clés Wi-Fi protégeant les trames de diffusion qui sont mal gérées et peuvent être détournées ». Il s’agit des clés GTK (Group Temporal Key) qui sont les mêmes pour tous les clients sur un même réseau.

Autre faiblesse : « l’isolation est souvent appliquée uniquement au niveau MAC ou IP, mais rarement aux deux ». Enfin, la dernière est la conséquence d’une « faible synchronisation de l’identité d’un client à travers toute la pile réseau », permettant d’usurper son identité sur la partie la plus faible du réseau pour ensuite la garder et capter le trafic.

Les chercheurs détaillent les risques qu’ils ont identifiés. Un attaquant pourrait accéder aux paquets IP, ce qui pourrait faciliter certaines attaques car « aujourd’hui encore, 6 % et 20 % des pages chargées sous Windows et Linux, respectivement, n’utilisent pas HTTPS […] Nos attaques permettent également l’interception de sites web ou de services intranet locaux, plus susceptibles d’utiliser des connexions en clair ». Et même si HTTPS est utilisé (les données ne sont pas déchiffrées via les attaques), « les adresses IP utilisées sont toujours révélées, ce qui est souvent suffisant pour savoir quel site web est visité ».

Comme un « attaquant peut intercepter et exploiter tout trafic en clair de la victime […], il peut intercepter le trafic DNS et empoisonner le cache DNS du système d’exploitation de la victime. Il peut également modifier l’enregistrement DHCP et changer l’adresse de la passerelle et le serveur DNS utilisés par la victime. Ces attaques peuvent avoir un impact durable sur la victime, même après que l’attaquant a cessé d’être un intermédiaire ».

Netgear, D-Link, TP-Link, Ubiquiti… plus d’une dizaine de routeurs vulnérables

Onze routeurs ont été testés et tous ont été vulnérables à au moins une des attaques : Netgear Nighthawk X6 R8000, Tenda RX2 Pro, D-Link DIR-3040, TP-Link Archer AXE75, ASUS RT-AX57, DD-WRT v3.0-r44715, OpenWrt 24.10, Ubiquiti AmpliFi Alien Router, Ubiquiti AmpliFi Router HD, LANCOM LX-6500 et Cisco Catalyst 9130. Pour ceux qui voudraient tenter eux-mêmes l’expérience (et qui ont du matériel compatible), du code est disponible dans ce dépôt GitHub.

Les chercheurs détaillent une attaque de bout en bout sur un routeur Netgear R8000. Il est configuré avec quatre SSID, deux invités et deux de « confiance », chacun sur les 2,4 et 5 GHz. Le routeur est connecté à Internet via un câble réseau.

L’attaquant est sur le réseau invité et veut lancer une attaque de type « homme du milieu » (MitM), afin d’intercepter tout le trafic montant et descendant d’une victime sur le réseau de « confiance ». « L’attaquant commence donc par se connecter au SSID invité avec l’adresse MAC de la victime, mais sur une fréquence différente afin d’éviter toute déconnexion ». On vous épargne la partie technique (page 10 de ce document .pdf) pour arriver à la conclusion.

Les techniques mises en place « amènent le point d’accès à rediriger le trafic descendant de la victime vers le SSID invité. L’attaquant renvoie ensuite le trafic intercepté à la victime grâce à la technique de rebond de passerelle. De même, il intercepte le trafic montant en usurpant l’adresse MAC du point d’accès (c’est-à-dire le routeur passerelle) et le renvoie au serveur de la victime. L’attaque complète dure environ deux secondes. Pendant toute la durée de l’attaque, la victime regarde une vidéo YouTube en streaming sans subir de latence significative ».

Ars Technica s’est entretenu avec le premier chercheur de la publication, Xin’an Zhou. Nos confrères ont glané quelques informations sur les réactions des constructeurs de bornes et points d’accès : « Zhou a indiqué que certains fabricants de routeurs avaient déjà publié des mises à jour atténuant certaines attaques, et que d’autres étaient attendues. Il a toutefois précisé que certains fabricants lui avaient confié que certaines failles systémiques ne pouvaient être corrigées qu’en modifiant les puces sous-jacentes qu’ils achètent auprès des fabricants de semi-conducteurs ». Nos confrères n’entrent pas davantage dans les détails.

À la fin de leur publication, les chercheurs affirment avoir « signalé les vulnérabilités aux fournisseurs concernés, ainsi qu’à la Wi-Fi Alliance. La Wi-Fi Alliance a pris acte de leurs conclusions et ils attendent sa décision ».

Prudence sur les Wi-Fi publics et invités… comme toujours

Côté utilisateur, pas grand-chose à faire si ce n’est faire preuve de prudence. Il faut déjà se méfier des points d’accès publics, mais donc aussi de ceux plus confidentiels. Éviter aussi de donner accès à un Wi-Fi invité à n’importe qui (on espère que vous n‘avez pas attendu cette actualité…).

Une autre solution, les VPN : « Une partie de la menace peut être atténuée en utilisant des VPN, mais cette solution présente tous les inconvénients habituels. D’une part, les VPN sont réputés pour la fuite de métadonnées, des requêtes DNS et d’autres trafics utiles aux attaquants, ce qui limite la protection. Et d’autre part, trouver un fournisseur VPN réputé et digne de confiance s’est avéré historiquement difficile, même si la situation s’est améliorée récemment. En fin de compte, un VPN ne devrait pas être considéré comme plus qu’un simple pansement », explique Ars Technica.

Il n’est pas forcément nécessaire de passer par un tiers, si vous avez une Freebox avec Freebox OS, elle peut faire office de serveur VPN Wireguard, vous permettant ainsi d’utiliser votre connexion Internet en déplacement, de manière sécurisée. Vous pouvez également utiliser un VPS pour y installer un serveur VPN, nous aurons prochainement l’occasion d’en reparler. Surtout, soyez prudent face aux petits et gros mensonges des vendeurs de VPN.

☕️ NVIDIA retire en urgence ses pilotes 595.59 WHQL

27 février 2026 à 09:00

Comme le rapporte Videocardz, suite à la mise en ligne des pilotes 595.59 WHQL par NVIDIA, plusieurs utilisateurs remontent des soucis au niveau de la gestion des ventilateurs, principalement sur les cartes GeForce RTX 50 : « Les utilisateurs affirment que certains ventilateurs cessent de répondre, que les courbes personnalisées des ventilateurs sont ignorées, ou qu’un seul capteur apparaît dans des outils comme HWiNFO, GPU-Z et les utilitaires des fabricants », expliquent nos confrères.

Ce n’est pas tout. D’autres utilisateurs pointent du doigt « une baisse du boost après la mise à jour. Les utilisateurs rapportent des fréquences de pointe plus faibles et suggèrent que le pilote limite la tension GPU à environ 0,95 V », avec pour conséquence de limiter la fréquence sur certaines cartes. Les retours sont nombreux sur les forums de NVIDIA.

Dans la foulée de la mise en ligne, NVIDIA a retiré les pilotes et demande à ses utilisateurs qui rencontrent des soucis d’effectuer un retour en arrière sur la précédente version, comme indiqué dans une mise à jour des notes de version : « Nous avons découvert un bug dans les pilotes WHQL Game Ready et Studio 595.59 et avons temporairement supprimé les téléchargements pendant que notre équipe enquête. Pour les utilisateurs qui ont déjà installé ce pilote et rencontrent des problèmes de contrôle des ventilateurs, veuillez revenir à 591,86 WHQL ».

Les notes de version des 595.59 renvoient désormais vers une page vide.

☕️ Android 17 débarque en beta 2, avec des bulles, un EyeDropper, de la Proximity Detection…

27 février 2026 à 07:40

Deux semaines après la mise en ligne de la première version bêta d’Android 17, Google remet le couvert. Plusieurs nouveautés sont mises en avant. Pour la partie interface et expérience utilisateurs, les « bulles » arrivent. Cette fonctionnalité, distincte de l’API des bulles de messagerie (arrivée avec Android 11), permet de passer une application en mode fenêtre.

« Les utilisateurs peuvent créer une bulle d’application sur leur téléphone, leur appareil pliable ou leur tablette en maintenant longuement enfoncée une icône d’application dans le lanceur ». Un exemple ci-dessous avec l’Agenda.

Le billet de blog associé propose plusieurs animations présentant le fonctionnement des nouvelles fonctionnalités. Pour les développeurs d’applications, de la documentation est disponible ici.

Passons ensuite à EyeDropper. C’est une API au niveau du système qui « permet à votre application de demander la couleur de n’importe quel pixel de l’écran sans nécessiter d’autorisations sensibles pour capturer l’écran ».

Plusieurs autres petits changements sont apportés sous le capot, notamment pour le sélecteur de contacts qui permet d’accorder des autorisations temporaires (au niveau de la session) en lecture aux seuls champs de données demandés par l’utilisateur, une meilleure prise en charge des pavés tactiles, etc.

Pour la connectivité inter-appareils, Google annonce « une nouvelle API Handoff permettant de spécifier l’état de l’application à reprendre sur un autre appareil, comme une tablette Android ». Sur la partie Ultra Wide Band, « UWB DL-TDOA qui permet aux applications d’utiliser UWB pour la navigation intérieure ».

Côté Wi-Fi, la fonctionnalité Proximity Detection de la Wi-Fi Alliance est prise en charge. « Cette technologie offre une fiabilité et une précision accrues par rapport aux spécifications de portée existantes basées sur le Wi-Fi Aware », qui permet aux appareils compatibles de communiquer directement entre eux.

Google continue de viser un rythme annuel pour la sortie majeure de son SDK (chaque deuxième trimestre), accompagné d’une mise à jour au quatrième trimestre. L’entreprise est confiante dans le calendrier : « Nous allons rapidement passer de cette bêta à notre jalon Platform Stability prévu pour mars », c’est le moment où les API seront figées pour permettre aux développeurs de s’adapter.

La compatibilité des smartphones est la même que précédemment : les Pixel de Google à partir des versions 6. Tous les détails se trouvent sur ce site dédié à Android 17.

NVIDIA engrange 120 milliards de dollars de bénéfices, regarde la Chine et l’espace

26 février 2026 à 14:58
La pénurie et les difficultés financières, c’est pas pour tout le monde !
NVIDIA engrange 120 milliards de dollars de bénéfices, regarde la Chine et l’espace

Les datacenters sont le principal (et de loin) moteur de NVIDIA. Depuis le lancement de ChatGPT, le chiffre d’affaires associé a été multiplié par près de 13. Le géant américain des GPU pour l’IA profite de la publication de ses résultats financiers pour parler de ses relations avec la Chine, de sa prochaine architecture Vera Rubin et des datacenters dans l’espace.

Sur son année fiscale 2026 terminée le 26 janvier 2026 (oui, l’entreprise a quasiment un an d’avance), NVIDIA revendique un chiffre d’affaires de 215,94 milliards de dollars, en hausse de 65 % sur un an.

Les bénéfices nets suivent la même tendance avec 120,07 milliards de dollars (+ 65 % également). Cela donne tout de même 13,7 millions de dollars par… heure. C’est la première fois de son histoire que NVIDIA dépasse la barre des 100 milliards de dollars de bénéfices sur un an, un club assez sélectif.

Le chiffre d’affaires s’établit à 68,13 milliards de dollars sur le seul dernier trimestre de l’exercice (+ 20 % sur trois mois glissants) et NVIDIA promet de faire encore mieux sur le premier trimestre de 2027 avec 78 (±2 %) milliards de dollars. La branche des datacenters représente la quasi-totalité du chiffre d’affaires avec 62,3 milliards de dollars sur les 68,13 milliards.

Des résultats supérieurs aux attentes, mais qui ne semblent pas pour l’instant bouleverser le comportement du titre à Wall Street.

62,3 milliards de dollars pour les datacenters, 3,7 milliards pour les joueurs

Le gaming (avec les GeForce) ne représente que 3,7 milliards de dollars, soit près de 17 fois moins que les GPU pour les centres de données et l’intelligence artificielle. NVIDIA annonce que la partie gaming est « en hausse de 47 % par rapport à l’année dernière, portée par une forte demande pour Blackwell [les GeForce RTX 50, ndlr], et en baisse de 13 % par rapport au trimestre précédent, les stocks des distributeurs s’étant naturellement réduits après une période de forte demande liée aux fêtes de fin d’année ».

Alors qu’on attendait au CES 2026 un renouvellement de la gamme des GeForce RTX 50 lancée en janvier 2025 avec une déclinaison « Super », rien n’est arrivé. Cela n’aide évidemment pas à relancer les ventes. Il est pour rappel bien plus rentable pour NVIDIA de fabriquer des GPU pour les datacenters et l’IA que des GeForce pour les joueurs. Les wafers de silicium et les puces de mémoire étant en quantité limitée, il n’est pas étonnant de voir les revenus sur la partie datacenter autant exploser face aux gamers.

Pendant ce temps-là, la pénurie mondiale de puces mémoire et la vente massive à NVIDIA de la production pour les GPU des datacenters font augmenter les tarifs de nombreux produits. La mémoire et les SSD sont en tête de liste, mais avec des effets collatéraux sur les ordinateurs, les VPS

Depuis l’arrivée de ChatGPT, la branche datacenter a fait x13

Durant la session de questions/réponses de présentation des résultats, Colette Kress, directrice financière du groupe, explique d’ailleurs que NVIDIA « a multiplié par près de 13 son activité de centres de données depuis l’émergence de ChatGPT en 2023 ».

Sur l’année fiscale 2023 (terminée le 29 janvier 2023), les revenus étaient de 26,97 milliards de dollars, pour des bénéfices nets de 4,37 milliards de dollars. Sur 2024 (terminée le 29 janvier 2024), les revenus étaient de 60,92 milliards de dollars (déjà un x2 l’année de lancement de ChatGPT), pour des bénéfices nets de 29,76 milliards de dollars.

Colette Kress ajoute que les produits de la génération « Hopper et une grande partie des produits Ampere, vieux de six ans, sont en rupture de stock dans le cloud ». Concernant les systèmes Grace Blackwell GB200 NVL72 lancés il y a tout juste un an, ils représentent aujourd’hui 9 GW de puissance électrique installée. Avec une puissance de 120/130 kW par baie, cela donne l’équivalent de plus de 70 000 baies déployées à travers le monde.

Le fabricant se félicite aussi de son initiative Sovereign AI dont les revenus ont « plus que triplé d’une année sur l’autre pour dépasser 30 milliards de dollars par an, principalement grâce à des clients basés au Canada, en France, aux Pays-Bas, à Singapour et au Royaume-Uni ».

NVIDIA, USA et Chine : poker menteur autour des GPU et des IA

Sur la question de la Chine, Colette Kress explique que, « bien que de petites quantités de produits H200 pour les clients basés en Chine aient été approuvées par le gouvernement américain, nous n’avons pas encore généré de revenus, et nous ne savons pas si des importations seront autorisées en Chine ».

Selon un haut responsable de l’administration Trump cité par Reuters, cela n’empêcherait pas la Chine d’accéder aux derniers GPU Blackwell : « Le dernier modèle d’IA de la start-up chinoise d’IA DeepSeek, dont la sortie est prévue dès la semaine prochaine, a été entraîné sur la puce IA la plus avancée de NVIDIA ». Le gouvernement rappelait sa ligne : « Nous n’expédions pas de Blackwell en Chine ».

Colette Kress lance un appel aux responsables américains :

« Nos concurrents en Chine, renforcés par les récentes introductions en bourse, progressent et ont le potentiel de bouleverser la structure de l’industrie mondiale de l’IA sur le long terme. Pour maintenir sa position de leader dans le calcul IA, l’Amérique doit engager chaque développeur et doit être la plateforme de choix pour chaque entreprise commerciale, y compris celles de Chine. Nous continuerons à dialoguer avec les gouvernements américain et chinois et à défendre la capacité de l’Amérique à rivaliser dans le monde ».

Vera Rubin toujours « on track » pour le second semestre 2026

La directrice financière en profite pour revenir sur les derniers CPU et GPU en date : Vera Rubin. Les premiers échantillons ont été « expédiés à nos clients plus tôt cette semaine ». NVIDIA espère lancer les expéditions en masse au cours du second semestre de l’année, en phase avec le calendrier annoncé en janvier lors de la présentation des nouvelles puces.

Des datacenters dans l’espace ? Il est encore trop tôt pour Jensen Huang

Pendant l’échange téléphonique, une question a été posée sur la faisabilité des datacenters dans l’espace, dont certains pensent que cela peut être une solution viable et intéressante. Pour Jensen Huang, patron de NVIDIA, il est trop tôt : « La situation économique est mauvaise aujourd’hui, mais elle va s’améliorer avec le temps ».

Le fonctionnement dans l’espace est « radicalement différent de celui sur Terre ». L’énergie, par exemple, « y est abondante, mais les panneaux solaires sont volumineux ». Il fait froid et c’est un avantage pour dissiper la chaleur, mais à cause de « l’absence de circulation d’air, la chaleur ne se dissipe que par radiation et les radiateurs à fabriquer sont assez volumineux ». Quant au refroidissement liquide, c’est « hors de question » pour Jensen Huang car ce genre de système est « lourd et peu résistant ». Se pose aussi la question d’envoyer et de recevoir des Po et des Po de données.

Rappelons que des serveurs ont déjà été envoyés dans l’espace, notamment par HPE qui a fait un retour d’expérience détaillé avec des constatations auxquelles les ingénieurs n’avaient pas pensé au départ. Par exemple, « en l’absence de pesanteur, les composants non attachés flottent à l’intérieur du châssis, y compris le câblage interne ». Certains s’étaient par exemple approchés de ventilateurs qui les avaient « limés ».

Jensen Huang ne ferme cependant pas totalement la porte. « Les méthodes que nous utilisons ici sur Terre diffèrent donc légèrement de celles employées dans l’espace. Cependant, de nombreux modèles concurrents sont en cours d’élaboration et aspirent à être mis en œuvre dans l’espace ».

Samsung Galaxy S26 : SoC Qualcomm modifié, Privacy Display… et IA à tous les étages

26 février 2026 à 12:56
25+1 = 26, le compte est bon !
Samsung Galaxy S26 : SoC Qualcomm modifié, Privacy Display… et IA à tous les étages

Samsung vient de dévoiler sa nouvelle série de smartphones, les (roulements de tambour) Galaxy S26. Ils sont au nombre de trois : le Galaxy S26 de base, le S26+ et enfin le S26 Ultra, avec un « nouveau » SoC Qualcomm aux commandes. Les principales nouveautés sont réservées au S26 Ultra, proposé à partir de 1469 euros.

Galaxy S26, S26+ et S26 Ultra en quelques lignes (et un tableau)

Nous n’allons pas nous étendre des heures sur les caractéristiques techniques. Nous avons regroupé les principales dans le tableau ci-dessous. Comme toujours, la version Ultra a un écran plus grand, plus de mémoire vive sur la version avec 1 To de stockage (16 Go à la place de 12 Go), des capteurs optiques de meilleure qualité, une batterie plus grosse, etc. Un comparatif est aussi disponible sur cette page.

Les trois smartphones sont certifiés IP68, mais à la sauce Samsung. Le fabricant prend en effet le soin d’apporter des précisions : « Testé en laboratoire pour une immersion jusqu’à 1,5 mètre de profondeur dans l’eau douce pendant 30 minutes maximum. Aucune infiltration de poussière ; protection totale contre les contacts (étanche à la poussière). L’étanchéité à l’eau et à la poussière n’est pas permanente et peut diminuer avec le temps en raison de l’usure normale ».

De l’IA, encore de l’IA

Côté logiciel, Samsung annonce que « les améliorations apportées au traitement IA de l’image s’étendent désormais au capteur frontal, capable de reproduire des tons de peau plus naturels et des détails plus fins ». Toujours sur l’IA, le fabricant met en avant son Assistant Photo avec lequel « les utilisateurs peuvent simplement décrire ce qu’ils souhaitent modifier avec leurs propres mots ». Attention, ce n’est pas que du local : « peut nécessiter une connexion réseau et la connexion à un compte Samsung ».

Il y a également Creative Studio, qui « nécessite une connexion réseau et la connexion à un compte Samsung » et regroupe « création et retouche dans un seul espace ». Même chose pour Now Nudge qui propose des « suggestions pertinentes », Now Brief qui « envoie de façon pertinente, en fonction du contexte personnel de l’utilisateur, des notifications portant sur les événements importants, comme une modification apportée à une réservation ou un voyage ».

Des explications et vidéos de présentation sont disponibles par ici.

Privacy Display : une nouveauté intéressante !

Avec le Galaxy S26 Ultra (uniquement), Samsung annonce « le premier Privacy Display intégré de l’industrie mobile ». Ce n’est pas une surprise puisque Samsung avait déjà annoncé son Privacy Display en janvier 2026.

Voici son fonctionnement :

« En contrôlant comment les photodiodes dispersent la lumière, l’écran conserve un contenu clair et lumineux tout en limitant ce que les autres peuvent voir. Contrairement aux protections adhésives traditionnelles, Privacy Display préserve la qualité d’affichage dans toutes les directions lorsqu’il est désactivé, et limite la visibilité depuis des angles de vue latéraux lorsqu’il est activé – même en passant du mode portrait au mode paysage ».

Une vidéo a été publiée par le compte officiel Samsung et le résultat semble intéressant. Le Privacy Display peut s’activer en permanence ou lors de certaines opérations seulement, comme la saisie d’un mot de passe ou d’un code PIN. À confirmer en conditions réelles lorsque le Galaxy S26 Ultra sera disponible : à partir du 11 mars 2026.

Encore un nouveau SoC Qualcomm, le « Snapdragon 8 Elite Gen 5 for Galaxy »

Niveau processeur, Samsung annonce un SoC « Snapdragon 8 Elite Gen 5 for Galaxy », ou bien un Exynos 2600 pour les S26 et S26+ seulement, dans certains pays. En France, c’est la version avec un Exynos 2600 qui est annoncée sur la boutique en ligne de Samsung.

Pour rappel, le « Snapdragon 8 Gen 5 » a été annoncé en novembre dernier. C’est tellement facile de suivre les noms de produits que Qualcomm s’était fendu, en amont, d’un billet explicatif. Qu’est-ce donc alors que cette version « for Galaxy » ? Qualcomm a publié un billet de blog affirmant que c’était le « SoC mobile le plus rapide au monde ». Mais encore ? C’est une version optimisée de la puce pour « bénéficier des dernières expériences Galaxy IA ».

Il y a ensuite une segmentation : avec le FastConnect 7900 de Qualcomm, « les Galaxy S26 Ultra et S26+ renforcent encore cette expérience grâce à l’intégration de l’Ultra Wideband (UWB) ». Il y a également l’APV Codec (Advanced Professional Video, développé par Samsung), mais uniquement pour le S26 Ultra.

Pour les caractéristiques techniques détaillées, on repassera. Qualcomm annonce 19 % de hausse des performances en CPU, 24 % en GPU et 39 % en NPU, mais cette comparaison est faite avec le SoC Snadpragon 8 Elite (que l’on pourrait tout aussi bien appeler Snapdragon 8 Elite Gen 4) des Galaxy S25.

Bref, c’est toujours autant le bazar chez Qualcomm qui multiplie les références, les modifie en cours de route, personnalise des SoC pour ses partenaires, etc.

S26 Ultra : « sept ans de mises à jour »… quid des autres ?

Samsung annonce « sept ans de mises à jour de sécurité et système d’exploitation et 3 ans de garantie commerciale [pour] les Galaxy S26 Ultra et Galaxy S26 Entreprise Edition ». « La fréquence (mensuelle, trimestrielle) des mises à jour de sécurité et de maintenance peut varier selon le modèle de l’appareil », ajoute le fabricant. Rien n’est précisé pour les Galaxy S26+ et S26, dommage.

Les tarifs débutent à 1 469 euros pour le S26 Ultra, 1 269 euros pour le Galaxy S26+ et 999 euros pour le Galaxy S26. Samsung a aussi annoncé des écouteurs sans fils Galaxy Buds 4 avec, selon le constructeur, « des performances audio exceptionnelles et des capacités d’intelligence artificielle avancées ». Ils sont vendus à partir de 179 euros.

[Test] Les différences de performances entre des vCores Arm et x86 sur un VPS

26 février 2026 à 09:07
Passe d’Arm
[Test] Les différences de performances entre des vCores Arm et x86 sur un VPS

Quelles différences sur les performances CPU entre des vCores Arm et d’autres x86 ? Nous lançons une batterie de tests sur deux VPS de chez Hetzner, deux jumeaux, mais le premier avec des cœurs Ampere (Neoverse N1 d’Arm) et le second des cœurs Skylake d’Intel.

Dans les VPS d’entrée de gamme, Hetzner propose le choix entre deux architectures pour la partie CPU : x86 avec un processeur Intel ou AMD suivant les stocks, ou bien Arm avec un CPU Ampere (cœurs Neoverse N1 selon l’annonce de 2022). La différence de prix entre les deux est faible : moins de 40 centimes par mois, à l’avantage du x86 qui est le plus abordable.

Les cœurs Arm sont plus chers que les cœurs x86

La différence se creuse avec le nombre de vCore : 1,2 euros de plus avec 4 vCore Ampere au lieu de 4 vCore Intel/AMD, 3,6 euros avec 8 vCores et enfin 8,4 euros avec 16 vCores. Le CX53 en x86 est à 20,98 euros par mois, contre 29,39 euros pour le CAX41 en Arm.

Dans le cadre de ce test, nous avons donc mis face à face un VPS CX23 et un CAX11. Les deux ont 2 vCore, 4 Go de mémoire, 40 Go de stockage, 20 To de trafic inclus et sont localisés en Allemagne à Nuremberg, dans le datacenter NBG1. Seule différence : des cœurs Skylake pour notre CX23 et Neoverse N1 (confirmés par les informations renvoyées par notre VPS) pour CAX11.

Sur la partie CPU, Arm prend le large

Nous avons d’abord passé le nouveau VPS en Arm à la moulinette de notre protocole de test pour les VPS (pensé pour du x86 à la base). Certaines mesures ne sont donc pas réalisables, notamment celles exploitant le jeu d’instructions SSE2 qui n’est disponible que sur x86. Tous les résultats sont dans cette feuille de calcul au format ODS.

Sur un seul cœur, Hetzner en version ARM est juste en dessous du cœur AMD EPYC de chez Ionos sur le test Sysbench. De manière générale, la partie CPU du VPS Hetzner avec des cœurs Ampere écrase totalement le VPS Hetzner avec des cœurs x86 dans la quasi-totalité des tests.

Les performances font jusqu’à x6 sur OpenSSL AES sur 256 bits, quasiment x4 sur Sysbench CPU et Prime, x2 sur OpenSSL, x1.5 sur Z-ZIP et CoreMark, etc. Ce n’est pas une règle absolue, sur OpenSSL en RSA 2048 bits les performances en ARM sont trois fois plus faibles qu’en x86, que ce soit sur le nombre de signatures ou de vérifications par seconde.

Sur les scores mémoire Sysbench, les résultats se tiennent sur des données de 1 ko, mais la version Arm prend la tête quand on passe à 1 Mo.

Nous avons également créé un diagramme de Kiviat du VPS Hetzner en version Arm afin de le comparer aux autres de notre comparatif (tous en x86). Pour la partie réseau, les résultats doivent être pris avec des pincettes : les tests n’ont pas été réalisés en même temps, ils sont donc plus difficilement comparables.

Dans l’ensemble, le VPS en version Arm fait mieux que son équivalent en x86. Au lieu d’être dans la moyenne basse des résultats, le VPS avec CPU Ampere est dans la moyenne haute, quasiment à égalité avec le VPS OVHcloud équipé de quatre cœurs virtuels.

Unixbench et GeekBench : Arm vs x86 sur les tests synthétiques

Passons maintenant aux tests globaux avec Unixbench : le VPS avec des cœurs Ampere obtient un score trois fois plus élevé que celui de son homologue en x86.

Sur Geekbench 6 (en version Preview pour architecture Arm), le VPS Ampere est environ 40 % plus rapide que le VPS Intel. Les résultats des deux VPS sont disponibles sur cette page.

La réalité est toujours plus compliquée quand il s’agit de comparer des architectures aussi différentes. Les résultats dépendront en grande partie des types de tests, de la présence ou non d’accélération matérielle sur les cœurs, etc.

Nous avons lancé toute une série de tests dont les résultats sont regroupés dans le tableau ci-dessous. Vous pouvez également télécharger la feuille de calcul au format ODS.

Cela ne couvre pas tous les usages, loin de là, mais permet d’avoir quelques ordres de grandeur. Un dernier résultat pour finir, à contrecourant de Sysbench, GeekBench et Unixbench : le temps de compilation du noyau Linux est 2,3 fois plus rapide sur x86 que sur Arm.

Faites vos tests

Avec sa facturation à l’heure, Hetzner permet de tester sans devoir dépenser plus que nécessaire. Par exemple, pour nos tests sur le VPS CAX11 avec des cœurs Ampere, nous l’avons pris pendant 16 heures pour un coût de 11 centimes environ.

Si vous avez des doutes sur l’architecture Arm proposée par Hetzner sur ses VPS d’entrée de gamme, vous pouvez tester pour quelques dizaines de centimes des cas d’usage précis.

☕️ L’Europe envisage d’étendre le « roaming comme à la maison » à six pays des Balkans

26 février 2026 à 08:36

Après des années de travaux et de discussions, la fin des frais d’itinérance est entrée en vigueur le 15 juin 2017 en Europe. En 2021, les accords ont été prolongés de dix ans, avec de nouvelles règles pour mieux informer les clients et surtout proposer le « même niveau de qualité » en roaming qu’à la maison.

Sur X, Marta Kos, la commissaire européenne à l’Élargissement et à la Politique européenne de voisinage, explique avoir « proposé d’entamer des discussions pour étendre cette initiative aux « Western Balkans«  ». Cela concerne en théorie la Macédoine du Nord, le Monténégro, la Serbie, l’Albanie, la Bosnie-Herzégovine et le Kosovo.

Ces pays ont officiellement « obtenu le statut de pays candidat et sont en train de réformer leur législation nationale afin de l’aligner sur les règles, réglementations et normes de l’UE », à l’exception du Kosovo qui a déposé sa candidature d’adhésion en 2022.

L’Arcep rappelle que, depuis le 1ᵉʳ janvier 2026, la zone géographique du « Roam like at home » (RLAH de son petit surnom) comprend l’Ukraine et la Moldavie, en plus des pays de l’espace économique européen, c’est-à-dire les 27 États membres de l’UE (dont ne fait plus partie le Royaume-Uni), l’Islande, le Liechtenstein et la Norvège.

Marta Kos explique que « les frais d’itinérance constituent un problème dans les Balkans occidentaux, notamment pour les travailleurs frontaliers et les familles qui appellent leurs proches à l’étranger. Les factures surprises en voyage sont quelque chose que nous n’acceptons plus dans l’UE ».

C’est loin d’être fait puisqu’il n’est pour le moment question que d’ouvrir les discussions.

☕️ Chez HP, la mémoire (RAM, stockage) va représenter plus d’un tiers du prix d’un PC

26 février 2026 à 08:09

HP a publié cette semaine son premier bilan de 2026 (clôturé le 31 janvier). Les revenus sont en hausse de 6,9 % sur un an, avec 14,4 milliards de dollars, contre 13,5 milliards il y a douze mois. Les produits représentent toujours la quasi-totalité des ventes, avec 13,6 milliards de dollars. Les bénéfices nets sont de 545 millions de dollars, en baisse par rapport à 2025 (565 millions).

« Nous sommes heureux d’annoncer un premier trimestre solide, marqué par une forte croissance des systèmes personnels, notamment grâce à la dynamique continue des PC dotés d’IA », explique Bruce Broussard, CEO par interim de l’entreprise. Les AI PC sont des portables avec une puce dédiée au traitement des fonctions d’IA, comme un NPU. Lors de la conférence téléphonique de présentation des résultats, HP précise que les AI PC représentent plus de 35 % des livraisons.

Ordinateur portable écrire texte

La directrice financière Karen Parkhill revient sur l’explosion des coûts de la mémoire : « Nous avons indiqué le trimestre dernier que les coûts de mémoire et de stockage représentaient environ 15 % à 18 % de la facture des matériaux des PC, et nous estimons actuellement cela à environ 35 % pour cette année ». C’est donc deux fois plus en l’espace de quelques mois. Toujours lors de la conférence de presse, HP a expliqué que les coûts de la mémoire ont augmenté d’environ 100 % entre le premier et le deuxième trimestre… et d’autres hausses sont attendues.

Les tensions sur les puces de mémoire très prisées par les fabricants de GPU pour l’intelligence artificielle ont déjà fait exploser les prix sur les kits mémoire, ainsi que sur les SSD. Comme nous l’avons déjà expliqué, des hausses sont également de la partie sur les HDD.

Cette situation tendue a également des effets de bord sur du matériel déjà en place, notamment chez les hébergeurs. OVHcloud et Hetzner ont annoncé des hausses sur leurs nouveaux serveurs… mais aussi du matériel bien plus ancien, qui a parfois plus de 10 ans.

☕️ Firefox 149 bêta est disponible, avec Split View pour les onglets

26 février 2026 à 07:01

Alors que Firefox 148 vient d’arriver avec son kill switch pour les fonctions liées à l’intelligence artificielle, Mozilla vient de mettre en ligne la bêta de la version 149.

Elle propose par défaut une nouvelle fonctionnalité Split View pour les onglets, permettant, au sein d’une même fenêtre de Firefox, de séparer l’affichage en deux. Cette fonctionnalité était présente depuis quelques semaines dans les nigthlies.

Il suffit de faire un clic droit sur un onglet et de cliquer sur « Add Split View » pour ne l’afficher que sur la moitié de la fenêtre, avec un nouvel onglet sur la seconde moitié. Vous pouvez également sélectionner deux onglets, faire un clic droit et choisir « Open in Split View » pour les assembler. Il est évidemment possible de les séparer par la suite.

Comme moi, bon nombre de personnes utilisaient déjà deux fenêtres de leur navigateur pour les afficher l’une à côté de l’autre, mais cette séparation au sein d’une même fenêtre de Firefox permettra certainement plus de flexibilité. Une fonctionnalité équivalente a récemment fait son apparition dans le canal stable de Chrome.

Pour télécharger Firefox 149 bêta c’est par là. La version finale est attendue pour le 24 mars 2026.

☕️ Amazon perd le responsable de son AI Lab, qui part en quête de l’IA générale (AGI)

25 février 2026 à 16:30

C’est via un message sur LinkedIn que David Luan annonce son départ d’Amazon, une entreprise qu’il avait rejointe il y a un peu moins de deux ans suite au rachat de sa start-up Adept AI Lab. Il avait auparavant passé un an chez Google et un peu moins de trois ans dans les équipes d’OpenAI chez qui il a eu « la chance de participer à l’incubation des premiers GPT ».

« Il y a un travail incroyable à accomplir chez Amazon et des opportunités pour moi de m’investir dans de nouveaux domaines. Mais avec l’intelligence artificielle générale (IAG) si proche, j’ai décidé de consacrer 100 % de mon temps à enseigner aux systèmes d’IA de toutes nouvelles capacités ».

Amazon serait-elle en retard pour qu’il quitte ainsi l’entreprise ? Selon The Verge, la réponse est clairement oui : « La perte d’un développeur d’IA de premier plan chez Amazon intervient alors que l’entreprise peine à suivre le rythme de la course à l’IA ; même ses propres employés qualifieraient ses produits d’IA internes de « Amazon Basics » ».

Il quittera son poste à la fin de la semaine, Peter Desantis prendra la relève. Cela fait plus de 27 ans qu’il est en place chez Amazon.

Datacenters : c’est quoi un campus, les Tiers, un hyperscaleur, la colocation, on premise…

25 février 2026 à 14:51
DC Comiques
Datacenters : c’est quoi un campus, les Tiers, un hyperscaleur, la colocation, on premise…

Dans le monde des datacenters, on voit souvent passer des termes abscons comme « on premise », des niveaux Tiers, de l’hyperscale, des Campus (IA), etc. Next vous explique ce qui se cache derrière. Parfois une définition bien précise, mais pas toujours.

Dans une précédente série d’articles, nous avions expliqué ce qu’était un datacenter, en partant du plus petit élément : un serveur. Nous sommes ensuite passés à la baie de brassage (ou rack) et enfin au datacenter en lui-même, avec tout ce qu’il doit apporter aux équipements informatiques.

Nous étions arrivés à la conclusion qu’un datacenter, c’est le bâtiment qui fournit le gîte et le couvert (au sens du refroidissement, de l’électricité, de la sécurité des locaux, de la mise à disposition de fibre optique…) à des serveurs et donc aux applications qui tournent dessus. Des datacenters, il en existe de toutes les tailles ou presque.

Passons maintenant à des explications sur les termes utilisés par les acteurs du monde des centres de données.

C’est quoi un parc ou un campus ?

Parc ou campus de centres de données a une définition officielle publiée au Journal de l’Union européenne : « une installation qui abrite plusieurs centres de données ». On peut facilement extrapoler à un Campus IA : une installation avec plusieurs datacenters pensés pour l’intelligence artificielle, et donc avec de gros GPU.

Dans le cas d’un Campus ou d’un Parc, « l’exploitant de chaque centre de données doit mettre à la disposition du public et communiquer à la base de données européenne un ensemble distinct d’informations et d’indicateurs de performance clés pour chaque centre de données de l’installation », précise le document de la Commission européenne.

C’est quoi la haute densité ?

La notion de haute densité est associée à celle de la puissance électrique (et donc de la consommation). Plus la puissance électrique est importante, plus la densité est élevée, c’est aussi simple que cela. Il n’existe pas de seuil officiel (même vague) à partir duquel parler de haute densité. Pire encore, au fil des évolutions, la haute densité d’hier devient la densité classique d’aujourd’hui. Haute densité électrique implique aussi un refroidissement adapté.

Vous l’avez certainement compris, parler de haute densité ne veut donc pas dire grand-chose si l’hébergeur ne précise pas la puissance électrique par baie (souvent en kW), par exemple. Il existe aussi la très haute densité, la densité extrême, avec les mêmes inconnues sur les seuils.

S’il fallait s’essayer à dresser de grandes lignes, on pourrait dire que la haute densité commence à une dizaine de kW, la très haute densité à quelques dizaines de kW et la densité extrême dépasse allègrement les 100 kW par rack. La baie NVIDIA GB200 NVL72 (.pdf) avec 72 GPU B200 Blackwell et 36 CPU Grace est par exemple à 135 kW. Les kW sont pour les baies, au niveau des datacenters on parle de MW.

Dans son rapport (.pdf) sur les implantations de datacenters en France, la Direction générale des entreprises est encore plus floue : « Les centres haute densité pour le calcul haute performance (HPC) et l’entrainement de modèles d’IA sont une branche émergente et en expansion rapide du secteur des centres de données ». La haute densité est ici associée à la puissance de calcul.

C’est quoi un hyperscaleur ?

Wikipédia donne la définition suivante pour hyperscale : « la capacité d’une architecture technique à s’adapter rapidement à des demandes importantes de ressources (dans des systèmes à grande échelle) ». Dans le monde de l’informatique et du cloud plus précisément, c’est la capacité pour une entreprise de proposer de la puissance de calcul et du stockage à grande échelle. Un hyperscaleur dispose donc de datacenters bien plus gros que la moyenne, ce sont les géants des centres de données.

Les plus connus sont AWS (Amazon Web Services), Microsoft Azure, Google Cloud, Meta, Alibaba Cloud, etc. Comme avec la haute densité, Redhat rappelle qu’il « n’existe pas de norme universelle qui permette de définir précisément la catégorie des hyperscalers ».

C’est quoi la colocation ?

Il n’y a pas de piège ici. Un datacenter de colocation vous permet de louer une partie du datacenter pour y installer vos équipements. Cela peut aller d’un serveur à tout ou partie d’une baie, voire d’une salle dédiée. Suivant les cas, les propriétaires des serveurs peuvent ajouter des protections pour limiter l’accès aux serveurs (si une baie est partagée, plusieurs clients peuvent alors y accéder).

« Le centre de données prend en charge des services essentiels tels que l’alimentation électrique redondante, la climatisation, la surveillance et la sécurité. Ces installations permettent une disponibilité constante des systèmes, même en cas de panne ou de surcharge », explique OVHcloud.

C’est comme une colocation dans un appartement : l’eau, l’électricité, la connexion Internet et le refroidissement sont communs, ensuite chacun dispose de son espace dédié. Vous pouvez généralement choisir l’emplacement, avec une capacité électrique. Des options permettent d’augmenter la puissance, la connectivité, etc.

C’est quoi on premise et edge ?

C’est encore plus simple : un serveur ou du matériel « on premise » veut dire sur site, dans votre bâtiment. Vous n’êtes pas chez un hébergeur ; vous gérez tout de A à Z. Il faut donc construire et entretenir l’infrastructure, mais vous êtes seul maître à bord. Vos données ne dépendent pas d’un tiers. C’est un avantage pour la confidentialité, mais un défi pour la sécurité et la disponibilité (vous êtes seul responsable).

Quand il est question de datacenter « edge », cela veut simplement dire que les installations informatiques sont disposées à proximité des utilisateurs, des clients finaux. Vous pouvez utiliser un prestataire (les hyperscaleurs ont des datacenters un peu partout dans le monde) ou gérer vous-même, il n’y a pas de règle.

C’est quoi les niveaux Tier I à IV ?

Terminons par les Tiers, une classification des datacenters qui est, selon HPE, « un bon moyen de communiquer rapidement les caractéristiques attendues d’un datacenter ». L’Uptime Institute définit quatre niveaux, en fonction des équipements et de la redondance des équipements du datacenter. Le plus bas est Tiers I, le plus élevé Tiers IV.

Tier I est le niveau de capacité de base avec une « alimentation sans interruption (ASI) pour les coupures de courant et les pointes. Un domaine pour les systèmes informatiques. Équipement de refroidissement dédié qui fonctionne en dehors des heures de bureau. Un générateur de secours pour les coupures de courant […] Tier I protège contre les perturbations dues à une erreur humaine, mais pas une défaillance ou une panne inattendue ». HPE résume ainsi : « peu ou pas de composants redondants et de secours ».

Tier II propose des capacités de redondance pour l’alimentation et le refroidissement. Dans un datacenter Tier II, « les composants peuvent être retirés sans les arrêter ». Néanmoins, « comme une installation de Tier I, l’arrêt inattendu d’un datacenter de Tier II affectera le système ». HPE simplifie : « Un datacenter de classe 2 dispose d’une seule voie pour l’alimentation et le refroidissement, mais présente quelques composants redondants et de secours ».

Avec Tier III, « ces installations ne nécessitent aucun arrêt lorsque l’équipement doit être entretenu ou remplacé. Les composants de Tier III sont ajoutés aux composants de Tier II afin que toute pièce puisse être arrêtée sans affecter le fonctionnement informatique ». HPE y va de son explication : il y a « plusieurs voies pour l’alimentation et le refroidissement ».

Tier IV est le niveau le plus élevé : « Lorsqu’un équipement tombe en panne ou qu’il y a une interruption dans le chemin de distribution, les opérations informatiques ne seront pas affectées […] Les datacenters de Tier IV nécessitent également un refroidissement continu pour rendre l’environnement stable ». La version HPE : « tous ses composants sont en redondance ».

Fin janvier 2026, Thésée Datacenter affirmait être le « premier et seul Tier IV Certifié Uptime en France ». L’entreprise ajoutait qu’un « datacenter Tier IV affiche une disponibilité de 99,995 %, ce qui se traduit par un temps d’arrêt annuel maximal de seulement 26,3 minutes ».

Sur un Tiers III, la disponibilité est de 99,982 %, soit environ 1,6 heure d’arrêt par an selon Thésée Datacenter. HPE ajoute qu’un Tier II à une disponibilité de 99,741 % (22 heures de temps d’arrêt par an) et un Tier I de 99,671 % (28,8 heures de temps d’arrêt par an).

Dans un précédent dossier, nous avions pour rappel déjà abordé les questions environnementales avec les indicateurs PUE, WUE et CUE :

☕️ OnlyOffice 9.3 simplifie la signature et l’édition de PDF

25 février 2026 à 13:44

En décembre, OnlyOffice 9.2 officialisait son agent IA pour le travail bureautique. Une nouvelle mise à jour 9.3 vient d’être mise en ligne. Elle permet « de signer des formulaires par saisie de texte, dessin directement sur l’écran ou téléchargement d’une image ». Pour les pros, « une nouvelle fonctionnalité de sécurité permet de télécharger un certificat de signature via le panneau d’administration afin d’apposer des signatures numériques fiables sur les formulaires PDF ».

L’éditeur de PDF a été amélioré afin de prendre en charge « la modification des fichiers protégés par mot de passe, la gestion des hyperliens, le suivi de l’historique des versions et la possibilité de masquer du texte à partir du panneau d’outils contextuel ». Il supporte aussi les macros.

D’autres changements sont de la partie sur la partie collaborative, avec par exemple des commentaires améliorés avec des couleurs sur les documents textes et un rendu accéléré sur les feuilles de calcul volumineuses, notamment celles de plus de 3 Mo.

Impossible de passer à côté : l’IA est toujours plus présente avec des assistants personnalisés : « Cette
fonctionnalité permet de créer et d’enregistrer des invites IA spécifiques pour les opérations textuelles dans l’éditeur de documents
 ».

Les notes de version détaillées se trouvent par ici. Pour télécharger OnlyOffice, c’est par là. Une vidéo de présentation a aussi été mise en ligne.

[Test] VPS pas cher (5 euros) : Hetzner n’est ni bon ni mauvais, dans la moyenne (basse)

25 février 2026 à 08:59
Geht es gut oder schlecht?
[Test] VPS pas cher (5 euros) : Hetzner n’est ni bon ni mauvais, dans la moyenne (basse)

Hetzner ne se distingue pas de la concurrence, que ce soit dans le bon ou le mauvais sens. L’hébergeur n’est pas cher avec deux vCores (Skylake) et 4 Go de mémoire pour 3,59 euros seulement par mois… mais les tarifs vont augmenter. Hetzner a un atout qui peut intéresser certains : un tarif à l’heure pour les petits usages.

Dans le cadre de notre comparatif de VPS pas cher, nous quittons la France pour passer de l’autre côté du Rhin, en Allemagne, avec Hetzner. L’entreprise est basée dans le sud du pays, à Gunzenhausen. Elle dispose de trois datacenters en Europe : deux en Allemagne à Nuremberg et Falkenstein, un en Finlande à Helsinki. Elle a également un datacenter aux États-Unis et un autre à Singapour.

CX23 : 2 vCores, 4 Go de mémoire et 40 Go de stockage

L’hébergeur propose trois gammes de VPS, de l’entrée de gamme en Cost Optimized à du haut de gamme en General Purpose avec un maximum de 48 cœurs et 192 Go de mémoire. Pour nos tests, nous avons pris un CX23 à Nuremberg (NBG1) avec deux vCores « Intel ou AMD » selon la fiche technique, 4 Go de mémoire et 40 Go de SSD.

La société propose aussi des VPS avec des cœurs de CPU Ampere (architecture Arm), nous les testerons une prochaine fois afin de comparer les performances à celles d’un VPS en x86.

Le VPS est à 4,19 euros par mois, mais vous pouvez réduire la facture à 3,59 euros par mois si vous acceptez de vous passer d’une IPv4. La pénurie a des conséquences tangibles chez Hetzner : l’IPv4 de base coûte 60 centimes sur tous les VPS. Attention, ces tarifs ne sont valables que jusqu’au 1ᵉʳ avril. Des hausses ont été annoncées, avec 30 % en moyenne sur les VPS. Notre CX23 passera alors à 4,79 euros sans adresse IPv4 et 5,39 euros avec.

Hetzner a la particularité de proposer deux tarifs : à l’heure et au mois. Le plus avantageux des deux est appliqué en fonction de votre usage. Si vous n’utilisez le serveur que quelques heures ou jours, la facturation horaire est intéressante, sinon c’est le tarif au mois qui est appliqué. « La facture de votre serveur ne dépassera jamais son plafond mensuel de prix », affirme l’hébergeur.

Performances : Hetzner n’a pas d’atout dans sa manche (sans être mauvais)

Passons maintenant aux tests à proprement parler. Selon votre VPS, le processeur utilisé est de type « Intel Xeon Processor (Skylake, IBRS, no TSX) ». Cette gamme de processeurs a été lancée en 2015 par Intel, après la génération Haswell que nous avions dans notre VPS OVHcloud.

Sur un seul cœur, Hetzner prend l’avantage sur OVHcloud, mais reste bien loin d’Ionos avec des cœurs AMD EPYC bien plus récents et beaucoup plus performants. Notre VPS n’a par contre que deux cœurs, il ne tient donc plus vraiment la comparaison avec le VPS OVHcloud qui en a quatre lorsqu’on libère tous les cœurs pour les tests.

Comme pour les autres VPS, voici le diagramme de Kiviat avec, en pointillé, la moyenne de tous les VPS et en violet/rose notre VPS Hetzner du jour. Plus la zone colorée est importante, plus les performances sont élevées. On voit qu’il ne se démarque sur aucun de nos indicateurs, sans être totalement à la ramasse non plus.

Il se place deuxième sur le stockage (sa meilleure position), sinon le VPS est généralement aux alentours de la 4ᵉ place. Les résultats sont relativement stables, avec 3,3 % d’écart en moyenne sur nos différentes séries de mesures. OVHcloud était à moins de 2 %, contre 2,8 % pour Ionos alors que LWS grimpait jusqu’à… près de 18 %.

Comme avec nos précédents tests (et les futurs à venir), vous pouvez également retrouver l’ensemble de nos mesures sur le VPS Hetzner dans cette feuille de calcul ODS. Vous pouvez aussi consulter le rapport Geekbench à cette adresse.

Serveur en Allemagne, latence plus élevée vers Paris et trafic limité

Sur la partie réseau, Hetzner est au coude à coude avec OVHcloud sur notre indice de mesure. Notre VPS a un ping relativement élevé sur Paris par rapport aux autres, ce qui est normal puisque notre serveur est au sud de l’Allemagne, plus loin de Paris. Même chose avec New York, tandis que la latence vers Londres est dans la moyenne.

Sur les téléchargements, notre VPS grimpait jusqu’à 2 Gb/s chez MilkyWan avec un fichier de 1 Go, tandis que chez Free le débit était aux alentours de 1 Gb/s. C’est dans tous les cas largement plus que LWS ou OVHcloud qui appliquent des limites strictes.

Attention toutefois, Hetzner ne propose « que » 20 To de trafic par mois avec ses VPS en Europe, et seulement 1 To pour ceux aux États-Unis et 0,5 To à Singapour. Au-delà, le To est facturé 1,2 euro en Europe et aux États-Unis, mais pas moins de 8,88 euros à Singapour. L’addition peut donc rapidement grimper. Il faut prendre en compte ce paramètre en fonction de vos besoins.

LWS, pour rappel, propose de l’ « illimité* » et l’étoile est importante puisque seuls 256 Go sont à la vitesse maximum de 100 Mb/s (qui est déjà la limitation la plus forte de notre comparatif), puis le débit tombe à seulement 10 Mb/s par la suite. Hetzner est à 20 To, déjà bien plus confortable pour un petit VPS. Il faut passer à CCX43 (General Purpose) pour dépasser cette limite avec 30 To et jusqu’à 60 To pour le CCX63 à près de 300 euros par mois (sans compter l’augmentation à venir).

Système d’exploitation et options

Niveau système d’exploitation, Hetzner propose Ubuntu 24.04, Fedora 43, Debian 13, CentOS Stream 10, Rocky Linux 10, AlmaLinux 10 et openSUSE 16. Dans les options, il est possible de souscrire à une offre de « backup » pour 20 % du prix du VPS en plus. Les sauvegardes sont automatiques et quotidiennes pour l’ensemble de votre stockage. Il est aussi possible de prendre des snapshots et payer en fonction du stockage utilisé : 0,0132 euros par Go et par mois.

Du stockage additionnel est aussi proposé, avec un minimum de 10 Go (53 centimes par mois) et jusqu’à 1 000 Go dans notre cas (52,80 euros par mois). Vous avez le choix entre deux systèmes de fichiers : EXT4 et XFS.

Nous avons lancé plusieurs séries de mesures (de jour comme de nuit) pour vérifier s’il n’y avait pas de CPU Steal : rien à signaler de ce côté-là.

Conclusion ?

Au final, Hetzner propose des performances dans la moyenne plutôt basse de l’ensemble des VPS de notre comparatif, mais a l’avantage de proposer une facturation à l’heure si vous en avez besoin pour une durée limitée.

À 3,59 euros par mois avec deux vCores, mais seulement une IPv6, le CX23 propose un bon rapport qualité/prix, dommage qu’il passe à 4,79 euros à partir du 1ᵉʳ avril. Dans la suite de notre comparatif, nous reviendrons en détail sur YorkHost, PulseHeberg et d’autres.

❌