Vue normale

#Nextpresso Adaptateur M.2 vers PCIe à 10 euros pour installer un SSD sur sa carte mère

27 février 2026 à 16:02
On ne branche pas directement le SSD dans le port PCIe !
#Nextpresso Adaptateur M.2 vers PCIe à 10 euros pour installer un SSD sur sa carte mère

Installer un SSD M.2 NVMe dans le port PCIe d’une carte mère peut se faire simplement à l’aide d’un adaptateur vendu quelques euros. Nous avons testé un modèle de Sabrent avec un radiateur pour refroidir les puces de NAND qui pourraient chauffer lors de gros transferts.

Nous avons commandé il y a quelque temps un adaptateur M.2 pour les SSD NVMe afin de les installer dans un emplacement PCIe de carte mère. C’est l’occasion d’expliquer comment cela fonctionne. C’est simple : un PCB, quelques pistes et quasiment aucun composant.

M.2 NVMe et PCIe : blanc bonnet et bonnet blanc

La raison est simple : les SSD au format M.2 utilisant le protocole NVMe sont déjà avec un câblage en PCIe, il n’y a donc aucune conversion de signal à faire pour les brancher sur un connecteur PCIe, il faut simplement emmener les broches du SSD au bon endroit sur le port PCI Express. Ce n’était pas le cas de l’adaptateur M.2 vers USB dans lequel, pour rappel, un contrôleur Realtek se chargeait de la conversion du signal.

Le PCB de notre adaptateur de marque Sabrent était vendu 10 euros sur Amazon il y a quelques mois quand nous l’avons acheté, mais il est désormais à 18 euros, ce qui est largement au-dessus de la moyenne pour ce genre de produit. Il en existe d’autres marques (ou sans marque) à 10 euros sur la marketplace d’Amazon.

Un PCB quasiment vide, et c’est normal

Le même bout de PCB (en no-name, sans la marque Sabrent, mais le reste du PCB est identique) est vendu quelques euros sur les plateformes chinoises, mais sans radiateur.

L’intérêt de ce modèle est qu’il est livré avec un pad thermique à poser sur les puces de mémoire NAND du SSD et un radiateur métallique qui englobe entièrement le SSD.

L’installation nécessite un peu de dextérité avec une vis pour faire tenir le SSD dans son emplacement M.2 (des trous sont disponibles pour les SSD au format 2230, 2242, 2260 et 2280, c’est-à-dire en 30, 42, 60 et 80 mm de long) et quatre autres pour fermer le boîtier. Dans le bundle, nous avions également un petit tournevis adapté aux vis, pratique.

À y regarder de plus près, on remarque quelques composants, à vrai dire. Deux condensateurs pour l’alimentation électrique, quatre LED et autant de résistances pour ces dernières. Aucun des composants ne sert au transfert des données.

Sur les photos ci-dessous, vous pouvez voir que seuls les deux premiers morceaux de PCB du port PCIe sont connectés, ce sont ceux qui correspondent à du x4. Les autres ne sont pas branchés, ce qui explique qu’on peut mettre la carte dans un emplacement x4, x8 ou x16.

Il suffit donc d’installer l’adaptateur dans un port PCIe de votre ordinateur. Il doit être en x4 minimum (il n’est pas compatible avec les ports x1), mais il peut aussi être en x4, x8 ou x16. Dans tous les cas, le câblage interne est en x4 maximum.

Sur la seconde rangée d’images, vous pouvez voir l’installation dans un emplacement x16, puis dans un emplacement x4 et enfin en face d’un emplacement x1 qui n’est pas compatible.

Cinq vis plus tard, 3 Go/s comme prévu avec notre SSD

Nous avons installé un SSD Kingston NV2S de 500 Go, qui est au format M.2 avec une interface NVMe en PCIe x4 Gen 4. Attention, cet adaptateur n’est compatible qu’avec les SSD M.2 avec une interface en PCIe, pas ceux en S-ATA !

Notre SSD était déjà partitionné et considérablement rempli, mais les performances sont équivalentes à celles obtenues s’il était directement branché sur la carte mère. Nous avons ainsi un peu plus de 3 Go/s en lecture et près de 2,4 Go/s en écriture.

Rien de surprenant puisque, une fois encore, cet adaptateur ne fait que mettre les broches du SSD M.2 au bon endroit sur le port PCIe, rien de plus ni rien de moins.

Des adaptateurs pour 2 ou 4 SSD existent, attention à la bifurcation !

Si vous avez des SSD à brancher sur votre ordinateur et plus (ou pas) d’emplacement M.2 disponible, alors ce genre d’adaptateur est fait pour vous, à condition d’avoir au moins un port PCIe x4 de libre. Nous n’avons testé qu’un seul modèle, mais il existe des dizaines de déclinaisons, avec un ou plusieurs emplacements M.2.

Sur les adaptateurs avec quatre emplacements, vous verrez parfois une mention du type : nécessite la fonction de bifurcation. Cette technique permet de diviser un port x16 en deux ports x8 ou en quatre ports x4. C’est nécessaire pour utiliser quatre SSD M.2 sur une même carte. Nous en avions déjà parlé il y a plusieurs années.

Même encore aujourd’hui, mieux vaut vérifier ce qu’il en est sur le manuel de votre carte mère. Première chose, bien différencier le format du connecteur PCIe et son câblage. Un emplacement x16 peut ne proposer que du x4 ou x8, cela peut même varier en fonction du CPU (qui peut proposer plus ou moins de lignes PCIe).

Un exemple ? La X670-P-CSM avec un port PCIe x16 en x16 et deux autres ports PCIe x16 en… x4. Ne comptez donc pas y installer plus d’un SSD M.2. Asus propose aussi une page dédiée à la bifurcation et aux différentes possibilités… vous allez voir que c’est plus complexe qu’il n’y parait.

☕️ Fuite de données personnelles à l’école d’ingénieurs ESPCI

27 février 2026 à 15:27

Dans un email envoyé à l’ensemble de l’école et plus largement à « l’ensemble des usagers disposant d’un compte informatique ESPCI », le responsable du service informatique de l’École supérieure de physique et de chimie industrielles de la ville de Paris (ESPCI Paris) les a informés d’une fuite de données personnelles.

LPLT, licence Creative Commons by-sa 3.0

Le courrier explique que, « lors de la journée du jeudi 26 février 2026, un défaut de contrôle d’accès a permis à des acteurs non identifiés de moissonner l’annuaire de l’école ».

Les données concernées sont les suivantes :

  • Civilité, nom et prénom d’usage.
  • Courriel pro, et éventuellement personnel s’il a été renseigné.
  • Données d’identification: nom d’utilisateur, mais pas le mot de passe.
  • Fonction et affectation.
  • Photo, sauf si il avait été indiqué qu’elle ne devait servir qu’au badge.
  • Permissions d’accès aux services et aux locaux.
  • Abonnements aux listes de diffusion.
  • Pour les étudiants: inscriptions pédagogiques.
  • Pour le personnel: employeur, domaine d’activité (BAP, section CNRS et CNU).
  • Pour le personnel salarié de la régie: corps, date de fin de contrat.
  • Pour les prestataires, partenaires et extérieurs: employeur, catégorie socioprofessionnelle.

Le responsable du service informatique assure avoir notifié la CNIL, conformément à l’article 33 du RGPD et se dit « navré de cet incident ». Il ajoute que son équipe prévoit « des mesures de renforcement de la sécurité, afin que ce scénario ne puisse pas se reproduire ».

Next a contacté ESPCI pour en savoir plus et mettra à jour cet article le cas échéant.

OpenAI lève 110 milliards de dollars auprès d’Amazon, Softbank et NVIDIA

27 février 2026 à 15:01
Enlarge your model
OpenAI lève 110 milliards de dollars auprès d’Amazon, Softbank et NVIDIA

La bourse attendra : OpenAI a dévoilé vendredi les modalités d’un nouveau tour de table record, avec 110 milliards de dollars réunis, sur la base d’une valorisation à 730 milliards de dollars. L’entreprise dirigée par Sam Altman en profite pour annoncer un partenariat renforcé avec Amazon, et assure que son accord avec Microsoft n’est pas remis en cause.

Moins d’un an après sa dernière levée de fonds (40 milliards de dollars en 2025), OpenAI remet le couvert avec un tour de table aux proportions pharaoniques. L’entreprise a en effet annoncé, vendredi 27 février, avoir réuni 110 milliards de dollars auprès de trois investisseurs : Amazon, premier contributeur avec 50 milliards de dollars, puis NVIDIA et Softbank, tous deux engagés à hauteur de 30 milliards de dollars.

« D’autres investisseurs financiers devraient nous rejoindre au fur et à mesure que le tour de table progresse », précise l’entreprise, qui ne compte donc pas en rester là. Il faut toutefois noter que ces montants sont des engagements d’investissement qui doivent donc encore se vérifier : Amazon par exemple promet 50 milliards de dollars mais en deux temps : d’abord 15 milliards, puis 35 milliards « dans les prochains mois, lorsque certaines conditions seront remplies ».

OpenAI valorisée 730 milliards de dollars

« La demande en IA augmente parmi les consommateurs, les développeurs et les entreprises. Répondre à cette demande et fournir l’accès à nos produits à tous exige trois choses : du calcul, de la distribution et du capital », résume OpenAI selon qui ces fonds vont permettre à ses infrastructures, comme à ses modèles, de passer à l’échelle.

L’entreprise en profite pour actualiser ses chiffres : elle ne communique aucun chiffre d’affaires, mais affirme que ChatGPT compte 900 millions d’utilisateurs actifs par semaine, dont 50 millions d’abonnés payants particuliers. Plus de 9 millions d’utilisateurs seraient abonnés à l’une des offres entreprise, et la base d’utilisateurs de Codex, son outil dédié aux développeur, aurait été multipliée par trois depuis le début de l’année, pour atteindre 1,6 million d’utilisateurs hebdomadaires.

OpenAI précise que cette levée de fonds se fait sur la base d’une valorisation fixée à 730 milliards de dollars, avant réalisation du tour. La capitalisation de l’entreprise a donc plus que doublé en moins d’un an, puisqu’elle était fixée à 300 milliards lors de la précédente levée de fonds. L’entreprise indique que la participation de la fondation OpenAI au sein de l’entreprise commerciale est désormais valorisée 180 milliards de dollars.

Un partenariat dantesque (et circulaire) avec Amazon

Si Amazon (par ailleurs investisseur historique d’Anthropic) prend la tête de ce tour de table, c’est parce que les deux groupes ont convenu d’un partenariat renforcé entre OpenAI et Amazon Web Services (AWS).

Selon les termes de ce dernier, les deux groupes vont concevoir ensemble et lancer dans les prochains mois un environnement d’exécution stateful (capable de conserver l’état et le contexte), sous-tendu par les modèles d’OpenAI et distribué au travers d’Amazon Bedrock à destination des entreprises et développeurs qui cherchent à développer leurs propres agents ou applications IA.

AWS devient par ailleurs le distributeur tiers exclusif d’OpenAI Frontier, la plateforme tout juste annoncée via laquelle l’éditeur de ChatGPT propose à ses grands clients de déployer leurs applications.

AWS devient le distributeur agréé pour OpenAI Frontier, dont ce schéma résume le fonctionnement – crédit OpenAI

Dans le même temps, OpenAI s’engage à consommer (et donc à payer) l’équivalent de 2 GW de puissance de calcul sur le réseau de puces Trainium déployé dans les infrastructures d’AWS, précisément pour sous-tendre le fonctionnement de Frontier et des autres outils de déploiement évoqués.

Les deux partenaires indiquent que cet engagement prolonge l’accord à 38 milliards de dollars annoncé en novembre dernier et le porte à un total de 100 milliards de dollars sur huit ans.

Enfin, ils collaboreront à des modèles personnalisés, destinés aux applications commerciales d’Amazon vers le consommateur grand public.

5 GW chez NVIDIA

De la même façon, la participation de NVIDIA, finalement fixée à 30 milliards de dollars, bien loin des 100 milliards un temps évoqués, est assortie d’un engagement significatif de la part d’OpenAI, qui prévoit de consommer l’équivalent de 2 GW en entraînement sur des systèmes équipés de puces Vera Rubin, et 3 GW en capacités dédiées spécifiquement à l’inférence.

« Ce projet s’appuie sur les systèmes Hopper et Blackwell déjà opérationnels chez Microsoft, OCI et CoreWeave. Ensemble, cet investissement et ce développement de l’infrastructure renforcent notre capacité à entraîner et à déployer des modèles de pointe à l’échelle mondiale », précise à ce sujet OpenAI.

OpenAI et Microsoft toujours main dans la main

À ces deux annonces (levée de fonds et partenariat étendu avec Amazon), OpenAI ajoute une troisième communication, ciblée cette fois sur un autre partenaire et investisseur absent du tour de table : Microsoft.

Alors que les projets récemment renforcés de l’éditeur de Redmond en matière d’IA laissaient craindre à certains observateurs une forme de désengagement, OpenAI et Microsoft renouvellent leurs vœux dans une déclaration conjointe.

« Alors (…) qu’OpenAI annonce de nouveaux financements et de nouveaux partenaires, nous tenons à préciser que ces annonces s’inscrivent dans le cadre de notre partenariat actuel. Les annonces d’aujourd’hui ne modifient en rien les termes de la relation entre Microsoft et OpenAI, tels que présentés » en octobre 2025, affirment les deux entreprises.

Si AWS devient le partenaire de choix pour les environnements stateful, Azure reste par ailleurs le fournisseur exclusif des API stateless d’OpenAI, et la distribution directe des services d’OpenAI tels que Frontier se fera elle aussi toujours à partir de l’infrastructure Azure.

☕️ Windows Server va (enfin) permettre de démarrer sur une partition ReFS

27 février 2026 à 14:05

ReFS, pour Resilient File System, est le système de fichiers propriétaire conçu par Microsoft à destination des très grands espaces de stockage, avec une capacité maximale fixée à 35 Po par volume, contre 256 To en standard sur NTFS.

Introduit sous Windows (8.1) et Windows Server (2012), il y a près de 14 ans, ReFS présentait une limitation majeure : la prise en charge de ReFS sur un volume système utilisé pour le démarrage n’était pas officiellement assurée.

Sur ce point, la donne s’apprête à changer : Microsoft a en effet annoncé jeudi la prise en charge du démarrage sur ReFS au sein de Windows Server. Pour l’instant, la fonctionnalité n’est distribuée que par l’intermédiaire des préversions de test (Insider Preview), mais elle devrait logiquement être étendue à tous les canaux après une période de test.

« Les charges de travail [workloads, en anglais]modernes exigent davantage de la part du volume de démarrage que ce que NTFS peut fournir. ReFS a été conçu dès le départ pour protéger l’intégrité des données à grande échelle. En activant ReFS pour le volume de démarrage du système d’exploitation, nous garantissons que même les données système les plus critiques bénéficient d’une résilience avancée, d’une évolutivité à l’épreuve du temps et de performances améliorées », se réjouit l’éditeur.

L’option est proposée sur les builds de Windows Server ultérieures au 11 février.

Les avantages comparés de ReFS et NTFS pour un volume de démarrage selon Microsoft – capture d’écran

Pour aller plus loin sur le sujet, consultez notre dossier dédié :

Rachat de Warner Bros : Netflix jette l’éponge et laisse le champ libre à Paramount Skydance

27 février 2026 à 13:30
And chill?
Rachat de Warner Bros : Netflix jette l’éponge et laisse le champ libre à Paramount Skydance

Netflix retire finalement sa proposition de rachat des studios de la Warner Bros, l’offre initiale atteignait près de 83 milliards de dollars et visait l’intégralité des studios de cinéma et de télévision ainsi que le service HBO Max. Et c’est la Paramount Skydance, dirigée par David Ellison, qui devrait en profiter alors qu’elle a récemment une offre pour 110 milliards de dollars.

Le montant est trop cher, selon Netflix. Le géant du streaming abandonne finalement son projet de rachat de Warner Bros annoncé début décembre.

« La transaction que nous avons négociée aurait créé de la valeur pour les actionnaires et aurait ouvert la voie à l’obtention de l’autorisation réglementaire », affirme l’entreprise dans un communiqué. « Cependant, nous avons toujours fait preuve de discipline, et au prix requis pour égaler la dernière offre de Paramount Skydance, l’opération n’est plus intéressante sur le plan financier. Nous refusons donc d’égaler l’offre de Paramount Skydance ».

En effet, juste après l’annonce de la signature de l’accord entre Netflix et Warner Bros, Paramount a lancé sa contre-attaque. L’entreprise rachetée quelques mois auparavant par Skydance grâce aux financements du patron d’Oracle, Larry Ellison, et dirigée par son fils, David, s’est rapidement positionnée pour contrer l’offre de Netflix avec une offre à 30 dollars par action.

Pressions de Donald Trump

La proposition de Paramount Skydance était soutenue par Donald Trump. Rappelons que Larry Ellison est un de ses soutiens financiers importants, organisant une levée de fonds pour sa campagne de 2020. Le dirigeant états-unien avait, dès l’annonce de la volonté de Netflix de racheter Warner Bros, exprimé ses réticences. Il avait souligné dès décembre 2025 que Netflix avait déjà « une très grosse part de marché » et que ça « pourrait poser un problème ». Samedi dernier, Donald Trump s’était attaqué à l’une des membres du conseil d’administration de Netflix, Susan Rice, demandant qu’elle en soit exclue. Celle-ci avait affirmé dans un podcast que les entreprises qui ont « mis genou à terre face à Trump » auront à rendre des comptes si les démocrates gagnaient les élections de mi-mandat aux États-Unis.

Et mercredi, la famille Ellison en a remis une couche et a relevé son offre à 31 dollars par action. Cette offre inclut la reprise de la dette de Warner Bros et valorise l’entreprise autour de 110 milliards de dollars. Paramount Skydance jugeait de plus que son offre avait davantage de possibilités d’être autorisée par les régulateurs. « Nous sommes ravis que le conseil d’administration de Warner Bros ait unanimement confirmé la valeur supérieure de notre offre, qui apporte aux actionnaires de Warner Bros une valeur supérieure, une certitude et une rapidité de clôture », affirmait David Ellison dans le communiqué de l’entreprise.

Le texte précisait aussi que « le fonds Ellison Trust s’engage à fournir 45,7 milliards de dollars de capitaux propres, et Larry Ellison garantit cet engagement, y compris l’obligation d’apporter des fonds propres supplémentaires à Paramount dans la mesure nécessaire pour soutenir le certificat de solvabilité exigé par les banques prêteuses de Paramount ».

Une acquisition pas « indispensable » pour Netflix

Netflix déclare finalement que « cette transaction a toujours été considérée comme  » intéressante » à un prix raisonnable, et non comme « indispensable » à n’importe quel prix » dans son communiqué. Elle s’affiche comme « saine, solide et en pleine croissance organique, alimentée par [sa] plateforme et [son] service de streaming haut de gamme ».

Les investisseurs semblent avoir plutôt bien accueilli cette décision puisque, dans les échanges après-marché, les actions de Netflix bondissaient de 9 %. Du côté de la Paramount, le titre a augmenté de 6 % après une hausse de 10 % dans la journée.

David Zaslav, le CEO de Warner Bros, s’est rapidement affiché enthousiaste à l’idée de fusionner finalement avec l’entreprise dirigée par David Ellison : « Une fois que notre conseil d’administration aura voté en faveur de l’accord de fusion avec Paramount, cela créera une valeur considérable pour nos actionnaires », affirme-t-il au média spécialisé dans le business hollywoodien, Deadline. « Nous sommes motivés par le potentiel d’une alliance entre Paramount Skydance et Warner Bros. Discovery et sommes impatients de commencer à travailler ensemble pour raconter des histoires qui touchent le monde entier. »

☕️ Burger King teste un chatbot IA qui vérifie le sens de l’hospitalité de ses employés

27 février 2026 à 12:50

Burger King teste dans 500 de ses restaurants des casques audio équipés d’une intelligence artificielle capable de réciter des recettes, d’alerter les responsables lorsque les stocks sont faibles mais également d’évaluer l’amabilité des employés envers les clients, rapporte Associated Press.

Le système collecte les données et les partage avec « Patty », un chatbot alimenté par OpenAI qui s’adresse aux employés via leur casque audio. Ils peuvent lui poser des questions, par exemple combien de tranches de bacon mettre sur un Maple Bourbon BBQ Whopper, ou demander des instructions pour nettoyer la machine à milk-shake, précise The Verge.

L’IA serait également capable d’informer le gérant du magasin si la machine à boissons est à court de Coca Light ou si un client utilise un code QR pour signaler des toilettes sales. Burger King a déclaré qu’il envisageait également d’utiliser Patty pour améliorer son service client, précise AP :

« Le système peut détecter lorsque les employés prononcent des mots clés tels que « bienvenue », « s’il vous plaît » et « merci », puis en informer les responsables ».

« Nous pensons que l’hospitalité est fondamentalement humaine »

Interrogé au sujet de cette fonctionnalité, Burger King précise que l’objectif était d’utiliser Patty comme un outil de coaching, et non comme un moyen de surveiller les employés individuellement.

« Il ne s’agit pas d’évaluer les individus ou d’imposer des scripts. Il s’agit de renforcer l’excellence de l’accueil et de fournir aux responsables des informations utiles en temps réel afin qu’ils puissent mieux reconnaître les performances de leurs équipes », a déclaré Burger King dans un communiqué transmis à AP :

« Nous pensons que l’hospitalité est fondamentalement humaine. Le rôle de cette technologie est d’aider nos équipes afin qu’elles puissent rester présentes auprès des clients. »

Thibault Roux, directeur numérique de Burger King, explique à The Verge que l’entreprise a compilé des informations provenant des franchisés et des clients sur la manière de mesurer la convivialité, ce qui lui a permis d’entraîner l’IA à reconnaître certains mots et expressions, tels que « bienvenue chez Burger King », « s’il vous plaît » et « merci ».

L’objectif serait aussi de permettre aux responsables de demander à Patty comment leur établissement se positionne en matière de convivialité. « Tout cela est conçu comme un outil de coaching », explique M. Roux, ajoutant que l’entreprise « itère » également pour capturer le ton des conversations.

En décembre dernier, la vidéo de Noël de McDonald’s Pays-Bas, baptisée « It’s the Most Terrible Time of The Year », avait déjà fait scandale, au point d’être dépubliée. Présentée comme l’incarnation du nouveau champ des possibles ouverts par l’IA, elle présentait en effet le « vrai » monde comme une suite de catastrophes… alors qu’il suffisait de passer les portes d’un restaurant McDonald’s pour être touché par la douce féérie de Noël.

AirSnitch : quand l’isolement des utilisateurs sur les points d’accès Wi-Fi vole en éclats

27 février 2026 à 11:00
Je vais passer au Wi-Fi filaire, ça sera plus simple !
AirSnitch : quand l’isolement des utilisateurs sur les points d’accès Wi-Fi vole en éclats

Les points d’accès Wi-Fi proposent souvent la possibilité de créer plusieurs réseaux pour séparer les utilisateurs et gérer les accès. Problème, des chercheurs montrent que cette isolation peut facilement voler en éclats, via trois méthodes. Ils ont testé 11 routeurs, 11 étaient vulnérables. Certains auraient corrigé le tir, d’autres ne le pourraient pas.

Lors du Network and Distributed System Security (NDSS) Symposium qui se tient du 23 au 27 février à San Diego, des chercheurs de l’université de Californie à Riverside et de la Katholieke Universiteit de Louvain (Belgique) ont présenté leurs travaux baptisés « AirSnitch : démystifier et briser l’isolement des clients dans les réseaux Wi-Fi ». Un papier technique a aussi été mis en ligne (.pdf).

Attention, on parle bien ici de l’isolation des utilisateurs sur un même point d’accès, pas de casser le chiffrement du Wi-Fi. Si le WEP est depuis longtemps obsolète, WPA2 AES (pas en version TKIP, cassé avec KRACK) et WPA3 tiennent encore. Rien ne change avec AirSnitch, les chercheurs ne s’attaquent absolument pas au chiffrement des données, qui reste intact.

Wi-Fi invité : faites comme chez vous… heu wait !!

Pour être mises en œuvre, les attaques décrites dans leur papier nécessitent que l’utilisateur puisse se connecter à la borne Wi-Fi, que ce soit sur le même SSID ou un autre, du moment que le point d’accès est le même. Mais c’est aussi plus large, suivant les configurations.

Les chercheurs ajoutent en effet que des attaques sont également possibles entre plusieurs points d’accès, « mais aussi réalisables dans les réseaux d’entreprise et de campus où plusieurs points d’accès sont connectés sur un même réseau filaire ». Une solution pour limiter les dégâts est de mettre en place des VLAN, à condition de bien le faire évidemment.

Pour le grand public et certaines petites entreprises, les risques peuvent donc être importants si vous avez, par exemple, un réseau « invité » largement accessible.

Des protections sont en théorie en place depuis longtemps : « Pour empêcher les clients Wi-Fi malveillants d’attaquer d’autres clients sur le même réseau, les fournisseurs ont introduit l’isolation des clients, une combinaison de mécanismes bloquant la communication directe entre les clients. Cependant, l’isolation des clients n’est pas une fonctionnalité standardisée, ce qui rend ses garanties de sécurité incertaines », expliquent les chercheurs en guise d’introduction.

AirSnitch : trois vecteurs d’attaques

Ils ont identifié trois principaux vecteurs permettant de casser l’isolation. La première vient « des clés Wi-Fi protégeant les trames de diffusion qui sont mal gérées et peuvent être détournées ». Il s’agit des clés GTK (Group Temporal Key) qui sont les mêmes pour tous les clients sur un même réseau.

Autre faiblesse : « l’isolation est souvent appliquée uniquement au niveau MAC ou IP, mais rarement aux deux ». Enfin, la dernière est la conséquence d’une « faible synchronisation de l’identité d’un client à travers toute la pile réseau », permettant d’usurper son identité sur la partie la plus faible du réseau pour ensuite la garder et capter le trafic.

Les chercheurs détaillent les risques qu’ils ont identifiés. Un attaquant pourrait accéder aux paquets IP, ce qui pourrait faciliter certaines attaques car « aujourd’hui encore, 6 % et 20 % des pages chargées sous Windows et Linux, respectivement, n’utilisent pas HTTPS […] Nos attaques permettent également l’interception de sites web ou de services intranet locaux, plus susceptibles d’utiliser des connexions en clair ». Et même si HTTPS est utilisé (les données ne sont pas déchiffrées via les attaques), « les adresses IP utilisées sont toujours révélées, ce qui est souvent suffisant pour savoir quel site web est visité ».

Comme un « attaquant peut intercepter et exploiter tout trafic en clair de la victime […], il peut intercepter le trafic DNS et empoisonner le cache DNS du système d’exploitation de la victime. Il peut également modifier l’enregistrement DHCP et changer l’adresse de la passerelle et le serveur DNS utilisés par la victime. Ces attaques peuvent avoir un impact durable sur la victime, même après que l’attaquant a cessé d’être un intermédiaire ».

Netgear, D-Link, TP-Link, Ubiquiti… plus d’une dizaine de routeurs vulnérables

Onze routeurs ont été testés et tous ont été vulnérables à au moins une des attaques : Netgear Nighthawk X6 R8000, Tenda RX2 Pro, D-Link DIR-3040, TP-Link Archer AXE75, ASUS RT-AX57, DD-WRT v3.0-r44715, OpenWrt 24.10, Ubiquiti AmpliFi Alien Router, Ubiquiti AmpliFi Router HD, LANCOM LX-6500 et Cisco Catalyst 9130. Pour ceux qui voudraient tenter eux-mêmes l’expérience (et qui ont du matériel compatible), du code est disponible dans ce dépôt GitHub.

Les chercheurs détaillent une attaque de bout en bout sur un routeur Netgear R8000. Il est configuré avec quatre SSID, deux invités et deux de « confiance », chacun sur les 2,4 et 5 GHz. Le routeur est connecté à Internet via un câble réseau.

L’attaquant est sur le réseau invité et veut lancer une attaque de type « homme du milieu » (MitM), afin d’intercepter tout le trafic montant et descendant d’une victime sur le réseau de « confiance ». « L’attaquant commence donc par se connecter au SSID invité avec l’adresse MAC de la victime, mais sur une fréquence différente afin d’éviter toute déconnexion ». On vous épargne la partie technique (page 10 de ce document .pdf) pour arriver à la conclusion.

Les techniques mises en place « amènent le point d’accès à rediriger le trafic descendant de la victime vers le SSID invité. L’attaquant renvoie ensuite le trafic intercepté à la victime grâce à la technique de rebond de passerelle. De même, il intercepte le trafic montant en usurpant l’adresse MAC du point d’accès (c’est-à-dire le routeur passerelle) et le renvoie au serveur de la victime. L’attaque complète dure environ deux secondes. Pendant toute la durée de l’attaque, la victime regarde une vidéo YouTube en streaming sans subir de latence significative ».

Ars Technica s’est entretenu avec le premier chercheur de la publication, Xin’an Zhou. Nos confrères ont glané quelques informations sur les réactions des constructeurs de bornes et points d’accès : « Zhou a indiqué que certains fabricants de routeurs avaient déjà publié des mises à jour atténuant certaines attaques, et que d’autres étaient attendues. Il a toutefois précisé que certains fabricants lui avaient confié que certaines failles systémiques ne pouvaient être corrigées qu’en modifiant les puces sous-jacentes qu’ils achètent auprès des fabricants de semi-conducteurs ». Nos confrères n’entrent pas davantage dans les détails.

À la fin de leur publication, les chercheurs affirment avoir « signalé les vulnérabilités aux fournisseurs concernés, ainsi qu’à la Wi-Fi Alliance. La Wi-Fi Alliance a pris acte de leurs conclusions et ils attendent sa décision ».

Prudence sur les Wi-Fi publics et invités… comme toujours

Côté utilisateur, pas grand-chose à faire si ce n’est faire preuve de prudence. Il faut déjà se méfier des points d’accès publics, mais donc aussi de ceux plus confidentiels. Éviter aussi de donner accès à un Wi-Fi invité à n’importe qui (on espère que vous n‘avez pas attendu cette actualité…).

Une autre solution, les VPN : « Une partie de la menace peut être atténuée en utilisant des VPN, mais cette solution présente tous les inconvénients habituels. D’une part, les VPN sont réputés pour la fuite de métadonnées, des requêtes DNS et d’autres trafics utiles aux attaquants, ce qui limite la protection. Et d’autre part, trouver un fournisseur VPN réputé et digne de confiance s’est avéré historiquement difficile, même si la situation s’est améliorée récemment. En fin de compte, un VPN ne devrait pas être considéré comme plus qu’un simple pansement », explique Ars Technica.

Il n’est pas forcément nécessaire de passer par un tiers, si vous avez une Freebox avec Freebox OS, elle peut faire office de serveur VPN Wireguard, vous permettant ainsi d’utiliser votre connexion Internet en déplacement, de manière sécurisée. Vous pouvez également utiliser un VPS pour y installer un serveur VPN, nous aurons prochainement l’occasion d’en reparler. Surtout, soyez prudent face aux petits et gros mensonges des vendeurs de VPN.

En pleine croissance, Jack Dorsey licencie 4 000 personnes chez Block au nom de l’IA

27 février 2026 à 09:49
Vous êtes le sel de la terre
En pleine croissance, Jack Dorsey licencie 4 000 personnes chez Block au nom de l’IA

Jack Dorsey a annoncé jeudi soir le licenciement de 4 000 personnes, soit 40 % des effectifs, chez Block, la société qui réunit notamment Square et Tidal. L’entrepreneur affirme qu’il n’a pas d’autre choix que de réorganiser son groupe autour d’équipes plus réduites assistées par des outils d’intelligence artificielle.

La décision risque de résonner de façon prophétique aux oreilles de tous ceux qui s’inquiètent de l’impact de l’IA générative sur le monde du travail : Jack Dorsey, cofondateur de Twitter et personnalité emblématique de la scène tech californienne, a publiquement annoncé, et expliqué, sa décision de licencier sans délai 4 000 personnes, soit 40 % de l’effectif total, de son groupe Block.

« Je préfère prendre une décision ferme et claire dès maintenant »

« Nous ne prenons pas cette décision parce que nous sommes en difficulté. Notre entreprise est solide. Notre marge brute continue de croître, nous servons toujours plus de clients et notre rentabilité s’améliore. Mais quelque chose a changé », écrit Jack Dorsey sur son ancien réseau social.

Ce quelque chose, c’est bien sûr l’intelligence artificielle :

« Nous constatons déjà que les outils d’intelligence que nous créons et utilisons, associés à des équipes plus petites et plus horizontales, permettent une nouvelle façon de travailler qui change fondamentalement ce que signifie construire et gérer une entreprise. Et ce phénomène s’accélère rapidement. »

Dorsey explique avoir été confronté à deux options : échelonner les licenciements « au fur et à mesure que ce changement se produit », ou « être honnête sur la situation » et donc agir en conséquence.

« Je préfère prendre une décision ferme et claire dès maintenant et construire sur des bases solides plutôt que de gérer une réduction progressive des effectifs pour atteindre le même objectif. Une entreprise plus petite nous offre également la possibilité de développer notre activité de manière optimale, selon nos propres conditions, au lieu de réagir constamment aux pressions du marché. »

S’il admet que procéder à une coupe franche d’une telle envergure « présente un risque », Dorsey se dit prêt à assumer sa décision, et appelle les employés épargnés à le suivre dans cette nouvelle configuration :

« Nous allons bâtir cette entreprise en plaçant l’intelligence au cœur de tout ce que nous faisons : notre façon de travailler, de créer et de servir nos clients. Nos clients ressentiront eux aussi ce changement, et nous les accompagnerons dans cette transition vers un avenir où ils pourront développer directement leurs propres fonctionnalités, à partir de nos capacités et accessibles via nos interfaces. C’est mon objectif actuel. »

Block s’envole à Wall Street

Block, qui avait déjà réalisé une belle journée en bourse jeudi (+ 5%) s’est envolée de 23 % dans les échanges après-marché, sans qu’on sache si l’appétit des investisseurs découle précisément de cette annonce choc, ou des excellentes performances affichées par le groupe.

L’entreprise a en effet publié jeudi soir les résultats financiers de son quatrième trimestre 2025 : elle fait état d’un chiffre d’affaires de 2,87 milliards de dollars, en hausse de 24 % sur un an, qui s’accompagne d’un bénéfice net de 485 millions de dollars sur le trimestre. Sur l’année, Block enregistre 10,36 milliards de dollars de chiffre d’affaires, une croissance de 17 % sur un an.

Dans la lettre aux actionnaires (PDF) qui accompagne cette publication, Jack Dorsey renouvelle et complète ses explications. Il y pronostique une vague de licenciements à très grande échelle dans toute l’industrie :

« Je pense que la plupart des entreprises sont en retard. D’ici un an, je crois que la majorité des entreprises arriveront à la même conclusion et procéderont à des changements structurels similaires. Je préfère y parvenir honnêtement et selon nos propres conditions plutôt que d’y être contraints par la force des choses. »

Block réunit pour mémoire Square (services financiers pour e-commerçants), Cash App (service de paiement mobile et d’envoi d’argent, sur le modèle d’un Wero), Afterpay (paiement fractionné et crédit à la consommation), Tidal (service de streaming musical lancé en 2015), Bitkey (portefeuille bitcoin) et Proto (minage de cryptomonnaies).

Datacenter de Wissous : peut-on débattre d’un projet lorsqu’il est divisé en 3 morceaux ?

27 février 2026 à 09:31
Data center de centre ville
Datacenter de Wissous : peut-on débattre d’un projet lorsqu’il est divisé en 3 morceaux ?

À Wissous, depuis 2019, la société CyrusOne crée un data center pour le compte d’Amazon. La manière dont le projet a été proposé, divisé en trois phases sans en informer par avance le public, suscite les contestations de la mairie comme de l’opposition.

L’installation est vaste, grise sous le ciel gris, à l’exception d’une petite extension vert foncé, du côté des habitations. Quand on en fait le tour, on se retrouve devant les multiples portes roulantes qui marquent le lieu où des camions auraient dû, initialement, venir se ranger le temps de se délester de leur chargement. Tout autour : des grillages, dédoublés par endroits. Pour l’œil non averti, le bâtiment ressemble à n’importe quel entrepôt. Pour Philippe de Fruyt et Jean-Luc Touly, qui nous en font faire la visite, il s’agit d’un centre de données mal placé.

Conseiller municipal de la ville de Wissous, le premier s’oppose au projet depuis qu’il en a appris l’existence, quelques semaines à peine avant les élections municipales de 2020. Initialement dans la majorité de la localité de 7 000 habitants, le second l’a rejoint au sein de la liste d’opposition Wissous notre ville. Depuis le QG de campagne – un garage au fond du jardin de Philippe de Fruyt, qui présente sa candidature à la mairie de Wissous pour la troisième fois –, les deux hommes reviennent sur l’histoire politique mouvementée de leur ville, et la manière dont un centre de données destiné à recevoir les serveurs du géant états-unien Amazon, s’y est retrouvé mêlé.

Parmi leur auditoire, en ce matin neigeux de janvier, trois membres de l’association Data for Good. Alors que Wissous notre ville est en contentieux avec CyrusOne depuis plusieurs années, l’association, qui souhaite « mettre le numérique au service de l’intérêt général », l’a rejointe dans sa procédure en appel. Le but, explique sa co-présidente Lou Welgryn à Next : « mettre en lumière une pratique qui se généralise dans la manière dont les data centers s’implantent en France ». Pour les plaignants, CyrusOne a en effet divisé son projet en trois phases taillées exprès sous les différents seuils de contrôle imposés par le code de l’environnement.

Enjeux économiques contre débat citoyen

Diviser un projet de centre de données en étapes de construction n’a rien d’inhabituel, pointe le sociologue Clément Marquet. « Les opérateurs l’expliquent en langage économique, ils parlent de time to market : quand ils identifient un terrain, ils veulent pouvoir fournir un premier data center le plus vite possible. » Dans ces conditions, cela dit, leurs clients ne rempliront pas directement les surfaces complètes envisagées.

Au Sud-Est de la capitale, Fouju héberge par exemple l’un des cinq sites « fast tracks » identifiés par le gouvernement. Lors de la consultation publique organisée par le gestionnaire du réseau de transport d’électricité RTE et le porteur de projet Campus IA, ce dernier a ainsi détaillé comment un premier investissement de 8 milliards d’euros devrait permettre de construire les équipements mutualisés, obtenir ce premier raccordement de 700 MW (plus de 7 fois la puissance envisagée pour le projet de Wissous), et construire trois premiers centres de données.

Le nombre d’étapes qui doit permettre au projet d’atteindre son amplitude finale (annoncée à 50 milliards d’euros d’investissements et 1,4 GW de puissance) dépendra « des capacités effectivement mises à disposition et de la demande », expliquait alors le directeur de Campus IA Thibaud Desfossés.

Si la pratique a « beaucoup d’avantages pour les opérateurs », admet Clément Marquet, elle crée « un effet de déni de démocratie ». La consultation publique paraît « nécessairement favorable : elle ne permet pas de débattre, juste de prévoir les améliorations techniques qui apaiseront les riverains ». Par ailleurs, le phasage des projets empêche « d’évaluer leurs impacts environnementaux dans leur intégralité, développe Lou Welrgyn, ce qui rend beaucoup plus difficile l’information des citoyens sur ces sujets ».

Transparence en question

Dans le cas de Wissous, l’image que dessinent Philippe de Fruyt et Jean-Luc Touly est encore plus complexe. D’après la propre documentation de CyrusOne, l’entreprise américaine a obtenu en 2020 « un permis de construire, en conformité avec la loi et la réglementation françaises, permettant l’installation d’une seule salle informatique fournissant 4,5 MW de capacité IT sur 1 810 m² d’espace technique ». Dans son rapport financier du quatrième trimestre 2020, outre un bail de location de 25 ans pour un site de 5 hectares situé à Paris, CyrusOne citait justement le développement de la première phase d’un centre de données entièrement pré-loué.

Mais à la ville de Wissous, aucune information n’avait filtré sur le projet avant qu’une alerte ne parvienne à Philippe de Fruyt et que celui-ci décide de l’évoquer publiquement en amont des élections municipales de 2020. « Avant de faire de la politique, j’ai eu une carrière dans l’industrie », explique celui qui a passé l’essentiel de sa carrière chez l’équipementier automobile Valeo. « J’y ai appris que quand vous avez un bon projet, vous le faites savoir. »

Un « bon projet » pourrait par exemple désigner un centre de données construit par un acteur américain majeur à l’heure où la transformation numérique est dans toutes les bouches, continue l’homme politique. Ou encore un centre de données qui serait implanté dans la zone industrielle de Wissous, sous l’égide d’une mairie dont l’agenda politique s’articule notamment autour de la promotion des projets entrepreneuriaux. « Quand personne ne sait rien, contrebalance Philippe de Fruyt, ça sent mauvais. »

Dans les mois qui suivent les élections, la gestion municipale devient houleuse. Richard Trinquier est bientôt remplacé par Florian Gallant, qui se retrouve en position de gérer le dossier du centre de données. En 2021, « ô surprise, Cyrus One nous annonce qu’il existe un projet d’extension à 49,5 MW », exposait Jean Luc Touly dans une vidéo publiée sur Facebook en 2023. Alors qu’il raconte à nouveau l’affaire à l’association Data for Good, le wissoussien s’arrête à nouveau sur ce chiffre qui le fait visiblement rire jaune.

À ses yeux, chacune des étapes du projet de Cyrus One a en effet promis d’atteindre une puissance à peine inférieure à différents seuils de contrôle fixés par le code de l’environnement. Dès 2022, le Journal du Net révèlait pourtant qu’Amazon Web Services, la filiale cloud d’Amazon, prévoyait d’occuper 100 % de ce projet qui, à terme, devait représenter « 15 000 m2 de salles informatiques pour une puissance de 83 MW ».

Trois paliers d’installations classées pour la protection de l’environnement

Car le code de l’environnement est clair : selon la puissance envisagée, le processus de déclaration et les obligations de consultation de la population ne sont pas les mêmes.

Sous les 20 MW de puissance, les opérateurs d’installations classées pour la protection de l’environnement (ICPE) peuvent se contenter de soumettre une déclaration à l’administration avant de lancer leur projet. Entre 20 et 50 MW, le projet doit être enregistré auprès de la préfecture, qui lancera alors un audit environnemental formel, et s’accompagne d’une mise à disposition, en mairie, du dossier et d’un registre des observations du public. Au-dessus des 50 MW, en revanche, les ICPE sont soumis à des processus plus complexes d’autorisation, qui impliquent notamment des audits environnementaux et l’organisation d’une consultation publique plus poussés.

« Depuis le début, l’objectif est de ne passer que par les régimes de déclaration et d’enregistrement pour éviter d’être repérés », estime auprès de Next un haut fonctionnaire de l’autorité environnementale interrogé sur les pratiques de CyrusOne à Wissous. « Ensuite, c’est comme d’autres projets industriels, comme pour l’autoroute A69 : quand le chantier est très engagé, ça devient difficile de revenir en arrière. Le juge dira que c’est un fait acquis. Certes, ils formulent une demande d’extension, mais on ne va pas aller implanter le projet ailleurs, on va plutôt conforter ce qui existe. »

Lorsque CyrusOne présente son projet de phase 2, une augmentation qui lui permettrait de créer deux nouvelles salles informatiques, le maire refuse, dans un arrêté du 18 août 2021, le permis de construire nécessaire. « Selon notre Plan local d’urbanisme (PLU), il n’y avait pas le droit de créer d’ICPE de plus de 20 MW dans cette zone » , déclare son successeur, Cyrille Telman. Comme le document date de 2005, et que le code de l’environnement a depuis créé la possibilité d’en développer par enregistrement, « c’est-à-dire, de notre point de vue, par procédure simplifiée », CyrusOne argumente qu’elle avait malgré tout le droit de s’installer dans l’entrepôt du 1, boulevard Arago.

L’entreprise se tourne donc vers la préfecture, avec qui le maire de l’époque, Floriant Gallant, « a des rendez-vous quasiment toutes les semaines », explique Cyrille Telman. « On voit bien, à l’époque, que la puissance étatique pousse pour qu’on accepte le projet. » CyrusOne et la préfecture en appellent à la justice administrative, qui tranche en faveur de la société états-unienne.

Wissous la Ville, désormais rejoint par Data for Good, se pourvoit en appel, argumentant notamment que l’entreprise aurait dû annoncer dès le départ son projet de data center complet, ce qui l’aurait soumis au processus le plus strict de demande d’autorisation pour une ICPE. Parmi les éléments, l’association locale verse au dossier une lettre consultée par Next et adressée par les conseillers de Cyrus One à la mairie de Wissous. En date du 14 octobre 2021, ces derniers soulignent « qu’à la suite de nombreux échanges avec la mairie de Wissous, la société CyrusOne Paris s’est engagée sur le long terme auprès de son bailleur et a réalisé de très lourds investissements concernant les différentes phases du projet (52 millions d’euros pour la seule phase 1). Ces investissements ne pourront pas être amortis si les phases 2 et 3 du projet ne sont pas mises en œuvre. En outre, la commercialisation de l’ensemble du projet étant aujourd’hui achevée, les risques de pertes financières se chiffrent en centaines de millions d’euros ».

S’ils soulignent, donc, que la rentabilité ne pourra être atteinte que grâce à la complétion du centre de données entier, ils indiquent aussi, plus loin, que « chaque phase du projet, prise isolément, est conforme aux règles d’urbanisme ». « Quand on s’appuie sur la loi » et sur la manière dont Wissous avait construit son PLU, estime Cyrille Telman, « on ne comprend pas que leur projet soit possible ». Contacté, CyrusOne indique ne pas être « en mesure de donner suite à des demandes d’interview ».

Emplacement inadéquat pour récupérer la chaleur fatale

Outre ces enjeux de divisions en phase, « ce qui choque les gens, c’est l’impossibilité de récupérer la chaleur fatale » produite par le fonctionnement des serveurs, explique Philippe de Fruyt. Dans le bras de fer qui a opposé la mairie à CyrusOne, Florian Gallant a bien obtenu quelques garanties environnementales, mais sur la question de la chaleur fatale, son successeur regrette que cela ne se traduise que par « l’installation d’une vanne. Dans d’autres villes, à Marcoussis, à Nozay [deux villes où s’est implanté l’opérateur français Data4, ndlr], les opérateurs jouent le jeu et participent à l’installation de l’infrastructure » sans laquelle la mise à disposition de la chaleur supplémentaire émise par les serveurs ne pourra de toute manière pas être réutilisée par la collectivité.

Emplacement du Data Center de CyrusOne dans Wissous / Capture d’écran OpenStreeMap

Le bâtiment dans lequel s’est installé CyrusOne est par ailleurs construit très près du cœur de ville. En face de l’édifice, le long de la rue André Dolimier, s’enchaînent un terrain de pétanque, un stade, un accueil de mineurs. Alors qu’on continue vers l’est, vers la rue Louis Boussard, deux maisons apparaissent, qui semblent installées sur le même terrain que le centre de données. Un peu plus loin, la façade arrière de la crèche les P’tits Loups, déplacée début 2026, se repère entre deux habitations.

« L’emplacement est mal choisi », résume Jean-Luc Touly. De l’autre côté de l’autoroute qui sépare une mince zone, au nord-ouest, du reste de la commune de Wissous, « il y a un autre site, sous une ligne électrique de 220 kV ». S’il avait été localisé là, le centre « n’aurait pas été proche de la population, mais plus proche de la ville voisine d’Antony, qui dispose d’un réseau de chauffage urbain » pour lequel la vanne de CyrusOne aurait facilement trouvé un débouché. Pour l’association Wissous la ville, c’est là que la ferme de serveurs devrait être installée. Sur place, en revanche, il n’existe pas d’entrepôt déjà construit comme celui que Cyrus One a pu récupérer boulevard Arago. « Or, fait remarquer le maire, une réhabilitation et une création d’entrepôt, cela n’est pas soumis aux mêmes normes. »

Au niveau local, alors que les élections municipales se profilent, Philippe de Fruyt voudrait faire du data center l’un des sujets de la campagne. Cyrille Telman, lui, constate que le sujet « ne vient pas dans la bouche des gens. Quand on fait du porte-à-porte, ils nous parlent du quotidien, de la crèche, mais pas de CyrusOne. » La question, finalement, porte peut-être plus auprès d’organisations implantées au niveau national.

Ce 30 janvier, la ministre déléguée chargée de l’intelligence artificielle et du numérique Anne le Hénanff saluait ainsi l’identification de 63 sites adaptés à l’implantation de centres de données, dont plus du tiers (26) sont d’ores et déjà alloués à un porteur de projet. Au total, indiquent les services du ministère de l’Économie, la « puissance électrique recherchée atteint 28,6 GW ». Alors qu’elle quitte un Wissous enneigé, Lou Welgryn, elle, se demande : « Pourquoi est-ce qu’on a besoin d’autant de puissance de calcul ? » Et d’espérer que « l’exemple concret et local » du centre de données installé à Wissous permette d’ouvrir le débat. Rendez-vous à la date de l’audience, le 19 mars, pour continuer la discussion.

☕️ NVIDIA retire en urgence ses pilotes 595.59 WHQL

27 février 2026 à 09:00

Comme le rapporte Videocardz, suite à la mise en ligne des pilotes 595.59 WHQL par NVIDIA, plusieurs utilisateurs remontent des soucis au niveau de la gestion des ventilateurs, principalement sur les cartes GeForce RTX 50 : « Les utilisateurs affirment que certains ventilateurs cessent de répondre, que les courbes personnalisées des ventilateurs sont ignorées, ou qu’un seul capteur apparaît dans des outils comme HWiNFO, GPU-Z et les utilitaires des fabricants », expliquent nos confrères.

Ce n’est pas tout. D’autres utilisateurs pointent du doigt « une baisse du boost après la mise à jour. Les utilisateurs rapportent des fréquences de pointe plus faibles et suggèrent que le pilote limite la tension GPU à environ 0,95 V », avec pour conséquence de limiter la fréquence sur certaines cartes. Les retours sont nombreux sur les forums de NVIDIA.

Dans la foulée de la mise en ligne, NVIDIA a retiré les pilotes et demande à ses utilisateurs qui rencontrent des soucis d’effectuer un retour en arrière sur la précédente version, comme indiqué dans une mise à jour des notes de version : « Nous avons découvert un bug dans les pilotes WHQL Game Ready et Studio 595.59 et avons temporairement supprimé les téléchargements pendant que notre équipe enquête. Pour les utilisateurs qui ont déjà installé ce pilote et rencontrent des problèmes de contrôle des ventilateurs, veuillez revenir à 591,86 WHQL ».

Les notes de version des 595.59 renvoient désormais vers une page vide.

Face aux projets de centres de données, des résistances s’organisent

27 février 2026 à 08:30
Qui définit la trajectoire ?
Face aux projets de centres de données, des résistances s’organisent

Alors que des contestations émergent autour de plusieurs projets de centres de données en France et ailleurs, des associations tentent de se saisir de ces occasions de visibilisation de l’infrastructure numérique pour ouvrir un débat sur la trajectoire technologique.

« Méga datacenter, incinérateur, c’est non ! » À Vitry-sur-Seine, dans le Val-de-Marne, le remplacement d’un dépôt pétrolier inutilisé depuis 15 ans par un centre de données fait partie des deux grands sujets que la liste Vitry Unie et populaire (divers gauche) veut mettre au cœur des débats en amont des municipales.

« Un tel centre de données, ça a une énorme emprise territoriale, ça implique énormément de consommation d’eau, d’électricité, ça crée très peu d’emplois », liste Merlin Gautier-Marchand, du collectif Pour une écologie populaire et sociale (PEPS), auprès de Next.

Ce 15 février, les collectifs de défense de l’environnement 3R, Pour une écologie populaire et sociale (PEPS) et Soulèvements de la Terre se mêlaient à Vitry Unie et populaire pour protester contre deux projets industriels perçus comme similaires.

« L’incinérateur, il va permettre de chauffer les Parisiens, mais créer de la pollution pour Vitry, continue Merlin Gautier-Marchand. Dans les deux cas, il s’agit de bâtiments qui vont servir la capitale, c’est-à-dire servir des intérêts qui n’ont rien à voir avec ceux des Vitriotes. »

La préoccupation résonne avec celle d’habitantes de Fouju, village de Seine-et-Marne où doit s’installer Campus IA, le plus gros projet français de centre de données. « On a l’impression d’être les poubelles de Paris, déclarait en novembre une riveraine, Christine Scialom. D’abord on se prend les centres d’enfouissement, ensuite les entrepôts de logistique, et maintenant les data centers. »

Elle résonne, aussi, avec des mobilisations qui s’organisent ailleurs en France, comme dans le monde. Au Chili, aux États-Unis, au Brésil, en Inde et ailleurs, portées tantôt par des collectifs locaux, tantôt par des associations nationales, de défense de l’environnement ou des droits numériques, voire par des représentants politiques, des contestations émergent autour de la création de nouveaux centres de données.

Oppositions territorialisées

Next a étudié ce phénomène en partenariat avec l’Environmental Reporting Collective (ERC), un collectif international d’enquête sur les enjeux environnementaux. Derrière ces protestations apparaissent régulièrement des questionnements sur la trajectoire générale de l’industrie technologique et de celle de l’intelligence artificielle. En France, le sujet est porté tantôt par des collectifs locaux, tantôt par des organisations nationales.

Ils s’appellent Le nuage était sous nos pieds du côté de Marseille, Data for Good à Paris, deux collectifs à l’appétence particulière pour les enjeux du numérique. À l’instar de PEPS, des Soulèvements de la Terre, d’Attac ou d’Alsace Nature, ils sont aussi issus de groupes préoccupés avant tout par les questions environnementales. Dans certains cas, comme à Vitry, des groupements politiques s’emparent aussi du sujet. Ainsi des Écologistes face aux projets de Data One à Eybens et Villefontaine (Isère) ou de La France Insoumise face à celui de Google, à Châteauroux (Indre), entre autres exemples.

Pour autant, ces combats restent « très territorialisés » estime le sociologue Irénée Regnauld, co-auteur de Technologie partout, démocratie nulle part, Plaidoyer pour que les choix technologiques deviennent l’affaire de tous (FYP, 2020). L’expansion de l’industrie de l’intelligence artificielle, et celle des centres de données qui permettent d’en faire tourner les serveurs et stocker les données, a beau être planétaire, « il faut être très proche » d’un centre en particulier, « ou très nerd », pour vraiment s’intéresser au sujet.

Du côté d’InfraNum, qui fédère des acteurs de toute la chaîne de valeur de l’infrastructure numérique, « le maillage du territoire, y compris avec des centres de données de toute petite taille » est même un but en soi, explique sa présidente Ilham Djehaïch. L’idée est d’être « proche des clients, que ceux-ci soient des collectivités, des TPE, des PME ou autre », ce qui implique d’avoir « beaucoup de bâtiments, très intégrés dans le paysage ».

Cette intégration explique certainement que dans la majorité des cas recensés par le collectif Le Nuage était sous nos pieds, la cohabitation se passe correctement. Même dans les lieux où elle est plus complexe, comme à Wissous, ville de 7 000 habitants aux prises avec un projet porté par l’américain CyrusOne, le sujet « ne vient pas dans la bouche des gens » pendant les échanges en prévision des élections municipales, explique le maire sortant Cyrille Telman. Une situation un peu différente de ce qui commence à percer aux États-Unis, où l’acceptabilité des centres de données est quelquefois qualifiée de « grand unificateur », dans la mesure où des soutiens de Donald Trump et des électeurs démocrates s’allient pour s’opposer à certains projets.

Rendre visible l’infrastructure numérique

À Marseille, cela dit, c’est précisément parce qu’« il nous semblait que l’enjeu de la territorialisation des data centers était assez peu interrogée » que le collectif Le Nuage était sous nos pieds s’est formé, explique Antoine, l’un de ses membres. La ville phocéenne a ceci de stratégique qu’elle sert de point d’arrivée à 18 câbles sous-marins et permet, au nord, de les relier aux FLAP, l’acronyme utilisé dans l’industrie pour désigner Francfort, Londres, Amsterdam et Paris.

« Le travail du collectif, c’est vraiment de rendre matérielles ces infrastructures numériques qui sont devenues des espèces d’appendices de nos vies, explique Lena, une autre membre du collectif, dans un épisode de notre podcast Entre la chaise et le clavier. Aujourd’hui, en particulier avec l’IA, ce sont des choses qui se développent énormément, mais dans la plus grande opacité pour le grand public. »

« L’idée, c’est de donner des clés aux citoyens », abonde la coprésidente de Data for Good Lou Welgryn. À défaut, la population découvre souvent les projets « quand il commence à y avoir des pelleteuses », illustre Irénée Regnauld, ce qui empêche toute possibilité de réel débat.

Loin d’être propre à la France, cette logique se retrouve par exemple en Thaïlande, où la population de la province de Chonburi, déjà en concurrence avec certains acteurs industriels pour l’accès à l’eau, a peu d’informations sur les projets de centres de données qui viendront, eux aussi, pomper dans les réserves disponibles.

Selon le décompte de nos partenaires, la région abrite déjà quatre centres de données et 11 projets ont été signés. Les agriculteurs locaux, eux, témoignent déjà des difficultés à maintenir leurs activités pendant les longs étés caniculaires.

Au Brésil, le projet de complexe de data center « AI City », dans la ville d’Eldorado do Sul, a été validé par le ministère de la mine et de l’énergie, qui prévoit une augmentation de 20 % de la demande électrique actuelle en période de pointe dans la région Sud. Interrogés par nos partenaires de l’ERC, des habitants qui découvrent le projet le qualifient de « terrible », dans la mesure où ils subissent déjà de fréquentes coupures d’électricité.

« Cela aurait pu se passer autrement »

Dans l’hexagone, si le réseau public de transport d’électricité RTE appelle à accélérer l’électrification des usages pour absorber la production énergétique nationale, les projets de centres de données n’en créent pas moins certains conflits d’usage au niveau local.

À Marseille, des élus écologistes ont demandé un moratoire sur les nouveaux bâtiments : leur réservation d’électricité freine d’autres travaux, comme celui de l’électrification des quais du port, qui permettrait de réduire la pollution émise par les ferries.

L’enjeu, pour des associations comme PEPS, est aussi de sensibiliser à ce que l’ensemble de la chaîne de production provoque. « On organise beaucoup la mobilisation autour du Congo, explique Merlin Gautier-Marchand, parce que la construction des serveurs exige beaucoup d’or et de coltan », des matériaux extraits dans des conditions dramatiques – en 2023, Amnesty International calculait qu’environ 40 000 enfants travaillaient dans les mines de Cobalt, notamment autour de la ville de Kolwezi.

La trajectoire technologique générale répond pour le moment à « des choix du capitalisme numérique, qui y a vu une manière de faire du profit », résume Antoine du Nuage était sous nos pieds, notamment en multipliant les fermes de serveurs. « Mais cela aurait pu se passer autrement, c’est pourquoi il nous semble important de faire émerger les conditions d’un débat sur notre modèle numérique. »

Une fuite chez un éditeur de logiciels médicaux expose 11 à 15 millions de Français

27 février 2026 à 08:21
Une fuite chez un éditeur de logiciels médicaux expose 11 à 15 millions de Français

Cegedim Santé a admis jeudi soir avoir été victime d’une intrusion réalisée au travers de son logiciel de santé MonLogicielMedical.com. Révélée par le 20 heures de France 2, la fuite de données pourrait toucher entre 11 et 15 millions de Français. Elle ne concernerait cependant que le dossier administratif des patients, et non leurs dossiers médicaux.

« Dans les zones obscures du web, le secret médical est désormais un secret de polichinelle pour des millions de patients », attaque la voix-off. Dans sa séquence L’Œil du 20 heures, diffusée jeudi soir, France 2 a révélé avoir consulté une base de données émanant d’une intrusion réalisée chez un éditeur de logiciels médicaux. Le fichier en question aurait été disponible « en libre accès », et contiendrait des informations « exposant entre 11 et 15 millions de personnes, selon notre estimation ».

Un copieux fichier émaillé de données à caractère médical

France 2 ne précise pas comment le décompte du nombre de personnes exposées et l’éventuelle déduplication ont été opérés. Le reportage met en revanche en scène la vérification de certaines de ces données : on voit ainsi l’une des journalistes de l’équipe appeler au téléphone une femme dont les informations figurent dans le fichier. Sans surprise, celle-ci manifeste son étonnement à l’idée que son traitement médical circule sur Internet.

Le sujet affirme que « dans certains cas », la base de données consultée « fait état du dossier médical du patient », avec ce qui ressemble à des annotations laissées par le médecin. Certaines de ces informations revêtent un caractère très personnel avec allusion à la sexualité, à l’état de santé, à la religion ou à des événements familiaux.

« Des personnalités politiques de premier plan sont également présentes dans cette base, à l’image de potentiels candidats à l’élection présidentielle, de hauts fonctionnaires et de responsables de la sécurité nationale », indique encore France 2, qui affirme avoir échangé avec l’auteur du partage du fichier en question et affiche son pseudonyme.

La publication d’origine, qui proposait donc le fichier en accès libre, a été supprimée suite à la diffusion du sujet de France 2, mais un compte qui se revendique du groupe Dumpsec propose toujours, à la vente cette fois, la base de données en question. L’auteur de ce nouveau post affirme d’ailleurs qu’il dispose d’un volume de données nettement plus conséquent que l’extrait qui a été diffusé en accès libre un peu plus tôt.

Cegedim confirme une intrusion

La base de données en question provient, selon les auteurs, de Cegedim, un éditeur de progiciels spécialisé, notamment, dans les solutions à destination des professionnels de santé. Celui-ci a réagi jeudi soir à la diffusion du sujet de France 2. Dans un communiqué (PDF), il indique avoir identifié, fin 2025, « un comportement anormal de requêtes applicatives sur des comptes médecins utilisateurs du logiciel MLM (MonLogicielMedical.com) ». Ce dernier est utilisé par 3 800 médecins en France, et 1 500 d’entre eux seraient concernés par l’attaque.

« Tous les médecins concernés ont été contactés début janvier et accompagnés s’ils le souhaitaient, par des équipes dédiées, dans leurs démarches de notification à la CNIL et d’information de leurs patients conformément à leurs obligations de responsable de traitement au sens du RGPD », écrit Cegedim, qui affirme par ailleurs avoir pris toutes les mesures nécessaires pour sécuriser son logiciel, et respecté les obligations réglementaires qui lui incombent en pareille situation.

L’éditeur récuse cependant l’information selon laquelle des dossiers médicaux ont été accédés : « Les dossiers médicaux structurés des patients sont restés intègres. » D’après lui, les informations consultées ou extraites par les pirates « proviennent exclusivement du dossier administratif du patient : nom, prénom, sexe, date de naissance, téléphone, adresse, email et commentaire administratif en texte libre à la discrétion des médecins ». C’est donc de ce champ commentaire que proviendraient les détails parfois intimes évoqués par France 2 dans son sujet.

Fin 2024, Cegedim avait été épinglé par la Cnil pour traitement de données de santé sans autorisation au sein d’un autre de ses logiciels de gestion.

☕️ Anthropic ne cède pas aux pressions du Pentagone pour utiliser Claude sans restriction

27 février 2026 à 07:59

Dario Amodei, le CEO d’Anthropic, dit non au Pentagone. En début de semaine, le secrétaire d’État à la Guerre de l’administration Trump, Pete Hegseth avait posé un ultimatum à Anthropic : l’entreprise avait jusqu’à ce vendredi pour lever les conditions d’utilisation de son modèle d’IA générative Claude qu’elle impose au Pentagone.

Si elle ne le faisait pas, elle serait mise au ban des fournisseurs de l’armée états-unienne et l’armée pourrait quand même utiliser ses modèles en passant outre ses conditions.

Ce jeudi 26 février, Anthropic a publié un message signé par Dario Amodei. Celui-ci indique que son entreprise n’a « jamais soulevé d’objections à l’égard d’opérations militaires particulières ni tenté de limiter l’utilisation de notre technologie de manière ponctuelle ». Mais, il ajoute : « dans un nombre restreint de cas, nous pensons que l’IA peut nuire aux valeurs démocratiques plutôt que les défendre ».

Et il en énumère deux : la surveillance de masse à l’échelle nationale (aux États-Unis) et les armes totalement autonomes.

Ainsi, il pointe le fait qu’« une IA puissante permet d’assembler [des] données dispersées et individuellement inoffensives pour former une image complète de la vie de n’importe quelle personne, automatiquement et à grande échelle ». La précision de l’échelle nationale laisse entendre qu’Anthropic n’est pas opposée à l’utilisation de son IA pour surveiller des personnes vivant en dehors des États-Unis.

Concernant l’utilisation de l’IA générative d’Anthropic pour automatiser l’usage des armes, Dario Amodei affirme que « les armes partiellement autonomes, telles que celles utilisées aujourd’hui en Ukraine, sont essentielles à la défense de la démocratie ». Et ne se dit pas, par principe, contre son utilisation pour des armes totalement autonomes, affirmant qu’elles pourraient même « s’avérer essentielles pour [la] défense nationale [des États-Unis] ». Mais il ajoute que, « aujourd’hui, les systèmes d’IA de pointe ne sont tout simplement pas assez fiables pour équiper des armes entièrement autonomes ». Et d’affirmer : « Nous ne fournirons pas sciemment un produit qui mettrait en danger les combattants et civils américains ».

Le patron d’Anthropic se montre inflexible face au Pentagone : « les menaces ne changent en rien notre position : nous ne pouvons en toute conscience accéder à leur demande ». Et d’assurer que si le Département de la Défense des États-Unis décide de se séparer d’Anthropic, l’entreprise fera « tout [son] possible pour assurer une transition en douceur vers un autre fournisseur, afin d’éviter toute perturbation des opérations militaires, des missions en cours ou d’autres missions critiques ».

Plus tôt, le porte-parole du Pentagone, Sean Parnell, avait affirmé sur X : « le département de la Guerre n’a aucun intérêt à utiliser l’IA pour surveiller en masse les Américains (ce qui est illégal) et nous ne voulons pas non plus utiliser l’IA pour développer des armes autonomes qui fonctionnent sans intervention humaine ».

☕️ Android 17 débarque en beta 2, avec des bulles, un EyeDropper, de la Proximity Detection…

27 février 2026 à 07:40

Deux semaines après la mise en ligne de la première version bêta d’Android 17, Google remet le couvert. Plusieurs nouveautés sont mises en avant. Pour la partie interface et expérience utilisateurs, les « bulles » arrivent. Cette fonctionnalité, distincte de l’API des bulles de messagerie (arrivée avec Android 11), permet de passer une application en mode fenêtre.

« Les utilisateurs peuvent créer une bulle d’application sur leur téléphone, leur appareil pliable ou leur tablette en maintenant longuement enfoncée une icône d’application dans le lanceur ». Un exemple ci-dessous avec l’Agenda.

Le billet de blog associé propose plusieurs animations présentant le fonctionnement des nouvelles fonctionnalités. Pour les développeurs d’applications, de la documentation est disponible ici.

Passons ensuite à EyeDropper. C’est une API au niveau du système qui « permet à votre application de demander la couleur de n’importe quel pixel de l’écran sans nécessiter d’autorisations sensibles pour capturer l’écran ».

Plusieurs autres petits changements sont apportés sous le capot, notamment pour le sélecteur de contacts qui permet d’accorder des autorisations temporaires (au niveau de la session) en lecture aux seuls champs de données demandés par l’utilisateur, une meilleure prise en charge des pavés tactiles, etc.

Pour la connectivité inter-appareils, Google annonce « une nouvelle API Handoff permettant de spécifier l’état de l’application à reprendre sur un autre appareil, comme une tablette Android ». Sur la partie Ultra Wide Band, « UWB DL-TDOA qui permet aux applications d’utiliser UWB pour la navigation intérieure ».

Côté Wi-Fi, la fonctionnalité Proximity Detection de la Wi-Fi Alliance est prise en charge. « Cette technologie offre une fiabilité et une précision accrues par rapport aux spécifications de portée existantes basées sur le Wi-Fi Aware », qui permet aux appareils compatibles de communiquer directement entre eux.

Google continue de viser un rythme annuel pour la sortie majeure de son SDK (chaque deuxième trimestre), accompagné d’une mise à jour au quatrième trimestre. L’entreprise est confiante dans le calendrier : « Nous allons rapidement passer de cette bêta à notre jalon Platform Stability prévu pour mars », c’est le moment où les API seront figées pour permettre aux développeurs de s’adapter.

La compatibilité des smartphones est la même que précédemment : les Pixel de Google à partir des versions 6. Tous les détails se trouvent sur ce site dédié à Android 17.

☕️ Arcom : nouvelle série de mesures de blocage de médias russes sous sanctions

26 février 2026 à 16:10

L’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) a annoncé jeudi avoir prononcé une nouvelle série de mesures de blocage et de déréférencement portant sur 35 sites de médias russes soumis à des sanctions européennes.

Adressées aux fournisseurs d’accès à Internet, aux moteurs de recherche et aux fournisseurs de services DNS, ces mesures concernent également « quatre plateformes de streaming permettant d’accéder à des services de télévision et de radio russes sous sanctions », indique l’Autorité dans un communiqué.

Le détail des médias et plateformes n’a pas été rendu public. L’Arcom souligne cependant qu’il s’agit de sa troisième salve de demandes en moins d’un an. En mars 2025, elle avait en effet mis en demeure Eutelsat d’arrêter la diffusion des chaînes russes STS et Kanal 5, appartenant toutes les deux à la société russe JSC National Media Group.

En juillet 2025, elle avait ensuite ordonné le blocage et le déréférencement de 19 sites de médias russes ainsi que de trois plateformes hébergées en Russie.

Rappelons que ces mesures sont prises en vertu des règlements européens qui définissent le régime de sanctions adoptées à l’encontre de la Russie suite à sa tentative d’invasion de l’Ukraine.

La première et la plus symbolique d’entre elles avait été adoptée en 2022, avec l’interdiction, controversée à l’époque, des chaînes Russia Today (RT) et Sputnik. Plusieurs autres chaînes russes (NTV Mir, Rossiya 1, Perviy Kanal et NTV) ont depuis elles aussi fait l’objet de mesures de blocage.

☕️ Les projets de data centers au Royaume-Uni atteignent 50 GW de puissance électrique

26 février 2026 à 16:00

Au Royaume-Uni, les 140 projets de centres de données en cours d’examen pourraient demander jusqu’à 50 GW (gigawatts) d’électricité pour fonctionner. L’estimation est issue d’une consultation (.pdf) menée par l’Ofgem, le régulateur britannique des marchés du gaz et de l’électricité.

Les demandes de projets ont explosé en l’espace de quelques mois : de 41 GW en novembre 2024, le total des demandes de raccordement a grimpé à 125 GW en juin 2025. Dans le lot, 40 % viennent de l’industrie des centres de données.

Cette accélération soulève un enjeu de puissance électrique disponible. « La demande en crête d’électricité en Grande-Bretagne le 11 février 2026 était de 45 GW », indique l’Ofgem. Les demandes enregistrées prévoient donc d’ajouter jusqu’à 125 GW, dont 50 GW pour les seuls data centers. Ces chiffres concernent une puissance maximale : la réalité devrait se traduire par une consommation globale moins élevée, ne serait-ce que parce que tous les projets ne verront pas le jour. La marche à franchir n’en reste pas moins haute.

L’organisme souligne une « explosion des demandes » de connexions au réseau entre novembre 2024 et juin 2025, dans une proportion qui a dépassé jusqu’aux prévisions les plus ambitieuses, rapporte the Guardian. En parallèle, le média relève que des projets de production d’énergie renouvelable ne sont pas reliés au réseau au rythme auquel ils sont construits (notamment pour atteindre les objectifs climatiques du pays à l’horizon 2030).

Devant l’afflux, le régulateur évoque par ailleurs une problématique de délais à rallonge. Et souligne qu’il « n’existe aucun mécanisme pour prioriser les projets de demande stratégiquement importants ».

Entre autres mécanismes visant à éloigner les projets « non viables », l’Ofgem envisagerait des vérifications financières plus précises qu’actuellement, voire de facturer aux fournisseurs de centres de données l’accès au réseau, que ce soit sous forme de caution ou de frais non remboursables.

NVIDIA engrange 120 milliards de dollars de bénéfices, regarde la Chine et l’espace

26 février 2026 à 14:58
La pénurie et les difficultés financières, c’est pas pour tout le monde !
NVIDIA engrange 120 milliards de dollars de bénéfices, regarde la Chine et l’espace

Les datacenters sont le principal (et de loin) moteur de NVIDIA. Depuis le lancement de ChatGPT, le chiffre d’affaires associé a été multiplié par près de 13. Le géant américain des GPU pour l’IA profite de la publication de ses résultats financiers pour parler de ses relations avec la Chine, de sa prochaine architecture Vera Rubin et des datacenters dans l’espace.

Sur son année fiscale 2026 terminée le 26 janvier 2026 (oui, l’entreprise a quasiment un an d’avance), NVIDIA revendique un chiffre d’affaires de 215,94 milliards de dollars, en hausse de 65 % sur un an.

Les bénéfices nets suivent la même tendance avec 120,07 milliards de dollars (+ 65 % également). Cela donne tout de même 13,7 millions de dollars par… heure. C’est la première fois de son histoire que NVIDIA dépasse la barre des 100 milliards de dollars de bénéfices sur un an, un club assez sélectif.

Le chiffre d’affaires s’établit à 68,13 milliards de dollars sur le seul dernier trimestre de l’exercice (+ 20 % sur trois mois glissants) et NVIDIA promet de faire encore mieux sur le premier trimestre de 2027 avec 78 (±2 %) milliards de dollars. La branche des datacenters représente la quasi-totalité du chiffre d’affaires avec 62,3 milliards de dollars sur les 68,13 milliards.

Des résultats supérieurs aux attentes, mais qui ne semblent pas pour l’instant bouleverser le comportement du titre à Wall Street.

62,3 milliards de dollars pour les datacenters, 3,7 milliards pour les joueurs

Le gaming (avec les GeForce) ne représente que 3,7 milliards de dollars, soit près de 17 fois moins que les GPU pour les centres de données et l’intelligence artificielle. NVIDIA annonce que la partie gaming est « en hausse de 47 % par rapport à l’année dernière, portée par une forte demande pour Blackwell [les GeForce RTX 50, ndlr], et en baisse de 13 % par rapport au trimestre précédent, les stocks des distributeurs s’étant naturellement réduits après une période de forte demande liée aux fêtes de fin d’année ».

Alors qu’on attendait au CES 2026 un renouvellement de la gamme des GeForce RTX 50 lancée en janvier 2025 avec une déclinaison « Super », rien n’est arrivé. Cela n’aide évidemment pas à relancer les ventes. Il est pour rappel bien plus rentable pour NVIDIA de fabriquer des GPU pour les datacenters et l’IA que des GeForce pour les joueurs. Les wafers de silicium et les puces de mémoire étant en quantité limitée, il n’est pas étonnant de voir les revenus sur la partie datacenter autant exploser face aux gamers.

Pendant ce temps-là, la pénurie mondiale de puces mémoire et la vente massive à NVIDIA de la production pour les GPU des datacenters font augmenter les tarifs de nombreux produits. La mémoire et les SSD sont en tête de liste, mais avec des effets collatéraux sur les ordinateurs, les VPS

Depuis l’arrivée de ChatGPT, la branche datacenter a fait x13

Durant la session de questions/réponses de présentation des résultats, Colette Kress, directrice financière du groupe, explique d’ailleurs que NVIDIA « a multiplié par près de 13 son activité de centres de données depuis l’émergence de ChatGPT en 2023 ».

Sur l’année fiscale 2023 (terminée le 29 janvier 2023), les revenus étaient de 26,97 milliards de dollars, pour des bénéfices nets de 4,37 milliards de dollars. Sur 2024 (terminée le 29 janvier 2024), les revenus étaient de 60,92 milliards de dollars (déjà un x2 l’année de lancement de ChatGPT), pour des bénéfices nets de 29,76 milliards de dollars.

Colette Kress ajoute que les produits de la génération « Hopper et une grande partie des produits Ampere, vieux de six ans, sont en rupture de stock dans le cloud ». Concernant les systèmes Grace Blackwell GB200 NVL72 lancés il y a tout juste un an, ils représentent aujourd’hui 9 GW de puissance électrique installée. Avec une puissance de 120/130 kW par baie, cela donne l’équivalent de plus de 70 000 baies déployées à travers le monde.

Le fabricant se félicite aussi de son initiative Sovereign AI dont les revenus ont « plus que triplé d’une année sur l’autre pour dépasser 30 milliards de dollars par an, principalement grâce à des clients basés au Canada, en France, aux Pays-Bas, à Singapour et au Royaume-Uni ».

NVIDIA, USA et Chine : poker menteur autour des GPU et des IA

Sur la question de la Chine, Colette Kress explique que, « bien que de petites quantités de produits H200 pour les clients basés en Chine aient été approuvées par le gouvernement américain, nous n’avons pas encore généré de revenus, et nous ne savons pas si des importations seront autorisées en Chine ».

Selon un haut responsable de l’administration Trump cité par Reuters, cela n’empêcherait pas la Chine d’accéder aux derniers GPU Blackwell : « Le dernier modèle d’IA de la start-up chinoise d’IA DeepSeek, dont la sortie est prévue dès la semaine prochaine, a été entraîné sur la puce IA la plus avancée de NVIDIA ». Le gouvernement rappelait sa ligne : « Nous n’expédions pas de Blackwell en Chine ».

Colette Kress lance un appel aux responsables américains :

« Nos concurrents en Chine, renforcés par les récentes introductions en bourse, progressent et ont le potentiel de bouleverser la structure de l’industrie mondiale de l’IA sur le long terme. Pour maintenir sa position de leader dans le calcul IA, l’Amérique doit engager chaque développeur et doit être la plateforme de choix pour chaque entreprise commerciale, y compris celles de Chine. Nous continuerons à dialoguer avec les gouvernements américain et chinois et à défendre la capacité de l’Amérique à rivaliser dans le monde ».

Vera Rubin toujours « on track » pour le second semestre 2026

La directrice financière en profite pour revenir sur les derniers CPU et GPU en date : Vera Rubin. Les premiers échantillons ont été « expédiés à nos clients plus tôt cette semaine ». NVIDIA espère lancer les expéditions en masse au cours du second semestre de l’année, en phase avec le calendrier annoncé en janvier lors de la présentation des nouvelles puces.

Des datacenters dans l’espace ? Il est encore trop tôt pour Jensen Huang

Pendant l’échange téléphonique, une question a été posée sur la faisabilité des datacenters dans l’espace, dont certains pensent que cela peut être une solution viable et intéressante. Pour Jensen Huang, patron de NVIDIA, il est trop tôt : « La situation économique est mauvaise aujourd’hui, mais elle va s’améliorer avec le temps ».

Le fonctionnement dans l’espace est « radicalement différent de celui sur Terre ». L’énergie, par exemple, « y est abondante, mais les panneaux solaires sont volumineux ». Il fait froid et c’est un avantage pour dissiper la chaleur, mais à cause de « l’absence de circulation d’air, la chaleur ne se dissipe que par radiation et les radiateurs à fabriquer sont assez volumineux ». Quant au refroidissement liquide, c’est « hors de question » pour Jensen Huang car ce genre de système est « lourd et peu résistant ». Se pose aussi la question d’envoyer et de recevoir des Po et des Po de données.

Rappelons que des serveurs ont déjà été envoyés dans l’espace, notamment par HPE qui a fait un retour d’expérience détaillé avec des constatations auxquelles les ingénieurs n’avaient pas pensé au départ. Par exemple, « en l’absence de pesanteur, les composants non attachés flottent à l’intérieur du châssis, y compris le câblage interne ». Certains s’étaient par exemple approchés de ventilateurs qui les avaient « limés ».

Jensen Huang ne ferme cependant pas totalement la porte. « Les méthodes que nous utilisons ici sur Terre diffèrent donc légèrement de celles employées dans l’espace. Cependant, de nombreux modèles concurrents sont en cours d’élaboration et aspirent à être mis en œuvre dans l’espace ».

Russie : enquête ouverte sur le fondateur de Telegram Pavel Durov

26 février 2026 à 13:43
Max et les Maxi-réseaux sociaux
Russie : enquête ouverte sur le fondateur de Telegram Pavel Durov

En Russie, le patron de Telegram Pavel Durov est visé par une enquête pour « complicité d’activités terroristes » alors que le pouvoir en place tente de pousser les internautes locaux vers son application d’État, MAX.

Fondateur de la plateforme Telegram, Pavel Durov est visé depuis le 24 février par une enquête des autorités russes pour « complicité d’activités terroristes ». À l’origine de cette enquête, l’affirmation selon laquelle l’application serait utilisée par des services de renseignement occidentaux et ukrainiens, rapportée dans deux médias d’État : Rossiïskaïa Gazeta et Komsomolskaïa Pravda.

D’après le média d’investigation Можем объяснить (Mojem Obiasnit) cité par Le Monde, les articles de Rossiïskaïa Gazeta et Komsomolskaïa Pravda, quasiment identiques, pourraient avoir été écrits directement par Alexandre Bortnikov, directeur du FSB et auteur régulier dans les colonnes du Rossiïskaïa Gazeta.

Les textes en question affirment que Telegram aurait été utilisé dans 13 tentatives d’assassinats de hauts gradés russes par les forces ukrainiennes, et 33 000 « attentats à la bombe, incendies criminels contre des centres de recrutement et meurtres » depuis le début de la guerre.

Pavel Durov s’exprime sur Telegram

Comme dans les mois qui ont suivi ses démêlés avec la Justice française, Pavel Durov s’est fendu d’une communication sur son canal Telegram. « Chaque jour, les autorités inventent de nouveaux prétextes pour restreindre l’accès des Russes à Telegram, car elles cherchent à supprimer le droit à la vie privée et à la liberté d’expression », a-t-il déclaré.

Capture d’écran du message de Pavel Durov / Telegram

La rupture initiale entre Pavel Durov et la Russie remonte à 2014, lorsqu’il a été forcé par les autorités à vendre ses parts dans la société VK, éditrice de VKontakte, l’équivalent russe de Facebook. L’année précédente, il avait co-fondé Telegram avec son frère Nikolai, en installant le siège à Berlin, puis à Dubaï.

L’entrepreneur a refusé à plusieurs reprises de céder au Kremlin des données d’utilisateurs, ce qui avait conduit au bannissement de l’outil entre avril 2018 et juin 2020. Depuis l’été 2025, Telegram est de nouveau visé par des limitations, notamment des appels vidéos, aux côtés de Meta, au motif que les deux services n’agiraient pas suffisamment pour lutter contre la fraude et le terrorisme.

Pavel Durov s’est aussi retrouvé dans le viseur de la Justice française en 2024 pour des questions de non-gestion des activités criminelles opérées depuis sa plateforme. En novembre 2025, la France a finalement levé l’interdiction de voyager qui lui pesait encore sur les épaules.

MAX, le concurrent d’État

Depuis sa création, Telegram est devenue une source d’information essentielle de l’écosystème russophone, et ce, jusque du côté militaire. Alors qu’elle est utilisée par une large part de la population, propagandistes pro-Poutine compris, le Kremlin accentue la pression pour pousser les 105 millions d’utilisateurs mensuels russes de Telegram, mais aussi les adeptes de WhatsApp, vers une messagerie rivale et gérée par l’État, MAX. Les deux applications font l’objet de restrictions d’accès accentuées depuis le 9 février dernier.

Lancée en 2025 et gérée par la société VK, éditrice de VKontakte, MAX revendique de son côté plus de 75 millions d’utilisateurs. À l’instar des super-applications chinoises WeChat ou Alipay, MAX propose aussi bien des services de messagerie que l’accès à du commerce en ligne, à l’administration, à du paiement ou à des mini-applications d’usages variés, le tout, sans chiffrement.

Samsung Galaxy S26 : SoC Qualcomm modifié, Privacy Display… et IA à tous les étages

26 février 2026 à 12:56
25+1 = 26, le compte est bon !
Samsung Galaxy S26 : SoC Qualcomm modifié, Privacy Display… et IA à tous les étages

Samsung vient de dévoiler sa nouvelle série de smartphones, les (roulements de tambour) Galaxy S26. Ils sont au nombre de trois : le Galaxy S26 de base, le S26+ et enfin le S26 Ultra, avec un « nouveau » SoC Qualcomm aux commandes. Les principales nouveautés sont réservées au S26 Ultra, proposé à partir de 1469 euros.

Galaxy S26, S26+ et S26 Ultra en quelques lignes (et un tableau)

Nous n’allons pas nous étendre des heures sur les caractéristiques techniques. Nous avons regroupé les principales dans le tableau ci-dessous. Comme toujours, la version Ultra a un écran plus grand, plus de mémoire vive sur la version avec 1 To de stockage (16 Go à la place de 12 Go), des capteurs optiques de meilleure qualité, une batterie plus grosse, etc. Un comparatif est aussi disponible sur cette page.

Les trois smartphones sont certifiés IP68, mais à la sauce Samsung. Le fabricant prend en effet le soin d’apporter des précisions : « Testé en laboratoire pour une immersion jusqu’à 1,5 mètre de profondeur dans l’eau douce pendant 30 minutes maximum. Aucune infiltration de poussière ; protection totale contre les contacts (étanche à la poussière). L’étanchéité à l’eau et à la poussière n’est pas permanente et peut diminuer avec le temps en raison de l’usure normale ».

De l’IA, encore de l’IA

Côté logiciel, Samsung annonce que « les améliorations apportées au traitement IA de l’image s’étendent désormais au capteur frontal, capable de reproduire des tons de peau plus naturels et des détails plus fins ». Toujours sur l’IA, le fabricant met en avant son Assistant Photo avec lequel « les utilisateurs peuvent simplement décrire ce qu’ils souhaitent modifier avec leurs propres mots ». Attention, ce n’est pas que du local : « peut nécessiter une connexion réseau et la connexion à un compte Samsung ».

Il y a également Creative Studio, qui « nécessite une connexion réseau et la connexion à un compte Samsung » et regroupe « création et retouche dans un seul espace ». Même chose pour Now Nudge qui propose des « suggestions pertinentes », Now Brief qui « envoie de façon pertinente, en fonction du contexte personnel de l’utilisateur, des notifications portant sur les événements importants, comme une modification apportée à une réservation ou un voyage ».

Des explications et vidéos de présentation sont disponibles par ici.

Privacy Display : une nouveauté intéressante !

Avec le Galaxy S26 Ultra (uniquement), Samsung annonce « le premier Privacy Display intégré de l’industrie mobile ». Ce n’est pas une surprise puisque Samsung avait déjà annoncé son Privacy Display en janvier 2026.

Voici son fonctionnement :

« En contrôlant comment les photodiodes dispersent la lumière, l’écran conserve un contenu clair et lumineux tout en limitant ce que les autres peuvent voir. Contrairement aux protections adhésives traditionnelles, Privacy Display préserve la qualité d’affichage dans toutes les directions lorsqu’il est désactivé, et limite la visibilité depuis des angles de vue latéraux lorsqu’il est activé – même en passant du mode portrait au mode paysage ».

Une vidéo a été publiée par le compte officiel Samsung et le résultat semble intéressant. Le Privacy Display peut s’activer en permanence ou lors de certaines opérations seulement, comme la saisie d’un mot de passe ou d’un code PIN. À confirmer en conditions réelles lorsque le Galaxy S26 Ultra sera disponible : à partir du 11 mars 2026.

Encore un nouveau SoC Qualcomm, le « Snapdragon 8 Elite Gen 5 for Galaxy »

Niveau processeur, Samsung annonce un SoC « Snapdragon 8 Elite Gen 5 for Galaxy », ou bien un Exynos 2600 pour les S26 et S26+ seulement, dans certains pays. En France, c’est la version avec un Exynos 2600 qui est annoncée sur la boutique en ligne de Samsung.

Pour rappel, le « Snapdragon 8 Gen 5 » a été annoncé en novembre dernier. C’est tellement facile de suivre les noms de produits que Qualcomm s’était fendu, en amont, d’un billet explicatif. Qu’est-ce donc alors que cette version « for Galaxy » ? Qualcomm a publié un billet de blog affirmant que c’était le « SoC mobile le plus rapide au monde ». Mais encore ? C’est une version optimisée de la puce pour « bénéficier des dernières expériences Galaxy IA ».

Il y a ensuite une segmentation : avec le FastConnect 7900 de Qualcomm, « les Galaxy S26 Ultra et S26+ renforcent encore cette expérience grâce à l’intégration de l’Ultra Wideband (UWB) ». Il y a également l’APV Codec (Advanced Professional Video, développé par Samsung), mais uniquement pour le S26 Ultra.

Pour les caractéristiques techniques détaillées, on repassera. Qualcomm annonce 19 % de hausse des performances en CPU, 24 % en GPU et 39 % en NPU, mais cette comparaison est faite avec le SoC Snadpragon 8 Elite (que l’on pourrait tout aussi bien appeler Snapdragon 8 Elite Gen 4) des Galaxy S25.

Bref, c’est toujours autant le bazar chez Qualcomm qui multiplie les références, les modifie en cours de route, personnalise des SoC pour ses partenaires, etc.

S26 Ultra : « sept ans de mises à jour »… quid des autres ?

Samsung annonce « sept ans de mises à jour de sécurité et système d’exploitation et 3 ans de garantie commerciale [pour] les Galaxy S26 Ultra et Galaxy S26 Entreprise Edition ». « La fréquence (mensuelle, trimestrielle) des mises à jour de sécurité et de maintenance peut varier selon le modèle de l’appareil », ajoute le fabricant. Rien n’est précisé pour les Galaxy S26+ et S26, dommage.

Les tarifs débutent à 1 469 euros pour le S26 Ultra, 1 269 euros pour le Galaxy S26+ et 999 euros pour le Galaxy S26. Samsung a aussi annoncé des écouteurs sans fils Galaxy Buds 4 avec, selon le constructeur, « des performances audio exceptionnelles et des capacités d’intelligence artificielle avancées ». Ils sont vendus à partir de 179 euros.

❌