Vue normale

Reçu — 23 mars 2026 Next - Articles gratuits

☕️ VMware : nouvelle plainte contre Broadcom, le CISPE demande des actions immédiates

23 mars 2026 à 07:46


L’été dernier, le CISPE (Cloud Infrastructure Services Providers in Europe) déposait une plainte au tribunal de l’Union européenne pour faire annuler la validation du rachat de VMware par Broadcom. Pour le regroupement d’opérateurs, la Commission européenne n’aurait jamais dû donner son feu vert.

Le CISPE vient de déposer une nouvelle plainte, cette fois-ci devant la DG Competition, c’est-à-dire la direction générale de la concurrence de l’Union européenne. Il demande « une action immédiate de l’UE ».

Le groupement a plusieurs griefs. Pour commencer, en janvier, « Broadcom a annoncé la fin de son programme VMware Cloud Service Provider en Europe. Cela s’ajoute aux hausses de prix, aux offres groupées, aux exigences de paiements anticipés et d’engagements minimaux basés sur une utilisation potentielle plutôt que réelle, qui ont collectivement augmenté les coûts de plus de 1 000 % ».

Pour le CISPE, « cette décision unilatérale a supprimé les partenaires à l’exception d’une petite minorité et a exclu la plupart des CSP européens de la vente des produits VMware ». La Cloud Infrastructure Services Providers in Europe demande donc à l’Union des actions immédiates.

À minima, le retour des programmes VCSP (VMware Cloud Service Provider) pour les fournisseurs de services européens, mais aussi le « white label », supprimé par Broadcom en 2025, « qui permettait auparavant aux PME et aux petits fournisseurs de proposer des logiciels VMware ». Le CISPE demande aussi que soient mises en place des protections « contre les représailles de la part de Broadcom » et « qu’un système d’amendes doit être appliqué pour garantir le respect de ces termes ».

Depuis son rachat fin 2023 pour plus de 60 milliards de dollars, Broadcom a largement revu et modifié les conditions d’accès aux produits VMware au fils des mois, poussant plusieurs gros acteurs à passer par la case justice, notamment AT&T, Orange et Thales. Plus récemment, c’est la CNAM qui a fait plier Broadcom en justice.

D’autres n’ont visiblement pas à se plaindre. Lors de son dernier Summit fin 2025, Octave Klaba revenait sur la question des licences VMware et affirmait avoir obtenu des garanties de prix pour quatre ans.

En termes de licences, ajoutait le patron d’OVHcloud, la demande « continue à croître et on reprend régulièrement de nouvelles licences chez VMWare […] On ne voit pas aujourd’hui ce que vous appelez la fuite des clients VMware. Mais ce n’est pas le même comportement d’entrée de gamme que le comportement haut de gamme ; en entrée de gamme, c’est plus dur ».

☕️ « just setting up my twittr » : le premier tweet a 20 ans

23 mars 2026 à 07:06


C’est en effet le 21 mars 2006 que Jack Dorsey a publié le tout premier message sur Twitter : « just setting up my twttr ». En mars 2021, pour les 15 ans, il a été vendu pour près de 3 millions de dollars à Sina Estavi, qui obtient ainsi un certificat numérique. Il a depuis essayé de le revendre, sans jamais s’approcher du montant qu’il a déboursé ; la folie des NFT est terminée, comme le rappelait l’année dernière Numerama.

Le réseau social a pris de l’importance et il est devenu une source importante pour les journalistes, les économistes et la classe politique, permettant de suivre l’actualité en direct. Mais tout a basculé fin 2022 avec le rachat de Twitter par Elon Musk pour 44 milliards de dollars. Rachat mouvementé car, après une offre et un désistement, c’est un passage par la case justice qui l’a poussé à la finaliser.

Elon Musk a rapidement procédé à des changements importants au sein du réseau social, poussant certains à quitter Twitter, devenu X depuis, vers d’autres contrées comme Bluesky ou Mastodon. Mais X reste toujours en place et dispose même de sa propre IA Grok, se qualifiant elle-même de MechaHitler. Plus récemment, l’IA génère des deepfakes de femmes déshabillées sans leur consentement.

Malgré ses dérives et déboires judiciaires, X reste toujours largement présent sur la scène internationale, notamment en France où des responsables politiques, jusqu’à Emmanuel Macron, sont toujours présents, avec parfois des messages « exclusifs ».

L’année dernière, Elon Musk s’est revendu X à xAI, pour 45 milliards de dollars. Un montant choisi en accord avec lui-même, à un milliard de dollars au-dessus de son prix d’achat fin 2022. Il y a quelques semaines, il a fusionné SpaceX et xAI, une opération alors que SpaceX devrait entrer en bourse d’ici cet été.

Reçu — 20 mars 2026 Next - Articles gratuits

Windows 11 : après la chienlit de 2025, la « révolution » en 2026 ?

20 mars 2026 à 20:36
Vérifions : non, nous ne sommes pas le 1er avril !
Windows 11 : après la chienlit de 2025, la « révolution » en 2026 ?

Imaginez un Windows plus stable, avec des performances en hausse et moins d’intelligence artificielle à toutes les sauces. C’est, en substance, ce que vient d’annoncer Microsoft. Les premiers changements arriveront dès ce mois de mars pour les Insiders. Après une année 2025 assez catastrophique, 2026 sera-t-elle celle du renouveau ?

Pavan Davuluri, en charge des divisions Windows et Surface chez Microsoft depuis maintenant deux ans, vient de publier un billet de blog qui devrait faire plaisir à de nombreux utilisateurs. Simplement intitulé « Notre engagement envers la qualité Windows », il annonce d’importantes transformations à venir, à tous les étages.

Il explique avoir écouté et entendu les retours de la communauté puis, avec son équipe, « passé beaucoup de temps à les analyser ». Des changements sont annoncés, et ils arriveront rapidement dans Windows Insiders « ce mois-ci et tout au long du mois d’avril ».

Fin de la course à l’IA partout

Première nouveauté et pas des moindres : « Intégrer l’IA là où elle a le plus de sens ». Microsoft semble avoir compris que les utilisateurs ne voulaient pas de l’IA partout, n’importe comment. Désormais, l’éditeur va « se concentrer sur des expériences véritablement utiles et bien conçues ». Mozilla va pour rappel encore plus loin avec un « kill switch » complet pour les fonctions d’IA intégrées à Firefox.

Pour joindre les paroles aux actes, des points d’entrée inutiles de Copilot vont disparaitre, à commencer dans les applications Capture et croquis, Photos, Widgets et Bloc-notes. Même chose sur les Widgets, qui « doivent être utiles et pertinents, pas distrayants ou envahissants ».

Microsoft va aussi donner plus de contrôle sur la gestion des mises à jour, avec « la possibilité de passer les mises à jour lors de la configuration de l’appareil pour arriver plus rapidement sur le bureau, de redémarrer ou d’éteindre sans installer les mises à jour, de mettre les mises à jour en pause plus longtemps si besoin, tout en réduisant les perturbations causées par les mises à jour avec moins de redémarrages automatiques et de notifications ». Microsoft parle par exemple d’un unique redémarrage mensuel.

Dire que les mises à jour sont parfois compliquées est un doux euphémisme. Dernier exemple en date, ce jour, avec les couacs à répétition avec le dernier patch tuesday. Pour le reste, on ne compte même plus les fois où les choses ne se sont pas passées comme prévu.

Microsoft promet des performances en hausse et moins de plantages

Microsoft promet aussi un explorateur de fichiers « plus rapide et plus fiable ». De manière générale, les performances sont aussi au cœur des annonces : « nous nous concentrons sur la réactivité et la cohérence de Windows 11, afin que les performances soient fluides et stables ». Le sous-système Linux est aussi cité en exemple, aux côtés de l’Explorateur, avec des transferts plus rapides entre Windows et Linux, un réseau de meilleure qualité, etc.

De manière générale, Microsoft va « réduire l’utilisation des ressources par Windows pour libérer plus de performances pour ce que vous faites », y compris sur la mémoire (note personnelle : espérons que ce sera aussi le cas sur Edge lorsque des dizaines d’onglets sont ouverts…)

Pour des « interactions plus fluides et réactives avec les applications », Microsoft mise sur son framework WinUI3 « pour la création d’applications de bureau Windows ». Il est open source (voir son dépôt GitHub) et « apporte le système Fluent Design, le rendu hautes performances et un puissant modèle de programmation XAML aux développeurs C# et C++ ». Des ressources pour les développeurs sont disponibles ici.

Microsoft veut « offrir une expérience Windows 11 plus fluide et plus fiable en renforçant la stabilité du système, la qualité des pilotes et la fiabilité des applications ». Pavan Davuluri annonce carrément une réduction « des plantages du système d’exploitation », ainsi que des pertes de connexion en USB et Bluetooth.

D’autres changements sont à venir. Sur la barre des tâches ensuite, l’éditeur promet plus de personnalisation, avec la possibilité de la mettre sur les côtés ou en haut (il est amusant de voir que c’est le tout premier changement annoncé par Microsoft dans son billet de blog). L’authentification biométrique de Windows Hello doit elle aussi être améliorée dans le but affiché de réduire les frictions au niveau de la reconnaissance, qu’elle soit faciale ou digitale.

Windows Insider plus simple, avec un nouveau Feedback Hub

Le programme Windows Insider sera « plus simple et plus transparent ». Afin de mieux prendre en compte les retours des utilisateurs, Pavan Davuluri annonce la mise en place, dès aujourd’hui, « de la plus grande mise à jour de Feedback Hub à ce jour pour les Insiders, avec une expérience repensée qui rend plus rapide et facile la soumission de retours ».

De belles promesses tous azimuts dont on attend avec une certaine impatience (ce qui devenait rare avec Microsoft) la concrétisation. L’entreprise affirme que « les travaux sont en cours » et que « vous pourrez constater des progrès concrets en découvrant les versions préliminaires que nous vous présenterons tout au long de l’année ». Cela faisait longtemps que ce n’était pas arrivé, mais on serait presque impatient de voir les nouveautés arriver.

☕️ #LIDD Un traducteur LinkedIn Speak, pour des KPI en folie

20 mars 2026 à 15:45


On connaissait déjà le Pipotron, puis est arrivé le bullshitron pour tirer la quintessence suprême de l’intelligence artificielle. C’est maintenant so-2024 et puisque nous sommes en 2026, il est temps de passer à l’étape supérieure. Faites le savoir à votre réseau de la « plus belle » des manières.

Le moteur de recherche Kagi, qui propose aussi depuis 2024 un outil de traduction à la Google Translate ou DeepL, sait désormais gérer une langue parlée dans certaines contrées étranges – notamment dans le quartier de La Défense : le LinkedIn Speak.

Ne dites plus « j’ai terminé mon travail, je suis fatigué. Je rentre à la maison manger des cacahuètes et après j’irai faire dodo », mais « Encore une journée productive de passée ! 🚀 Je suis reconnaissant pour tout ce travail, mais je sais qu’il est important de recharger mes batteries. Il est temps de rentrer chez moi, de faire le plein de protéines 🥜 et de privilégier la récupération. 💤 La régularité, c’est la clé. Comment conciliez-vous aujourd’hui haute performance et repos bien mérité ? 👇WorkLifeBalance #Productivity #HustleAndRest #SelfCare #ProfessionalGrowth ».

C’est quand même plus drôle, mieux plus alignés sur mes objectifs de KPI hastag GrowthMindset. Sur ce, un dernier mot pour la route : « See you tomorrow with Flock! 🚀 Will he hit his KPI of making you laugh? Let’s find out!📈✨ #GrowthMindset #DailyHumor #Engagement ». Les résultats sont en anglais seulement, mais comme c’est un traducteur, il est facile de transformer en français (ça ne vole pas plus haut, c’est le principal).

☕️ SFR permet le transfert d’eSIM entre un iPhone et un smartphone Android

20 mars 2026 à 08:15


L’eSIM (embedded SIM) permet d’utiliser une carte SIM dématérialisée avec les smartphones compatibles. Vous chargez un « profil » avec les données de votre forfait pour vous connecter aux réseaux mobiles de votre opérateur, sans avoir besoin d’une carte SIM physique à insérer dans le smartphone.

Ce n’est pas parce que l’eSIM est dématérialisée qu’elle est gratuite. Elle est généralement facturée entre 1 et 10 euros pour les frais d’activation, le même prix que la SIM physique envoyée par la Poste. Le transfert d’eSIM entre deux terminaux d’une même marque est possible, mais SFR va plus loin.

« Implémenté chez SFR, pour Apple dès la version 26.3 de iOS (avec comme terminaux compatibles, gamme iPhone 11 et ultérieures) et pour Android dès la mise à jour Pixel de mars 2026 (avec les gammes Google Pixel 10 et Pixel 9), le transfert eSIM inter-OS simplifie désormais le changement d’OS pour les clients », explique l’opérateur.

Cette fonction de bascule inter-OS, SFR l’a d’ores et déjà intégrée sur son infrastructure, « permettant ainsi aux constructeurs de téléphones de s’en emparer ».

Bouygues Telecom permet de transférer des eSIM entre smartphones avec le même système d’exploitation et précise que « le transfert n’est pas possible entre iOS et Android». Orange et Free permettent le transfert d’eSIM, mais pas directement entre deux systèmes différents. Chez Free par exemple, il faut passer par l’espace client avec la suppression de l’ancienne eSIM et la création d’une nouvelle (sauf sur iOS où le transfert rapide est proposé).

☕️ L’Europe veut retourner dans l’ISS et étudier Apophis, le « destructeur de monde » déchu

20 mars 2026 à 07:19


Le Conseil de l’ESA tenait récemment sa 345e réunion, avec plusieurs décisions à la clé visant à « faire progresser les vols spatiaux habités européens, à renforcer les partenariats internationaux et à améliorer les capacités de défense planétaire ».

Premier point abordé par l’Agence spatiale européenne (ESA), l’approbation du concept de mission EPIC (ESA Provided Institutional Crew). Il doit permettre de « maximiser l’utilisation stratégique de la Station spatiale internationale (ISS) par l’Europe, en particulier à des fins scientifiques, durant les années qui lui restent ».

La fin de l’exploitation de la station est pour le moment programmée à 2030 ; elle pourrait ensuite être désassemblée puis désorbitée. « Des acteurs privés sont toutefois intéressés pour en conserver et exploiter certains modules. Mais les recherches futures se feront vraisemblablement sur de nouvelles stations, certaines privées, d’autres nationales », rappelle le CNES.

EPIC s’inscrit dans l’objectif E3P (European Exploration Envelope Programme), qui consiste à « offrir des opportunités de vol régulières aux astronautes de l’ESA. Il prévoit l’acquisition d’une mission Crew Dragon au premier trimestre 2028 pour une mission de durée moyenne à bord de l’ISS, en collaboration avec des partenaires internationaux intéressés ».

Station spatiale internationale

Deuxième point intéressant : la coopération ESA-JAXA (agence d’exploration spatiale japonaise) sur la mission Ramses qui veut étudier en détail l’astéroïde Apophis. Il alimentait de nombreux fantasmes il y a quelques années car il passe régulièrement « proche » de la Terre. Ce potentiel « destructeur de monde » a été déchu de son titre : pas de risque de collision avec la Terre pour les 100 prochaines années au moins.

Dans le cadre de la mission Ramses, la JAXA devrait fournir un imageur infrarouge thermique, des panneaux solaires légers et le lanceur spatial lourd H3. Ce dernier a raté son dernier lancement fin décembre 2025. Pour l’ESA, c’est « une avancée significative dans la coopération en matière de défense planétaire ».

Dans la même veine de la sécurité spatiale, les États membres « ont approuvé la collaboration avec la Carnegie Institution for Science pour l’hébergement et l’exploitation du télescope FlyEye-2 de l’ESA à l’observatoire de Las Campanas (Chili), renforçant ainsi la capacité de l’Europe à détecter et à suivre les objets géocroiseurs ».

Reçu — 19 mars 2026 Next - Articles gratuits

☕️ La cour d’appel de Paris rejette la demande de suspension de la marketplace de Shein

19 mars 2026 à 10:07


C’est le deuxième revers judiciaire pour le gouvernement qui avait demandé à la justice de suspendre les activités de Shein en France. En décembre, le tribunal judiciaire de Paris rejetait la demande du gouvernement, jugeant la mesure « disproportionnée » au regard de ventes problématiques qui restaient « ponctuelles » chez Shein.

Le gouvernement avait annoncé faire appel. Début février, on apprenait que la demande de suspension ne concernait plus que la marketplace, pas le site dans son ensemble. La cour d’appel de Paris confirme quoi qu’il en soit la décision de première instance, estimant dans un communiqué que « le dommage qui avait justifié l’action de l’État n’existait plus », comme le rapporte BFM TV.

La cour ajoute également « qu’il n’était justifié ni d’un dommage actuel ni d’un dommage futur certain », comme le précise France24. Nos confrères expliquent que la cour d’appel rejette ainsi « de fait l’argument de l’État qui considère comme systémique le risque que de tels produits se retrouvent sur la plateforme ». La cour ajoute que la société « avait réagi avec promptitude pour retirer les produits litigieux de la vente et avait mis en place des mesures de contrôle de ses produits et des vendeurs ayant accès à sa marketplace ».

France24 ajoute que la cour d’appel estime « justifié » de « maintenir l’interdiction» faite par le tribunal judiciaire de Paris « de vendre de nouveau des produits pornographiques licites pour adultes sans filtre d’âge ». Le blocage total de la marketplace serait par contre « disproportionné ».

Shein se félicite évidemment de cette décision et précise dans un communiqué envoyé par email avoir « maintenu un dialogue étroit avec les autorités françaises et européennes ». « Au cours des derniers mois, nous avons continué à renforcer de manière significative nos contrôles tant pour les vendeurs que pour les produits vendus sur notre marketplace, et ce afin que nos clients puissent bénéficier d’une expérience d’achat sûre et agréable », ajoute l’entreprise.

L’affaire était partie après la découverte de la vente de « poupées sexuelles à caractère pédopornographique » sur la marketplace de l’enseigne. La marketplace avait été fermée dans la foulée et une procédure de suspension engagée par le gouvernement.

Quoi qu’il en soit, Shein continue de s’implanter en France. Après Paris, des corners Shein de 400 à 1 000 m² débarquent dans cinq BHV en province : Angers, Dijon, Limoges, Grenoble et Reims.

Informatique quantique : Charles H. Bennett et Gilles Brassard lauréats du prix Turing

19 mars 2026 à 09:45
BB84, pas BB-8 !
Informatique quantique : Charles H. Bennett et Gilles Brassard lauréats du prix Turing

Les deux protagonistes se sont rencontrés en 1979 puis ont présenté leur protocole d’échange de clé quantique BB84 en 1984. Ils ont depuis récolté plusieurs récompenses pour arriver aujourd’hui à la plus haute distinction dans leur domaine : le prix Turing.

En informatique, il n’y a pas de prix Nobel, mais il existe le prix Turing souvent appelé le « prix Nobel d’informatique », décerné par l’Association for Computing Machinery (ACM). Deux français ont été lauréats : Yann LeCun en 2018 et Joseph Sifakis en 2007.

Ce prix récompense des « contributions de nature technique durables et majeures pour le domaine informatique », avec 1 000 000 de dollars à la clé. « Le soutien financier du prix Turing est assuré par Google Inc », peut-on lire sur cette page.

Charles H. Bennett et Gilles Brassard et leur protocole BB84

Deux Américains sont récompensés pour l’édition 2025 : Charles H. Bennett des États-Unis et Gilles Brassard du Canada, pour leurs travaux dans l’informatique quantique. Ils « sont largement reconnus comme les fondateurs de la science de l’information quantique, un domaine situé au carrefour de la physique et de l’informatique », explique l’ACM.

« Charles H. Bennett et Gilles Brassard ont fondamentalement changé notre compréhension de l’information elle-même. Leurs idées ont repoussé les limites de l’informatique et ont donné lieu à des décennies de découvertes dans toutes les disciplines. L’élan mondial qui anime aujourd’hui les technologies quantiques souligne l’importance durable de leurs contributions », lâche le président de l’ACM, Yannis Ioannidis.

En 1984, ils ont dévoilé « le premier protocole pratique pour la cryptographie quantique », connu sous le nom de protocole BB84 (pour l’échange de clé). Pour la petite histoire, c’est BB84 avec un B comme Bennett, un B comme Brassard et 84 comme 1984.

Wolf, Breakthrough et maintenant Turing : ils enchainent les récompenses

« Le message transmis est indéchiffrable pour les personnes extérieures et, en théorie, impossible à pirater. Leur approche surpasse donc les capacités des superordinateurs classiques et a inauguré une nouvelle ère: celle de l’informatique quantique », explique l’Université de Montréal.

En 2018 déjà, les deux chercheurs avaient obtenu le prix Wolf puis en 2023 le Breakthrough Prize, c’est désormais la plus haute distinction avec le « Nobel de l’informatique ». Bennett a rejoint IBM Research en 1973 et il y travaille toujours aujourd’hui.

De son côté, Brassard était alors à l’université de Montréal. Il a un doctorat en cryptographie, obtenu sous la supervision de John Hopcroft… lui-même lauréat du prix Turing en 1986. B&B se sont rencontrés en 1979 lors d’une conférence sur les fondations de l’informatique à Porto Rico.

Gilles Brassard « boycotte complètement les États-Unis »

Comme le rapporte Radio Canada International, Gilles Brassard est ravi : « c’est la reconnaissance par les pairs de presque un demi-siècle de travaux. Je ne pourrais pas être plus heureux ». Mais Brassard ne s’est pas rendu au siège new-yorkais de l’Association for Computing Machinery, ajoutent nos confrères :

« Je boycotte complètement les États-Unis, que ce soit pour les voyages ou pour acheter un paquet d’épinards. Si un ingrédient vient des États-Unis, je change de recette. Pas question d’aller dans un pays qui nous a littéralement déclaré la guerre. »

Gilles Brassard est aussi critique envers l’Amérique du Nord dans son ensemble, où la cryptographie quantique n’est pas suffisamment prise au sérieux : « C’est tristement surtout en Chine que c’est très utilisé. Ils ont pris ça très au sérieux et ont développé 10 000 km de fibre optique – un réseau complet de communication quantique – pour la cryptographie spécifiquement ».

☕️ Pénurie de mémoire et GPU : MSI vit son année « la plus difficile », des hausses à venir

19 mars 2026 à 08:52


Il y a quelques semaines, HP expliquait que la pénurie de puces pour la mémoire entraînait une augmentation d’environ 100 % des prix entre le premier et le deuxième trimestre. La mémoire (RAM et stockage) représente ainsi plus d’un tiers du prix d’un PC.

C’est désormais au tour de Huang Jinqing, directeur général de MSI, de sortir du bois sur ce sujet, comme le rapporte TomsHardware.com : « Cette année est la plus difficile depuis la fondation de l’entreprise ». Il ajoute que MSI prévoit d’augmenter les prix de ses produits pour joueurs de 15 à 30 % en 2026, ajoute-t-il lors d’une conférence avec les investisseurs.

Illustration : Flock

Toujours selon nos confrères, MSI aurait un déficit de 20 % sur les approvisionnements en GPU de chez NVIDIA et prévoit en conséquence que le marché des PC devrait se contracter de 10 à 20 % cette année. Chez MSI, cette situation se traduit par un changement dans les gammes de ses produits.

Selon nos confrères et les déclarations du dirigeant, la marque devrait davantage se tourner vers le milieu et haut de gamme pour les joueurs, que vers l’entrée de gamme. Pour simplifier, vendre moins, mais à un prix plus élevé pour limiter la casse sur les revenus.

Afin de limiter la casse sur le prix de la mémoire, le fabricant mise aussi sur la DDR4 à la place de la DDR5. Si les deux subissent de plein fouet les hausses causées par la pénurie, la première reste moins chère que la seconde. En témoigne par exemple le lancement récent de deux cartes mères AM4 en DDR4, compatibles avec les processeurs AMD jusqu’aux Ryzen 5000.

NIS 2 : l’ANSSI publie son ReCyf, la CSNP s’impatiente et le fait savoir

19 mars 2026 à 07:41
L’art du Récyf
NIS 2 : l’ANSSI publie son ReCyf, la CSNP s’impatiente et le fait savoir

NIS 2 devait être transposé avant le 17 octobre 2024, la France est donc largement en retard. Aux dernières nouvelles, le texte devrait passer à l’Assemblée nationale en juillet (2026). Trop tard pour le CSNP qui appelle à un examen « dans les plus brefs délais ». De son côté, l’ANSSI présente en attendant son REférentiel CYber France (ReCyF), « qui liste les mesures recommandées par l’ANSSI pour atteindre les objectifs de sécurité fixés par NIS 2 ».

Le projet de loi relatif à la résilience des infrastructures critiques et au renforcement de la cybersécurité doit transposer les directives NIS 2, REC et Dora. Il a été présenté le 15 octobre 2024 par le gouvernement, puis adopté le 12 mars 2025, mais n’a toujours pas été examiné par l’Assemblée
nationale.

La transposition a presque 18 mois de retard

Son parcours législatif n’est donc pas terminé, alors que la transposition de NIS 2 devait en théorie être faite par chaque État membre avant le 17 octobre 2024. Au 1ᵉʳ janvier 2026, 20 des 27 États membres l’avaient transposé. Dans un communiqué (pdf) publié sur les réseaux sociaux, la Commission supérieure du numérique et des postes (CSNP) « appelle à l’examen du projet de loi Résilience dans les plus brefs délais ».

Pour la Commission mixte (Assemblée nationale et Sénat), « ce retard fragilise notre écosystème numérique et place l’ensemble des acteurs concernés dans une situation d’incertitude injustifiable ». D’autant que « ce retard affaiblit fortement la position de la France au moment même où se redessine l’architecture européenne de la cybersécurité, notamment par les négociations sur la révision du Cybersecurity Act ».

« Un point de clivage politique : l’article 16 bis »

Le CSNP affirme que ce retard vient « d’un point de clivage politique : l’article 16 bis, introduit au Sénat afin de consacrer dans la loi la protection du chiffrement et d’interdire l’imposition de dispositifs de portes dérobées (« backdoors ») aux messageries instantanées, fait l’objet d’une opposition du gouvernement ».

Philippe Latombe était récemment monté au créneau sur le sujet : « Je le dis de façon claire et je ne vais pas me faire de copains en disant ça mais c’est pas grave, la DGSI et les services veulent la fin de l’article 16 bis […] la DGSI a un problème, elle veut savoir ce qui se passe dans les communications chiffrées des délinquants, elle veut mettre un tuyau sur le pipeline pour pouvoir regarder ce qui s’y passe ».

Examen du texte à l’Assemblée nationale prévue en juillet 2026…

La Commission indique que le programme législatif transmis par le gouvernement « prévoit désormais un examen du texte en juillet 2026, et ce sous réserve de la convocation d’une session extraordinaire. Un tel calendrier reporte de plusieurs mois encore l’adoption de ce texte, si toutefois il est examiné avant l’été 2026 ».

Trop tard pour la CSNP. Ses membres « appellent à l’inscription, dans les plus brefs délais, du projet de loi relatif à la résilience des infrastructures critiques et au renforcement de la cybersécurité à l’ordre du jour de l’Assemblée nationale, afin que la France se dote enfin des outils indispensables à la protection de son économie, de ses institutions et de ses citoyens ».

Le REférentiel CYber France (ReCyF) liste les mesures recommandées

Aux Assises de la cybersécurité de Monaco en octobre 2025, Vincent Strubel (patron de l’ANSSI) expliquait que ce vote est « une étape indispensable et essentielle, mais ce n’est qu’une étape et pas la plus difficile »… pas si sûr finalement avec les remous autour de l’article 16 bis. Le plus dur, ajoutait-il, c’est la mise en œuvre et pour cela « il ne faut pas attendre » car « on sait tout ce qu’il faut faire ».

Dans la foulée, l’Agence ouvrait un guichet de pré-enregistrement. C’est « la première brique de l’entrée en vigueur de NIS 2 et un premier pas pour les entités dans le respect de leurs obligations ». Cette semaine, l’ANSSI a mis à disposition son REférentiel CYber France (ReCyF), en version bêta, « qui liste les mesures recommandées par l’ANSSI pour atteindre les objectifs de sécurité fixés par NIS 2 ».

Sur LinkedIn, Vincent Strubel explique que ce document a été « co-construit avec de nombreuses organisations professionnelles, associations d’élus et acteurs de l’écosystème pour définir une réponse adaptée, d’une part à la réalité de la menace, et d’autre part à la taille et à la maturité des entités qui doivent s’en protéger ».

Le patron de l’ANSSI presse les entités concernées de s’y intéresser : « il restera un document de travail jusqu’à la transposition de NIS2 en droit français, mais il ne faut surtout pas attendre pour le mettre en œuvre ».

Le mot de la fin par Vincent Strubel : pourquoi RéCyF ? « Parce que le récif (corallien), c’est à la fois quelque chose de vivant et le socle qui protège de l’érosion et autour duquel se construisent certains des écosystèmes les plus florissants du monde naturel. Bon, en vrai, on a fait comme tout le monde, on a trouvé un acronyme et ensuite on a rétrofitté une belle histoire par-dessus, mais je trouve que pour le coup ça marche bien ».

Reçu — 18 mars 2026 Next - Articles gratuits

Drone Guardian : Orange Business propose de la lutte anti-drones « as a Service »

18 mars 2026 à 09:30
Orange is the new DaaS
Drone Guardian : Orange Business propose de la lutte anti-drones « as a Service »

Alors que les drones sont massivement utilisés dans la guerre en Ukraine, les incursions de drones sont aussi de plus en plus nombreuses en Europe, y compris en France sur des bases militaires sensibles. Orange propose sa solution maison de détection – Drone Guardian – aussi bien pour les institutions que les entreprises privées, en France comme en Europe.

Hier, Orange a donné le coup d’envoi de son Business Summit 2026, une édition « tournée sur l’univers des possibles, notamment l’Intelligence Artificielle agentique », objet de plusieurs annonces. Mais l’opérateur surprend sur un tout autre registre : la défense avec Drone Guardian, la « première offre de lutte anti-drones « as a Service » en Europe ».

« Détecter, identifier et classer » les intrusions de drones

Ce projet est lancé par la direction Défense et Sécurité d’Orange Business, lancée il y a moins d’un an. Pour Orange, c’est une réponse au fait que « le nombre de drones civils ne cesse de croître et que leurs usages malveillants se multiplient ».

Drone Guardian a pour but de « détecter, identifier et classer les drones intrusifs dans l’espace aérien basse altitude, partout en France, avec une capacité d’extension en Europe ». Orange s’adresse aux opérateurs d’importance vitale (aka OIV, dont Orange fait partie, même si la liste précise est confidentielle), aux opérateurs de services essentiels (OSE), aux organisateurs de grands événements et aux institutions publiques.

19 700 sites à disposition pour installer des capteurs

Pour la détection, Orange utilise son réseau de 19 700 sites de sa TowerCo TOTEM (détenue à 100 % par Orange) lancé en 2021.

Les points hauts (les tours passives sur lesquelles sont installées les antennes) sont transformés en « supports stratégiques pour les capteurs de détection ». « Cette capillarité territoriale permet d’étendre la portée de la surveillance et d’améliorer la qualité de la détection, sans que chaque client ait à déployer et à maintenir ses propres infrastructures », explique Orange. L’entreprise rentabilise ainsi un peu plus ses investissements dans les antennes.

Ces capteurs seront combinés à un logiciel de Command & Control (C2) pour former la technologie de détection, « qui permet de repérer, identifier et classifier les drones, y compris dans des environnements urbains et perturbés ». Orange s’appuie aussi sur son réseau national et sa plateforme cloud souveraine certifiée SecNumCloud 3.2.

Bien évidemment, Orange ajoute une couche d’intelligence artificielle et de jumeaux numériques pour « enrichir la modélisation et l’analyse des données issues des capteurs ». Drone Guardian est proposé sous la forme d’un abonnement afin d’avoir « une information de détection en temps réel ». Les tarifs ne sont pas précisés.

À l’AFP, Nassima Auvray, directrice Défense & Sécurité d’Orange Business, affirme que « beaucoup d’acteurs sont intéressés, notamment des grands industriels, des acteurs du secteur public et d’autres qui constatent des survols de drones aux abords de leurs installations ». Elle ajoute que d’autres pays, notamment en Europe de l’Est, « ont exprimé beaucoup d’intérêt ». La proximité avec la Russie et la guerre en Ukraine n’y sont pas étrangers.

Orange utilise aussi la 5G, en complément de ses capteurs

Selon nos confrères, Orange aurait pour le moment équipé trois sites TOTEM avec des capteurs, chacun ayant une capacité de détection entre 6 et 20 km. Mais l’opérateur parle de « détection multi-capteurs », en utilisant les réseaux de téléphonie mobile. Plus précisément, Orange exploite les capacités de « radio sensing », qui permet en quelque sorte d’utiliser la 5G comme un « radar » déployé sur une large partie du territoire.

Dans un article sur l’ISAC (Integrated Sensing and Communication en VO, Intégration de la détection et de la communication en VF), l’enseignant-chercheur Frédéric Launay de l’université de Poitiers explique que cette technologie permet de « percevoir et d’analyser l’environnement à l’aide des signaux radio utilisés pour la communication. Ce concept est apparu dans la R.16 et des faisabilités sont présentées pour la 5G-Advanced ». La fonction ISAC « devrait être déployée dans le cadre de la 6G », ajoute-t-il, mais des opérateurs et équipementiers ont décidés de ne pas attendre.

Ericsson aussi détecte des drones avec la 5G

Fin février, Ericsson affirmait en effet avoir utilisé l’ISAC pour « la détection et la localisation spatiale des objets passifs via les réseaux mobiles, prouvant la capacité de la technologie 5G à détecter son environnement ». Le discours n’est pas sans rappeler celui d’Orange avec l’ISAC en complément « de capteurs locaux pour la sécurité des UAV [unmanned aerial vehicle ou drone, ndlr] et espace aérien ». Un autre usage mis en avant concerne des systèmes autonomes pour… « la livraison par drones dans des contextes commerciaux ».

Selon Frédéric Launay, l’ISAC permettrait de faire bien plus avec « des capacités avancées pour la détection de personnes, d’objets ou de véhicules dans un environnement. Cela pourrait être utilisé dans des applications de surveillance, telles que la détection de comportements suspects, l’analyse de foules, ou encore la gestion du trafic ».

Le sujet arrive chez les opérateurs et les entreprises privées, mais il est loin d’être nouveau dans le monde militaire. Si on remonte en 2024, l’Armée de l’Air et de l’Espace (AAE) était responsable de la lutte anti-drones (LAD) pendant les JOP de Paris, et elle avait mis en place « des systèmes de détection et de brouillage », sans plus de détails techniques. Les dispositifs de lutte anti-drones avaient déjà été utilisés sur plusieurs événements d’ampleur comme le sommet de l’Union européenne, les défilés du 14 Juillet, la visite du pape François et la Coupe du monde de rugby de 2023.

Des survols de drones partout en Europe, y compris en France

Depuis plusieurs mois maintenant, les incursions de drones dans l’espace aérien de différents pays européens se multiplient. Pendant l’été 2025, pléthore de pays avaient signalé des survols : France, Lettonie, Lituanie, Danemark, Norvège, Roumanie, Pologne, Estonie et Allemagne.

En décembre 2025, une enquête était ouverte en France suite au survol par des drones de la base sous-marine de l’île Longue. Haut lieu stratégique puisque c’est la « maison » des sous-marins nucléaires lanceurs d’engins (SNLE) de la force de dissuasion nucléaire française. C’était depuis l’île Longue que début mars Emmanuel Macron avait annoncé l’augmentation du nombre de têtes nucléaires et le nom du prochain SNLE : L’Invincible.

Orange, comme bien d’autres (nous aurons l’occasion d’y revenir dans une actualité dédiée), continue d’avancer sur le terrain de la confiance en l’IA avec Live Intelligence : « les clients peuvent développer, déployer et gérer en toute sécurité ces agents au sein d’une infrastructure de confiance, en bénéficiant de capacités avancées de gouvernance et d’observabilité pour automatiser des tâches et analyser leurs données ».

☕️ Mozilla ajoute un VPN à Firefox 149, avec 50 Go de data par mois

18 mars 2026 à 07:18


Il y a trois semaines, Mozilla mettait en ligne la première bêta de Firefox 149, avec la Split View pour les onglets. La fondation annonce aujourd’hui d’autres nouveautés, dont un VPN intégré gratuit.

Mozilla en profite pour tacler ses petits camarades : « Les VPN gratuits peuvent parfois venir avec des arrangements douteux qui finissent par compromettre votre vie privée ». Mozilla rappelle ses engagements en la matière.

« Les utilisateurs disposeront de 50 Go par mois aux États-Unis, en France, en Allemagne et au Royaume-Uni pour commencer ». Mozilla propose aussi un service de VPN payant à part, à partir de 59,88 euros par an. Pour rappel, nous avons récemment publié un tuto sur comment utiliser un VPS comme serveur VPN maison.

La version finale de Firefox 149 est attendue pour le 24 mars. Dans les versions Nightly de Firefox à venir en avril, la section Paramètres sera « améliorée avec une navigation claire et une recherche, ce qui rend la personnalisation de Firefox plus simple ».

Signalons aussi l’ouverture d’une liste d’attente pour Smart Windows (ex « Fenêtre IA ») qui avait valu à Mozilla une volée de bois vert en novembre dernier, lors de l’annonce. Mozilla avait du coup ajouté un kill switch IA dans Firefox 148.

Reçu — 17 mars 2026 Next - Articles gratuits

GeForce RTX : avec DLSS 5 et son rendu photoréaliste, l’IA de NVIDIA va-t-elle trop loin ?

17 mars 2026 à 14:31
(Re)jet avec Force
GeForce RTX : avec DLSS 5 et son rendu photoréaliste, l’IA de NVIDIA va-t-elle trop loin ?

Sur la partie matériel, les annonces de NVIDIA se concentrent exclusivement sur les datacenters et l’IA, avec Vera Rubin en ligne de mire. Pour le grand public et les amateurs de jeux vidéo, pas de nouvelles GeForce RTX, mais des « améliorations » logicielles. Des nouveautés pour DLSS 4.5 arrivent, tandis que DLSS 5 est annoncé… et reçoit un accueil plus que mitigé, accusé par certains d’AI Slop.

En janvier, lors du CES de Las Vegas, NVIDIA présentait la version 4.5 de son DLSS, le Deep Learning Super Sampling, avec la fonction Super Resolution dotée d’un « modèle transformer de deuxième génération », fonctionnant sur toutes les GeForce RTX à partir de la série 20.

DLSS 4.5 avec Dynamic Multi Frame Generation et mode 6x le 31 mars

« Il utilise cinq fois la puissance de calcul du modèle transformer original et a été entraîné sur un ensemble de données haute fidélité considérablement élargi », affirme l’entreprise. Autre annonce à l’époque, l’arrivée au printemps du Dynamic Multi Frame Generation. On connait désormais la date précise : le 31 mars, « dans le cadre de la prochaine bêta opt-in de l’application NVIDIA ».

Cette fonction, explique NVIDIA, ajoute un nouveau mode 6x (cinq images générées par IA pour une image réellement calculée par le GPU) au Multi Frame Generation (MFG) ainsi que le « Dynamic Multi Frame Generation, permettant aux jeux et à l’application NVIDIA d’ajuster le multiplicateur de frames en temps réel pour atteindre la fréquence d’images cible du joueur ou correspondre au taux de rafraîchissement de son écran ».

Ni trop de frames générées par IA (elles seraient inutiles), ni trop peu grâce à un nouveau coefficient 6x. Vous avez un écran à 240 Hz ? DLSS 4.5 avec le mode 6x permet de monter à 240 fps avec seulement 40 fps en sortie de carte graphique.

Actuellement, le mode dynamique ne fonctionne qu’avec un coefficient multiplicateur entier (de x2 à x6), il n’y a pas de multiplicateur avec un nombre à virgule afin de s’approcher au mieux de la fréquence cible de l’écran. Le Dynamic Multi Frame Generation et le mode 6x sont réservés aux GeForce RTX de la série 50.

D’autres annonces avaient été faites lors de la GDC il y a quelques jours, notamment que, « à partir du 19 mars, GeForce Now supportera jusqu’à 90 FPS sur les casques de réalité virtuelle, dont l’Apple Vision Pro et le Meta Quest, contre 60 FPS auparavant ».

DLSS 5 veut « transformer la fidélité visuelle dans les jeux »

En cette période de GTC orientée IA, NVIDIA annonce la suite avec le DLSS 5, mais il faudra être patient puisque l’arrivée n’est prévue qu’à l’automne 2026. NVIDIA n’y va pas avec le dos de la cuillère : « DLSS évolue au-delà de la performance pour transformer la fidélité visuelle dans les jeux ».

Si les modèles d’IA sont capables depuis un moment maintenant de réaliser des images (et donc des vidéos) photoréalistes, ils ont plusieurs problèmes si on veut les utiliser dans des jeux. Ils sont notamment « difficiles à contrôler avec précision et manquent souvent de prévisibilité ». De plus, chaque nouveau prompt change la donne.

« Pour les jeux, les pixels doivent être déterministes, livrés en temps réel et solidement ancrés dans l’univers 3D et l’intention artistique du développeur du jeu ». C’est là qu’entre en piste DLSS 5, affirme NVIDIA, qui « utilise un modèle d’IA pour infuser la scène d’un éclairage photoréaliste et de matériaux ancrés pour fournir du contenu en 3D, et cohérent d’une image à l’autre ». DLSS 5 prendra en charge les résolutions jusqu’à la 4K maximum.

NVIDIA insiste sur son modèle d’IA qui a été entraîné « pour comprendre la sémantique complexe de scènes », aussi bien les personnages, leurs cheveux et leur peau que les conditions d’éclairage ; et « le tout en examinant une seule image ».

Du côté des développeurs, DLSS 5 propose des contrôles pour ajuster l’intensité, l’étalonnage des couleurs, etc. « L’intégration est fluide, utilisant le même framework NVIDIA Streamline que les technologies existantes DLSS et NVIDIA Reflex », affirme NVIDIA. Une longue liste de partenaires est déjà citée : Bethesda, Capcom, NetEase, NCSOFT, Tencent, Ubisoft, Warner Bros. Games…

NVIDIA propose plusieurs vidéos de DLSS, avec (forcément) des résultats « bluffants » (ou inquiétants, cela dépend des points de vues comme nous allons le voir). Il faudra maintenant attendre les tests indépendants pour transformer (ou pas) l’essai. Des « avants / après » sur des images de jeu sont aussi disponibles par ici.

Tollé face au DLSS 5, l’IA va-t-elle trop loin ?

La présentation par NVIDIA a rapidement été émaillée de commentaires acerbes de certains, comme s’en font l’écho plusieurs de nos confrères, notamment Les Numériques. Sur les réseaux sociaux, les mèmes n’en finissent pas de pleuvoir. Quelques exemples sur Bluesky et sur X. Certains parlent même d’AI Slop pour les rendus de DLSS 5.

Voici quelques exemple avant/après, avec une modification assez profonde des visages pour comprendre de quoi on parle (ce sont des images officielles de NVIDIA) :

DLSS 5
DLSS 5

Face au tollé, NVIDIA est sortie du bois avec un commentaire (rappelant les annonces de son communiqué) sous la vidéo de présentation de DLSS 5 :

« Il est important de noter que, grâce à cette avancée technologique, les développeurs des jeux disposent d’un contrôle artistique complet et précis sur les effets DLSS 5, leur permettant ainsi de préserver l’esthétique unique de leur jeu.

Le kit de développement logiciel (SDK) inclut des fonctionnalités telles que le réglage de l’intensité, l’étalonnage des couleurs et le masquage des zones où l’effet ne doit pas être appliqué.

Il ne s’agit pas d’un filtre : DLSS 5 intègre les vecteurs de couleur et de mouvement de chaque image du jeu dans le modèle, ancrant ainsi le résultat dans le contenu 3D source ».

Bethesda (partenaire officiel de NVIDIA sur DLSS 5) aussi a pris la parole : « Nous apprécions votre enthousiasme et votre analyse du nouvel éclairage DLSS 5. Il s’agit d’un aperçu préliminaire, et nos équipes artistiques continueront d’ajuster l’éclairage et l’effet final afin d’obtenir le rendu optimal pour chaque jeu. Ces modifications resteront entièrement sous le contrôle de nos artistes et les joueurs pourront les activer ou les désactiver ».

SSD PCIe 6.0, HBM4 et SOCAMM2 : Micron fait « all-in » sur NVIDIA et l’IA

17 mars 2026 à 12:05
Y’a autre chose que l’IA dans la vie ?
SSD PCIe 6.0, HBM4 et SOCAMM2 : Micron fait « all-in » sur NVIDIA et l’IA

HBM4 pour NVIDIA, SOCAMM2 aussi pour NVIDIA, SSD PCIe 6.0 pour les datacenters pour l’IA : vous voyez un schéma se dessiner dans les annonces de Micron ? Le fabricant fait en effet un « all-in » sur l’IA générative et ses besoins quasi exponentiels en GPU, mémoire et stockage.

Micron, qui souffle le chaud et le froid sur les produits grand public face à la déferlante de l’IA générative, multiplie les annonces à l’occasion de la GTC 2026 (GPU Technology Conference) de NVIDIA.

Elles concernent toutes des produits pour les datacenters, et plus particulièrement les futurs GPU Rubin de NVIDIA… ce qui ne devrait pas aider à sortir de la pénurie pour le grand public et l’explosion des prix que cela entraine. Bien d’autres annonces ont été faites, nous aurons l’occasion d’y revenir.

HBM4 36 Go en production de masse, HBM4 48 Go et HBM4E arrivent

La première concerne la HBM4 (finalisée il y a un an par le JEDEC), la mémoire pour la nouvelle génération de puces Vera Rubin de NVIDIA : les livraisons en volume de modules de 36 Go (12H, soit 12 couches) ont débuté durant ce premier trimestre. Il faut dire que NVIDIA avance à grands pas puisque les « produits basés sur Rubin [le nouveau GPU de NVIDIA, ndlr] seront disponibles auprès de partenaires au second semestre 2026 ».

Micron annonce des débits de 11 Gb/s par broche pour sa HBM4, soit une bande passante totale de plus de 2,8 To/s, « ce qui représente une bande passante 2,3x supérieure et une efficacité énergétique en hausse de 20 % par rapport à la HBM3E ». Dans le même temps, les premiers échantillons de modules de 48 Go (16 couches) sont livrés aux clients pour des tests et des qualifications.

Samsung n’est pas en reste et annonce sa 7e génération de mémoire HBM, avec la présentation pour la première fois d’une puce physique de HBM4E à la GTC, comme le rapporte l’agence de presse Yonhap. Micron aussi a déjà annoncé son intention de se lancer dans la HBM4E, pour 2027 aux dernières nouvelles, avec des modules de 64 Go.

SOCAMM2 chez Micron et SK hynix, là encore dans le sillage de NVIDIA

Toujours selon nos confrères, avec la HBM4E de Samsung, les débits sont en hausse pour atteindre 16 Gb/s par broche, une bande passante totale de 4 To/s. Chez SK hynix, on se contente du minimum, en expliquant simplement que des modules « conçus pour les plateformes d’IA NVIDIA » seront présentés à la GTC, notamment de la HBM4 et de la mémoire SOCAMM2, qui est aussi au cœur des annonces de Micron.

En effet, Micron se place aussi dans le sillage de NVIDIA pour ses modules mémoire SOCAMM2 (Small Outline Compression Attached Memory Module, des modules pour serveurs) qui sont « conçus pour les systèmes NVIDIA Vera Rubin NVL72 ». Par rapport aux modules classiques RDIMM (Registred DIMM), la « consommation d’énergie et l’encombrement sont réduits d’un tiers », affirme le fabricant.

Micron annonce des modules jusqu’à 256 Go (à partir de 48 Go pour les plus petits), soit une capacité totale de 2 To de mémoire et une bande passante de 1,2 To/s sur un processeur avec huit emplacements. Les premiers échantillons de 256 Go sont actuellement expédiés.

Micron 9650 : un SSD PCIe jusqu’à 28 Go/s

Enfin, le fabricant affirme être la « première entreprise à produire en série un SSD pour les datacenters en PCIe Gen 6 » : le Micron 9650. Il est présenté dans des formats E1.S et E3.S. Le fabricant revendique des débits en lecture séquentielle allant jusqu’à 28 Go/s et 14 Go/s en écriture, pour respectivement 5,5 millions et 900 000 IOPS en lecture et écriture aléatoire.

Micron affirme que la production de masse a débuté et que son SSD a été « qualifié par des clients clés en OEM et dans les centres de données IA ».

☕️ NVIDIA donne de nouveaux détails sur son CPU Vera, qui est en « pleine production »

17 mars 2026 à 10:26


Lors du CES de Las Vegas au début de l’année, NVIDIA présentait son nouveau GPU Rubin qui remplacera Blackwell et son CPU Vera qui prendra la place de Grace. Les grandes lignes de Vera étaient déjà connues, comme nous l’expliquions : 88 cœurs (176 threads) Olympus avec une architecture Armv9.2, 176 Mo de cache L2, 162 Mo de cache L3 unifié, jusqu’à 1,5 To de LPDDR5X avec une bande passante de 1,2 To/s maximum, etc.

Durant la GTC 2026, NVIDIA revient sur son nouveau CPU, qui est « en pleine production et sera disponible auprès des partenaires au cours du second semestre de cette année ». NVIDIA donne quelques détails techniques supplémentaires.

Pour commencer, NVIDIA place son CPU face aux processeurs « traditionnels », sans plus de précision sur les références auxquels l’entreprise se compare : « Vera offre des performances deux fois supérieures en termes d’efficacité, mais qu’il est aussi 50 % plus rapide que les processeurs traditionnels ». NVIDIA en profite pour donner une longue liste de partenaires, avec notamment Alibaba, ByteDance, Meta et Oracle.

Le fabricant ajoute que sa puce est « le premier CPU à prendre en charge la précision FP8 » et, c’est dans l’air du temps, qu’il s’agit du « premier processeur au monde conçu spécifiquement pour l’ère de l’IA agentique et de l’apprentissage par renforcement ».

NVIDIA passe à la seconde génération de la structure de cohérence évolutive (SCF). C’est une structure maillée de cache distribué « pour répondre de manière efficace aux défis posés par la mise à l’échelle des cœurs et de la bande passante en matière de consommation et d’espace », explique-t-elle.

Dans la première génération avec les CPU Grace, SCF propose jusqu’à « 3,2 To/s de bande passante de bisection au total, soit le double de celle des processeurs classiques, pour assurer la circulation des données entre les cœurs, la mémoire et les E/S du système ». La structure de cohérence évolutive « réduit les goulots d’étranglement dans les applications nécessitant des mouvements de données, telles que l’analyse de graphes, pour laquelle NVIDIA Grace offre jusqu’à deux fois plus de performances que les principaux serveurs x86 ». Avec la seconde génération de SCF dans le processeur Vera, NVIDIA annonce une hausse de la bande passante, jusqu’à 3,4 To/s.

NVIDIA profite de la GTC pour présenter une baie, équipée d’un refroidissement liquide, avec 256 processeurs Vera soit un total de 22 528 cœurs Olympus. Cette baie utilise la conception modulaire NVIDIA MGX, qui est compatible avec les CPU Grace, Vera ainsi que les x86. De plus amples détails sur MGX sont disponibles par ici, et par là pour le CPU Vera.

Comment concilier proxy (serveur web filtrant) et RGPD ?

17 mars 2026 à 08:14
Intérêt légitime n’empêche pas d’informer, au contraire !
Comment concilier proxy (serveur web filtrant) et RGPD ?

Un proxy permet à une entreprise de renforcer sa sécurité en filtrant le contenu venant d’Internet. Sa mise en place, qui peut avoir un intérêt légitime, soulève des questions au titre du RGPD. La CNIL publie sa recommandation sur les bonnes pratiques et informations à donner aux utilisateurs.

Depuis plusieurs mois, la CNIL consulte et travaille sur une recommandation pour le déploiement d’un serveur mandataire web filtrant (alias un proxy). Un projet a été soumis à consultation entre juillet et fin septembre 2025 ; la version finale est désormais en ligne, comme en atteste sa publication au Journal officiel.

Le but est d’« accompagner les utilisateurs et les fournisseurs de serveurs mandataires web filtrants ». La Commission ajoute néanmoins que cette recommandation « n’a pas de caractère contraignant et ne préjuge pas des obligations légales applicables aux responsables de traitement ».

C’est quoi un serveur mandataire web filtrant (proxy)

La recommandation de huit pages (pdf) commence par rappeler la définition d’un mandataire web filtrant, aussi appelé proxy. Il s’agit d’« un dispositif ou un service relais entre l’équipement client (poste de travail) et le serveur web (sur Internet). Son rôle principal est de bloquer ou restreindre l’accès à certains sites web ou catégories de contenus ». Bien évidemment, les autorisations diffèrent suivant les employés.

Ce genre de service peut être une réponse à l’obligation de sécurisation des données (article 32 du RGPD), mais repose aussi « sur des traitements de données dont la conformité au RGPD doit aussi être assurée ». C’est sur ce point que la CNIL revient en détail.

Intérêt légitime, proportionnalité, minimisation…

Sur les finalités de traitement, certaines mesures sont considérées comme légitimes : « le respect des exigences réglementaires en matière de cybersécurité (notamment l’article 32 du RGPD) ; la protection des systèmes d’information contre les cybermenaces ; la prévention des accès à des sites web illégaux, non conformes à la politique de l’organisme ou à des sites malveillants ». La CNIL prend bien soin de préciser que cela « ne doit pas conduire à une surveillance excessive de l’activité des salariés ».

Sur la base légale du traitement, l’intérêt légitime peut être invoqué, explique la CNIL. Il s’agit pour rappel de l’une « des 6 bases légales prévues par le RGPD autorisant la mise en œuvre de traitements de données à caractère personnels ». Attention, « Il appartiendra alors notamment au responsable de traitement de mettre en balance ses intérêts propres et ceux des personnes concernées ».

Le responsable doit aussi s’assurer de la proportionnalité du traitement. La durée de conservation aussi doit être étudiée ; « une durée supérieure aux préconisations de la CNIL (6 mois à 1 an) doit être justifiée et documentée ».

La minimisation des données est aussi dans la recommandation. Le but est de restreindre l’utilisation des données à caractère personnel à celles strictement nécessaires au regard de chaque finalité, c’est-à-dire les fonctionnalités de filtrage et de journalisation.

Dessin d'un homme invisible, lunettes noires, avec une tapette RGPD
Illustration : Flock

Une analyse d’impact ? C’est une « bonne pratique »

La CNIL donne quelques exemples de données qui peuvent en principe être collectées et traitées : « l’identité de l’utilisateur (gestion des accès web des utilisateurs ou authentification sur le proxy web filtrant) ; l’adresse IP du poste de l’utilisateur ; tout ou partie de l’URL consultée ; l’horodatage de l’accès ; la catégorie de site visité ; l’action (autorisé, bloqué, forcé et/ou ajout demandé – si ces dernières possibilités sont offertes aux utilisateurs) ».

Faut-il une analyse d’impact relative à la protection des données (AIPD), se demande la CNIL ? Ça dépend « de plusieurs facteurs liés aux fonctionnalités retenues et à leurs usages », indique-t-elle prudemment. Si deux des critères suivants sont remplis, alors l’AIPD devrait être réalisée : « collecte de données sensibles ou données à caractère hautement personnel ; collecte de données personnelles à large échelle ; personnes vulnérables ; surveillance systématique ». La Commission estime que, dans tous les cas, une AIPD « devrait être une bonne pratique ».

Attention au déchiffrement HTTPS

La CNIL prend les devants sur le HTTPS en rappelant que « l’URL complète, accessible lors d’un déchiffrement HTTPS, est susceptible de donner accès à des données à caractère personnel ». Il faut donc prendre des précautions. La Commission consacre un encadré au déchiffrement HTTPS : « lorsqu’un déchiffrement est nécessaire, celui-ci ne devrait être réalisé que sur les domaines non listés dans les listes d’exceptions et les données échangées dans les requêtes HTTPS ne devraient pas être conservées (à moins qu’une charge malveillante soit détectée) ».

Enfin, la Commission rappelle que toutes les personnes concernées par le traitement de leurs données, aussi bien employés que visiteurs, doivent être informées, par exemple via le règlement intérieur sous forme d’une charte informatique.

« L’information [doit] être individuelle », rappelle aussi la gardienne des libertés. Enfin, une partie concerne la gestion des logs et les informations qui y sont remontées. Par exemple, elle recommande que « seuls les noms de domaine des sites web bloqués et non catégorisés soient remontés à l’éditeur en vue de leur analyse, sans rattachement à la personne concernée par la tentative d’accès au site ».

Reçu — 16 mars 2026 Next - Articles gratuits

☕️ [MàJ] Les boîtes emails MX Plan d’OVHcloud sont de retour

17 mars 2026 à 07:00


Mise à jour du 17 mars à 8h00. OVHcloud a mis à jour son ticket de support cette nuit pour indiquer que l’incident « a été résolu ». La cause profonde a été causée par « un problème logiciel », sans plus de détails.

Mise à jour du 16 mars à 18h25. OVHcloud précise que cette panne fait suite à la procédure de migration en cours des boîtes Outlook Web Access vers Zimbra (de décembre 2025 à mai 2026). L’hébergeur assure que « les emails envoyés ou reçus seront stockés et livrés une fois l’opération terminée ». OVHcloud précise que cela ne concerne que les MX Plan.

Brief original du 16 mars à 17h21. Via un message publié sur sa page de statut, OVHcloud explique à ses clients qu’il rencontre actuellement un incident : « L’accès aux boîtes aux lettres et au webmail est indisponible ». « Nous avons déterminé l’origine du problème affectant notre offre de solutions collaboratives », ajoute l’hébergeur, mais sans donner plus de précisions.

« Les clients ne peuvent actuellement pas accéder à leurs boîtes aux lettres, ce qui signifie qu’ils ne peuvent ni lire, ni envoyer ni gérer leurs e-mails », détaille l’entreprise roubaisienne. Cela concerne aussi bien les clients Plan MX.

Via le chat, nous demandons au service client si les emails reçus pendant cette période seront quand même dans la boite de réception après l’incident. Réponse de l’agent (humain) : « Je ne peux pas répondre pour le moment car nous n’avons pas l’information ». OVHcloud ne donne aucune prévision quant au délai de retour à la normale.

☕️ Adobe et ses « procédures alambiquées » : un accord avec le DOJ à 150 millions de dollars

16 mars 2026 à 08:32


En 2024, le Département de la Justice des États-Unis (DOJ) attaquait Adobe en justice sur ses pratiques en matière de résiliation d’abonnements (dont la suite Creative Cloud). Aujourd’hui, Adobe transige : « Bien que nous contestions les affirmations du gouvernement et niions toute malversation, nous sommes heureux de régler cette affaire ».

L’éditeur annonce deux choses. Tout d’abord, « fournir gratuitement des services d’une valeur de 75 millions de dollars aux clients admissibles ». Une fois l’accord entériné par le tribunal (ce n’est pas encore fait), Adobe contactera de manière proactive les clients concernés. De plus, Adobe a « accepté de verser 75 millions de dollars au ministère de la Justice ».

Dans sa plainte, le DOJ n’était pas tendre avec les pratiques d’Adobe : « Lors de l’inscription, Adobe dissimule des conditions importantes de son plan APM [Annual, Paid Monthly, ndlr] en petits caractères, derrière des encadrés et des liens hypertextes optionnels, fournissant des informations conçues pour passer inaperçues et que la plupart des consommateurs ne consultent jamais ».

De plus, « Adobe dissuade ensuite les résiliations en employant une procédure de résiliation lourde et complexe ». Vous en voulez encore ? « Dans le cadre de cette procédure alambiquée, Adobe tend un guet-apens à ses abonnés avec des frais de résiliation anticipée (ETF), auparavant masqués, lorsqu’ils tentent de résilier ». Pour le Département de la Justice, « Adobe a enfreint les lois fédérales destinées à protéger les consommateurs ».

Adobe n’est évidemment pas du même avis et affirme être « transparent sur les termes et les conditions des contrats d’abonnement et disposer d’un processus d’annulation simple ». L’entreprise ajoute néanmoins « Ces dernières années, nous avons rendu nos processus d’inscription et d’annulation encore plus fluides et transparents ».

Adobe creative Cloud

Dans un communiqué, le DoJ en rajoute une couche : « Adobe avait contrecarré les tentatives d’annulation des abonnés, les soumettant à des processus d’annulation complexes et inefficaces, remplis d’étapes inutiles, de retards, d’offres non sollicitées et d’avertissements ». Il ajoute que « Adobe devra clairement préciser tout frais de résiliation anticipée et la manière dont le paiement est effectué avant la souscription des clients aux abonnements ».

Cette annonce arrive quelques heures seulement après celle du départ de Shantanu Narayen, qui est CEO d’Adobe depuis 18 ans. Le communiqué est très poli en remerciant chaleureusement le futur ex-patron, mais selon Bloomberg, il démissionnerait suite à des « préoccupations des investisseurs concernant l’IA ».

☕️ DirectStorage 1.4 avec compression zstd et Game Asset Conditioning Library

16 mars 2026 à 07:27


DirectStorage est une fonctionnalité permettant aux GPU de discuter directement avec les périphériques de stockage de l’ordinateur, en évitant donc un passage par le processeur central. L’API vient de passer en version 1.4, avec comme principale nouveauté la prise en charge du codec zstd (ou ZStandard).

Cet algorithme est largement répandu ; nous avions d’ailleurs passé au crible ses performances en les comparant avec celles de plus d’une dizaine d’autres codecs. Microsoft a mis en ligne du code sur GitHub pour son utilisation avec les GPU.

Pour Microsoft, zstd a plusieurs avantages dans ce cas d’usage : il « se distingue par ses taux de compression et ses performances de décompression, sa large disponibilité sur le matériel et les logiciels à travers les systèmes d’exploitation, et son adoption généralisée dans les systèmes d’exploitation, le cloud et le web ».

GeForce RTX 40 Super

L’entreprise annonce dans le même temps sa Game Asset Conditioning Library (GACL), elle aussi sur GitHub. Elle propose « plusieurs composants pour améliorer la compression des assets du jeu ». Les textures sont la priorité de cette bêta car elles représentent la plus grosse taille des packages dans la plupart des jeux, explique Microsoft.

GACL « prépare » le contenu qui va être envoyé à zstd pour que les algorithmes de compression soient les plus efficaces possible. La Game Asset Conditioning Library « est conçue pour fonctionner avec le contenu existant, offrant jusqu’à 50 % d’amélioration des taux de compression Zstd pour vos assets, tout en maintenant un coût de décompression à l’exécution bas lorsqu’il est utilisé avec DirectStorage », affirme l’éditeur. Tous les détails se trouvent par ici.

Reçu — 13 mars 2026 Next - Articles gratuits

☕️ CEO depuis 18 ans d’Adobe, Shantanu Narayen va démissionner… à cause de l’IA ?

13 mars 2026 à 10:00


Dans un communiqué, Adobe explique que Shantanu Narayen démissionnera de son poste de CEO une fois que son successeur sera trouvé. Il restera par contre président du conseil d’administration pour assurer la transition. C’est Frank Calderoni, administrateur indépendant d’Adobe, qui dirige un comité spécial en charge d’examiner les candidatures, aussi bien internes qu’externes.

Il en profite pour jeter des fleurs au futur ex-CEO, qu’il présente comme « architecte de la transformation d’Adobe au cours des 18 dernières années, et pour avoir positionné avec succès Adobe dans une ère pilotée par l’IA ». Shantanu Narayen a publié un mémo pour ses équipes. Il évoque lui aussi l’intelligence artificielle : « La prochaine ère de la créativité est en train de s’écrire – façonnée par l’IA, par de nouveaux flux de travail et par des formes d’expression entièrement nouvelles. Adobe n’a jamais attendu l’arrivée du futur. Nous l’avions anticipé. Nous l’avons construit ».

Bloomberg n’est pas vraiment du même avis : « Le CEO d’Adobe va démissionner face aux préoccupations des investisseurs concernant l’IA », titrent nos confrères. Adobe « fait partie d’un groupe d’entreprises de logiciels applicatifs, dont Salesforce Inc et Atlassian Corp, perçues comme ayant du mal à conquérir de nouveaux clients face aux nouveaux arrivants de l’IA », affirment-ils.

Toujours selon Bloomberg, les investisseurs étaient de plus en plus nombreux à remettre en question les choix et l’orientation de Shantanu Narayen pour Adobe. « L’IA générative a facilité la création de médias visuels sans les produits coûteux d’Adobe. Beaucoup des nouveaux outils créatifs d’IA les plus populaires, comme les modèles d’IA Veo 3 de Google, sont développés par des concurrents ». L’IA est pourtant au cœur des annonces des conférences MAX depuis quelque temps maintenant, mais ce n’est a priori pas suffisant.

En bourse, le cours de l’action d’Adobe est en baisse depuis maintenant près de deux ans. Après une année 2021 au plus haut, la chute a été brutale en 2022, avant une remontée en 2023 et 2024. Actuellement, l’action est à 270 dollars, en dessous des 275 dollars de septembre 2022 quand Adobe était dans le creux de la vague.

❌