Pour réduire la taille de son modèle GPT-5.4 et lancer des versions mini et nano, OpenAI utilise la distillation. Chez Mistral, l’approche n’est pas la même : le français passe par une « mixture » d’experts. Deux approches pour un même but : des modèles plus rapides et moins coûteux.
Cette semaine, Mistral a annoncé son nouveau modèle Small 4. C’est, selon l’entreprise française, son « premier modèle à unifier les fonctionnalités de nos modèles phares : Magistral pour le raisonnement, Pixtral pour le multimodal et Devstral pour le code, en un seul modèle polyvalent ». Il est proposé en open source sous licence Apache 2.0, et l’entreprise en profite pour rejoindre la NVIDIA Nemotron Coalition.
Mistral Small 4 : 4 « experts » pour chaque token, sur 128 disponibles
Au niveau de l’architecture, Small 4 utilise une Mixture of Experts (MoE). Cette technique existe depuis longtemps et se base sur l’idée de « diviser pour régner ». Dans cette approche, « le modèle est composé de multiples modèles individuels appelés « experts », chacun se spécialisant dans un aspect des données. Le modèle inclut également une fonction de « gating » qui détermine quel expert ou combinaison d’experts consulter pour une entrée donnée », explique Orange.
Le modèle de base Small intègre 128 « experts », mais seulement 4 sont interrogés pour chaque token. Le modèle dispose au total de 119 milliards de paramètres, mais « seulement » 6 milliards sont actifs (8 milliards avec les couches d’intégration et de sortie) pour chaque token lors de l’inférence.
Il reste 81% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Les agents IA sont capables du meilleur… comme du pire (dans le pire, sont-ils les meilleurs ?). De nombreux utilisateurs se lancent dans l’aventure sans toujours en mesurer les enjeux ni les dangers (réels). OpenClaw est à la fois catalyseur d’annonces de machines pour que tout le monde puisse en profiter, et de « prisons » sécurisées pour empêcher les agents IA de faire n’importe quoi. Nous terminons par une prise en main rapide de NemoClaw.
Lors de la GTC, NVIDIA a annoncé NemoClaw, en version alpha pour l’instant, un projet open source pour encadrer les agents IA et notamment OpenClaw. En pratique, c’est un environnement présenté comme sécurisé avec « des garde-fous en matière de confidentialité et de sécurité, donnant aux utilisateurs le contrôle sur le comportement de leurs agents et la gestion de leurs données ».
NemoClaw : sécuriser OpenClaw pour l’empêcher de faire n’importe quoi
OpenClaw (ex-Clawdbot et ex-Moltbot) est un projet open source développé par Peter Steinberger, qui est désormais chez OpenAI. Il s’agit, pour rappel, d’un agent IA auquel vous pouvez donner accès à toutes ou parties de vos données pour qu’il se transforme en assistant virtuel de votre quotidien.
Il reste 94% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Alors que les drones sont massivement utilisés dans la guerre en Ukraine, les incursions de drones sont aussi de plus en plus nombreuses en Europe, y compris en France sur des bases militaires sensibles. Orange propose sa solution maison de détection – Drone Guardian – aussi bien pour les institutions que les entreprises privées, en France comme en Europe.
Hier, Orange a donné le coup d’envoi de son Business Summit 2026, une édition « tournée sur l’univers des possibles, notamment l’Intelligence Artificielle agentique », objet de plusieurs annonces. Mais l’opérateur surprend sur un tout autre registre : la défense avec Drone Guardian, la « première offre de lutte anti-drones « as a Service » en Europe ».
« Détecter, identifier et classer » les intrusions de drones
Ce projet est lancé par la direction Défense et Sécurité d’Orange Business, lancée il y a moins d’un an. Pour Orange, c’est une réponse au fait que « le nombre de drones civils ne cesse de croître et que leurs usages malveillants se multiplient ».
Drone Guardian a pour but de « détecter, identifier et classer les drones intrusifs dans l’espace aérien basse altitude, partout en France, avec une capacité d’extension en Europe ». Orange s’adresse aux opérateurs d’importance vitale (aka OIV, dont Orange fait partie, même si la liste précise est confidentielle), aux opérateurs de services essentiels (OSE), aux organisateurs de grands événements et aux institutions publiques.
19 700 sites à disposition pour installer des capteurs
Pour la détection, Orange utilise son réseau de 19 700 sites de sa TowerCo TOTEM (détenue à 100 % par Orange) lancé en 2021.
Les points hauts (les tours passives sur lesquelles sont installées les antennes) sont transformés en « supports stratégiques pour les capteurs de détection ». « Cette capillarité territoriale permet d’étendre la portée de la surveillance et d’améliorer la qualité de la détection, sans que chaque client ait à déployer et à maintenir ses propres infrastructures », explique Orange. L’entreprise rentabilise ainsi un peu plus ses investissements dans les antennes.
Ces capteurs seront combinés à un logiciel de Command & Control (C2) pour former la technologie de détection, « qui permet de repérer, identifier et classifier les drones, y compris dans des environnements urbains et perturbés ». Orange s’appuie aussi sur son réseau national et sa plateforme cloud souveraine certifiée SecNumCloud 3.2.
Bien évidemment, Orange ajoute une couche d’intelligence artificielle et de jumeaux numériques pour « enrichir la modélisation et l’analyse des données issues des capteurs ». Drone Guardian est proposé sous la forme d’un abonnement afin d’avoir « une information de détection en temps réel ». Les tarifs ne sont pas précisés.
À l’AFP, Nassima Auvray, directrice Défense & Sécurité d’Orange Business, affirme que « beaucoup d’acteurs sont intéressés, notamment des grands industriels, des acteurs du secteur public et d’autres qui constatent des survols de drones aux abords de leurs installations ». Elle ajoute que d’autres pays, notamment en Europe de l’Est, « ont exprimé beaucoup d’intérêt ». La proximité avec la Russie et la guerre en Ukraine n’y sont pas étrangers.
Orange utilise aussi la 5G, en complément de ses capteurs
Selon nos confrères, Orange aurait pour le moment équipé trois sites TOTEM avec des capteurs, chacun ayant une capacité de détection entre 6 et 20 km. Mais l’opérateur parle de « détection multi-capteurs », en utilisant les réseaux de téléphonie mobile. Plus précisément, Orange exploite les capacités de « radio sensing », qui permet en quelque sorte d’utiliser la 5G comme un « radar » déployé sur une large partie du territoire.
Dans un article sur l’ISAC (Integrated Sensing and Communication en VO, Intégration de la détection et de la communication en VF), l’enseignant-chercheur Frédéric Launay de l’université de Poitiers explique que cette technologie permet de « percevoir et d’analyser l’environnement à l’aide des signaux radio utilisés pour la communication. Ce concept est apparu dans la R.16 et des faisabilités sont présentées pour la 5G-Advanced ». La fonction ISAC « devrait être déployée dans le cadre de la 6G », ajoute-t-il, mais des opérateurs et équipementiers ont décidés de ne pas attendre.
Fin février, Ericsson affirmait en effet avoir utilisé l’ISAC pour « la détection et la localisation spatiale des objets passifs via les réseaux mobiles, prouvant la capacité de la technologie 5G à détecter son environnement ». Le discours n’est pas sans rappeler celui d’Orange avec l’ISAC en complément « de capteurs locaux pour la sécurité des UAV [unmanned aerial vehicle ou drone, ndlr] et espace aérien ». Un autre usage mis en avant concerne des systèmes autonomes pour… « la livraison par drones dans des contextes commerciaux ».
Selon Frédéric Launay, l’ISAC permettrait de faire bien plus avec « des capacités avancées pour la détection de personnes, d’objets ou de véhicules dans un environnement. Cela pourrait être utilisé dans des applications de surveillance, telles que la détection de comportements suspects, l’analyse de foules, ou encore la gestion du trafic ».
Le sujet arrive chez les opérateurs et les entreprises privées, mais il est loin d’être nouveau dans le monde militaire. Si on remonte en 2024, l’Armée de l’Air et de l’Espace (AAE) était responsable de la lutte anti-drones (LAD) pendant les JOP de Paris, et elle avait mis en place « des systèmes de détection et de brouillage », sans plus de détails techniques. Les dispositifs de lutte anti-drones avaient déjà été utilisés sur plusieurs événements d’ampleur comme le sommet de l’Union européenne, les défilés du 14 Juillet, la visite du pape François et la Coupe du monde de rugby de 2023.
Des survols de drones partout en Europe, y compris en France
Depuis plusieurs mois maintenant, les incursions de drones dans l’espace aérien de différents pays européens se multiplient. Pendant l’été 2025, pléthore de pays avaient signalé des survols : France, Lettonie, Lituanie, Danemark, Norvège, Roumanie, Pologne, Estonie et Allemagne.
En décembre 2025, une enquête était ouverte en France suite au survol par des drones de la base sous-marine de l’île Longue. Haut lieu stratégique puisque c’est la « maison » des sous-marins nucléaires lanceurs d’engins (SNLE) de la force de dissuasion nucléaire française. C’était depuis l’île Longue que début mars Emmanuel Macron avait annoncé l’augmentation du nombre de têtes nucléaires et le nom du prochain SNLE : L’Invincible.
Orange, comme bien d’autres (nous aurons l’occasion d’y revenir dans une actualité dédiée), continue d’avancer sur le terrain de la confiance en l’IA avec Live Intelligence : « les clients peuvent développer, déployer et gérer en toute sécuritéces agents au sein d’une infrastructure de confiance, en bénéficiant de capacités avancées de gouvernance et d’observabilité pour automatiser des tâches et analyser leurs données ».
Mozilla en profite pour tacler ses petits camarades : « Les VPN gratuits peuvent parfois venir avec des arrangements douteux qui finissent par compromettre votre vie privée ». Mozilla rappelle ses engagements en la matière.
La version finale de Firefox 149 est attendue pour le 24 mars. Dans les versions Nightly de Firefox à venir en avril, la section Paramètres sera « améliorée avec une navigation claire et une recherche, ce qui rend la personnalisation de Firefox plus simple ».
Sur la partie matériel, les annonces de NVIDIA se concentrent exclusivement sur les datacenters et l’IA, avec Vera Rubin en ligne de mire. Pour le grand public et les amateurs de jeux vidéo, pas de nouvelles GeForce RTX, mais des « améliorations » logicielles. Des nouveautés pour DLSS 4.5 arrivent, tandis que DLSS 5 est annoncé… et reçoit un accueil plus que mitigé, accusé par certains d’AI Slop.
En janvier, lors du CES de Las Vegas, NVIDIA présentait la version 4.5 de son DLSS, le Deep Learning Super Sampling, avec la fonction Super Resolution dotée d’un « modèle transformer de deuxième génération », fonctionnant sur toutes les GeForce RTX à partir de la série 20.
DLSS 4.5 avec Dynamic Multi Frame Generation et mode 6x le 31 mars
« Il utilise cinq fois la puissance de calcul du modèle transformer original et a été entraîné sur un ensemble de données haute fidélité considérablement élargi », affirme l’entreprise. Autre annonce à l’époque, l’arrivée au printemps du Dynamic Multi Frame Generation. On connait désormais la date précise : le 31 mars, « dans le cadre de la prochaine bêta opt-in de l’application NVIDIA ».
Cette fonction, explique NVIDIA, ajoute un nouveau mode 6x (cinq images générées par IA pour une image réellement calculée par le GPU) au Multi Frame Generation (MFG) ainsi que le « Dynamic Multi Frame Generation, permettant aux jeux et à l’application NVIDIA d’ajuster le multiplicateur de frames en temps réel pour atteindre la fréquence d’images cible du joueur ou correspondre au taux de rafraîchissement de son écran ».
Ni trop de frames générées par IA (elles seraient inutiles), ni trop peu grâce à un nouveau coefficient 6x. Vous avez un écran à 240 Hz ? DLSS 4.5 avec le mode 6x permet de monter à 240 fps avec seulement 40 fps en sortie de carte graphique.
Actuellement, le mode dynamique ne fonctionne qu’avec un coefficient multiplicateur entier (de x2 à x6), il n’y a pas de multiplicateur avec un nombre à virgule afin de s’approcher au mieux de la fréquence cible de l’écran. Le Dynamic Multi Frame Generation et le mode 6x sont réservés aux GeForce RTX de la série 50.
D’autres annonces avaient été faites lors de la GDC il y a quelques jours, notamment que, « à partir du 19 mars, GeForce Now supportera jusqu’à 90 FPS sur les casques de réalité virtuelle, dont l’Apple Vision Pro et le Meta Quest, contre 60 FPS auparavant ».
DLSS 5 veut « transformer la fidélité visuelle dans les jeux »
En cette période de GTC orientée IA, NVIDIA annonce la suite avec le DLSS 5, mais il faudra être patient puisque l’arrivée n’est prévue qu’à l’automne 2026. NVIDIA n’y va pas avec le dos de la cuillère : « DLSS évolue au-delà de la performance pour transformer la fidélité visuelle dans les jeux ».
Si les modèles d’IA sont capables depuis un moment maintenant de réaliser des images (et donc des vidéos) photoréalistes, ils ont plusieurs problèmes si on veut les utiliser dans des jeux. Ils sont notamment « difficiles à contrôler avec précision et manquent souvent de prévisibilité ». De plus, chaque nouveau prompt change la donne.
« Pour les jeux, les pixels doivent être déterministes, livrés en temps réel et solidement ancrés dans l’univers 3D et l’intention artistique du développeur du jeu ». C’est là qu’entre en piste DLSS 5, affirme NVIDIA, qui « utilise un modèle d’IA pour infuser la scène d’un éclairage photoréaliste et de matériaux ancrés pour fournir du contenu en 3D, et cohérent d’une image à l’autre ». DLSS 5 prendra en charge les résolutions jusqu’à la 4K maximum.
NVIDIA insiste sur son modèle d’IA qui a été entraîné « pour comprendre la sémantique complexe de scènes », aussi bien les personnages, leurs cheveux et leur peau que les conditions d’éclairage ; et « le tout en examinant une seule image ».
Du côté des développeurs, DLSS 5 propose des contrôles pour ajuster l’intensité, l’étalonnage des couleurs, etc. « L’intégration est fluide, utilisant le même framework NVIDIA Streamline que les technologies existantes DLSS et NVIDIA Reflex », affirme NVIDIA. Une longue liste de partenaires est déjà citée : Bethesda, Capcom, NetEase, NCSOFT, Tencent, Ubisoft, Warner Bros. Games…
NVIDIA propose plusieurs vidéos de DLSS, avec (forcément) des résultats « bluffants » (ou inquiétants, cela dépend des points de vues comme nous allons le voir). Il faudra maintenant attendre les tests indépendants pour transformer (ou pas) l’essai. Des « avants / après » sur des images de jeu sont aussi disponibles par ici.
Tollé face au DLSS 5, l’IA va-t-elle trop loin ?
La présentation par NVIDIA a rapidement été émaillée de commentaires acerbes de certains, comme s’en font l’écho plusieurs de nos confrères, notamment Les Numériques. Sur les réseaux sociaux, les mèmes n’en finissent pas de pleuvoir. Quelques exemples sur Bluesky et sur X. Certains parlent même d’AI Slop pour les rendus de DLSS 5.
Voici quelques exemple avant/après, avec une modification assez profonde des visages pour comprendre de quoi on parle (ce sont des images officielles de NVIDIA) :
Face au tollé, NVIDIA est sortie du bois avec un commentaire (rappelant les annonces de son communiqué) sous la vidéo de présentation de DLSS 5 :
« Il est important de noter que, grâce à cette avancée technologique, les développeurs des jeux disposent d’un contrôle artistique complet et précis sur les effets DLSS 5, leur permettant ainsi de préserver l’esthétique unique de leur jeu.
Le kit de développement logiciel (SDK) inclut des fonctionnalités telles que le réglage de l’intensité, l’étalonnage des couleurs et le masquage des zones où l’effet ne doit pas être appliqué.
Il ne s’agit pas d’un filtre : DLSS 5 intègre les vecteurs de couleur et de mouvement de chaque image du jeu dans le modèle, ancrant ainsi le résultat dans le contenu 3D source ».
Bethesda (partenaire officiel de NVIDIA sur DLSS 5) aussi a pris la parole : « Nous apprécions votre enthousiasme et votre analyse du nouvel éclairage DLSS 5. Il s’agit d’un aperçu préliminaire, et nos équipes artistiques continueront d’ajuster l’éclairage et l’effet final afin d’obtenir le rendu optimal pour chaque jeu. Ces modifications resteront entièrement sous le contrôle de nos artistes et les joueurs pourront les activer ou les désactiver ».
HBM4 pour NVIDIA, SOCAMM2 aussi pour NVIDIA, SSD PCIe 6.0 pour les datacenters pour l’IA : vous voyez un schéma se dessiner dans les annonces de Micron ? Le fabricant fait en effet un « all-in » sur l’IA générative et ses besoins quasi exponentiels en GPU, mémoire et stockage.
Elles concernent toutes des produits pour les datacenters, et plus particulièrement les futurs GPU Rubin de NVIDIA… ce qui ne devrait pas aider à sortir de la pénurie pour le grand public et l’explosion des prix que cela entraine. Bien d’autres annonces ont été faites, nous aurons l’occasion d’y revenir.
HBM4 36 Go en production de masse, HBM4 48 Go et HBM4E arrivent
La première concerne la HBM4 (finalisée il y a un an par le JEDEC), la mémoire pour la nouvelle génération de puces Vera Rubin de NVIDIA : les livraisons en volume de modules de 36 Go (12H, soit 12 couches) ont débuté durant ce premier trimestre. Il faut dire que NVIDIA avance à grands pas puisque les « produits basés sur Rubin [le nouveau GPU de NVIDIA, ndlr] seront disponibles auprès de partenaires au second semestre 2026 ».
Micron annonce des débits de 11 Gb/s par broche pour sa HBM4, soit une bande passante totale de plus de 2,8 To/s, « ce qui représente une bande passante 2,3x supérieure et une efficacité énergétique en hausse de 20 % par rapport à la HBM3E ». Dans le même temps, les premiers échantillons de modules de 48 Go (16 couches) sont livrés aux clients pour des tests et des qualifications.
Samsung n’est pas en reste et annonce sa 7e génération de mémoire HBM, avec la présentation pour la première fois d’une puce physique de HBM4E à la GTC, comme le rapporte l’agence de presse Yonhap. Micron aussi a déjà annoncé son intention de se lancer dans la HBM4E, pour 2027 aux dernières nouvelles, avec des modules de 64 Go.
SOCAMM2 chez Micron et SK hynix, là encore dans le sillage de NVIDIA
Toujours selon nos confrères, avec la HBM4E de Samsung, les débits sont en hausse pour atteindre 16 Gb/s par broche, une bande passante totale de 4 To/s. Chez SK hynix, on se contente du minimum, en expliquant simplement que des modules « conçus pour les plateformes d’IA NVIDIA » seront présentés à la GTC, notamment de la HBM4 et de la mémoire SOCAMM2, qui est aussi au cœur des annonces de Micron.
En effet, Micron se place aussi dans le sillage de NVIDIA pour ses modules mémoire SOCAMM2 (Small Outline Compression Attached Memory Module, des modules pour serveurs) qui sont « conçus pour les systèmes NVIDIA Vera Rubin NVL72 ». Par rapport aux modules classiques RDIMM (Registred DIMM), la « consommation d’énergie et l’encombrement sont réduits d’un tiers », affirme le fabricant.
Micron annonce des modules jusqu’à 256 Go (à partir de 48 Go pour les plus petits), soit une capacité totale de 2 To de mémoire et une bande passante de 1,2 To/s sur un processeur avec huit emplacements. Les premiers échantillons de 256 Go sont actuellement expédiés.
Micron 9650 : un SSD PCIe jusqu’à 28 Go/s
Enfin, le fabricant affirme être la « première entreprise à produire en série un SSD pour les datacenters en PCIe Gen 6 » : le Micron 9650. Il est présenté dans des formats E1.S et E3.S. Le fabricant revendique des débits en lecture séquentielle allant jusqu’à 28 Go/s et 14 Go/s en écriture, pour respectivement 5,5 millions et 900 000 IOPS en lecture et écriture aléatoire.
Micron affirme que la production de masse a débuté et que son SSD a été « qualifié par des clients clés en OEM et dans les centres de données IA ».
Lors du CES de Las Vegas au début de l’année, NVIDIA présentait son nouveau GPU Rubin qui remplacera Blackwell et son CPU Vera qui prendra la place de Grace. Les grandes lignes de Vera étaient déjà connues, comme nous l’expliquions : 88 cœurs (176 threads) Olympus avec une architecture Armv9.2, 176 Mo de cache L2, 162 Mo de cache L3 unifié, jusqu’à 1,5 To de LPDDR5X avec une bande passante de 1,2 To/s maximum, etc.
Durant la GTC 2026, NVIDIA revient sur son nouveau CPU, qui est « en pleine production et sera disponible auprès des partenaires au cours du second semestre de cette année ». NVIDIA donne quelques détails techniques supplémentaires.
Pour commencer, NVIDIA place son CPU face aux processeurs « traditionnels », sans plus de précision sur les références auxquels l’entreprise se compare : « Vera offre des performances deux fois supérieures en termes d’efficacité, mais qu’il est aussi 50 % plus rapide que les processeurs traditionnels ». NVIDIA en profite pour donner une longue liste de partenaires, avec notamment Alibaba, ByteDance, Meta et Oracle.
Le fabricant ajoute que sa puce est « le premier CPU à prendre en charge la précision FP8 » et, c’est dans l’air du temps, qu’il s’agit du « premier processeur au monde conçu spécifiquement pour l’ère de l’IA agentique et de l’apprentissage par renforcement ».
NVIDIA passe à la seconde génération de la structure de cohérence évolutive (SCF). C’est une structure maillée de cache distribué « pour répondre de manière efficace aux défis posés par la mise à l’échelle des cœurs et de la bande passante en matière de consommation et d’espace », explique-t-elle.
Dans la première génération avec les CPU Grace, SCF propose jusqu’à « 3,2 To/s de bande passante de bisection au total, soit le double de celle des processeurs classiques, pour assurer la circulation des données entre les cœurs, la mémoire et les E/S du système ». La structure de cohérence évolutive « réduit les goulots d’étranglement dans les applications nécessitant des mouvements de données, telles que l’analyse de graphes, pour laquelle NVIDIA Grace offre jusqu’à deux fois plus de performances que les principaux serveurs x86 ». Avec la seconde génération de SCF dans le processeur Vera, NVIDIA annonce une hausse de la bande passante, jusqu’à 3,4 To/s.
NVIDIA profite de la GTC pour présenter une baie, équipée d’un refroidissement liquide, avec 256 processeurs Vera soit un total de 22 528 cœurs Olympus. Cette baie utilise la conception modulaire NVIDIA MGX, qui est compatible avec les CPU Grace, Vera ainsi que les x86. De plus amples détails sur MGX sont disponibles par ici, et par là pour le CPU Vera.
Intérêt légitime n’empêche pas d’informer, au contraire !
Un proxy permet à une entreprise de renforcer sa sécurité en filtrant le contenu venant d’Internet. Sa mise en place, qui peut avoir un intérêt légitime, soulève des questions au titre du RGPD. La CNIL publie sa recommandation sur les bonnes pratiques et informations à donner aux utilisateurs.
Depuis plusieurs mois, la CNIL consulte et travaille sur une recommandation pour le déploiement d’un serveur mandataire web filtrant (alias un proxy). Un projet a été soumis à consultation entre juillet et fin septembre 2025 ; la version finale est désormais en ligne, comme en atteste sa publication au Journal officiel.
Le but est d’« accompagner les utilisateurs et les fournisseurs de serveurs mandataires web filtrants ». La Commission ajoute néanmoins que cette recommandation « n’a pas de caractère contraignant et ne préjuge pas des obligations légales applicables aux responsables de traitement ».
C’est quoi un serveur mandataire web filtrant (proxy)
La recommandation de huit pages (pdf) commence par rappeler la définition d’un mandataire web filtrant, aussi appelé proxy. Il s’agit d’« un dispositif ou un service relais entre l’équipement client (poste de travail) et le serveur web (sur Internet). Son rôle principal est de bloquer ou restreindre l’accès à certains sites web ou catégories de contenus ». Bien évidemment, les autorisations diffèrent suivant les employés.
Ce genre de service peut être une réponse à l’obligation de sécurisation des données (article 32 du RGPD), mais repose aussi « sur des traitements de données dont la conformité au RGPD doit aussi être assurée ». C’est sur ce point que la CNIL revient en détail.
Intérêt légitime, proportionnalité, minimisation…
Sur les finalités de traitement, certaines mesures sont considérées comme légitimes : « le respect des exigences réglementaires en matière de cybersécurité (notamment l’article 32 du RGPD) ; la protection des systèmes d’information contre les cybermenaces ; la prévention des accès à des sites web illégaux, non conformes à la politique de l’organisme ou à des sites malveillants ». La CNIL prend bien soin de préciser que cela « ne doit pas conduire à une surveillance excessive de l’activité des salariés ».
Sur la base légale du traitement, l’intérêt légitime peut être invoqué, explique la CNIL. Il s’agit pour rappel de l’une « des 6 bases légales prévues par le RGPD autorisant la mise en œuvre de traitements de données à caractère personnels ». Attention, « Il appartiendra alors notamment au responsable de traitement de mettre en balance ses intérêts propres et ceux des personnes concernées ».
Le responsable doit aussi s’assurer de la proportionnalité du traitement. La durée de conservation aussi doit être étudiée ; « une durée supérieure aux préconisations de la CNIL (6 mois à 1 an) doit être justifiée et documentée ».
La minimisation des données est aussi dans la recommandation. Le but est de restreindre l’utilisation des données à caractère personnel à celles strictement nécessaires au regard de chaque finalité, c’est-à-dire les fonctionnalités de filtrage et de journalisation.
Illustration : Flock
Une analyse d’impact ? C’est une « bonne pratique »
La CNIL donne quelques exemples de données qui peuvent en principe être collectées et traitées : « l’identité de l’utilisateur (gestion des accès web des utilisateurs ou authentification sur le proxy web filtrant) ; l’adresse IP du poste de l’utilisateur ; tout ou partie de l’URL consultée ; l’horodatage de l’accès ; la catégorie de site visité ; l’action (autorisé, bloqué, forcé et/ou ajout demandé – si ces dernières possibilités sont offertes aux utilisateurs) ».
Faut-il une analyse d’impact relative à la protection des données (AIPD), se demande la CNIL ? Ça dépend « de plusieurs facteurs liés aux fonctionnalités retenues et à leurs usages », indique-t-elle prudemment. Si deux des critères suivants sont remplis, alors l’AIPD devrait être réalisée : « collecte de données sensibles ou données à caractère hautement personnel ; collecte de données personnelles à large échelle ; personnes vulnérables ; surveillance systématique ». La Commission estime que, dans tous les cas, une AIPD « devrait être une bonne pratique ».
Attention au déchiffrement HTTPS
La CNIL prend les devants sur le HTTPS en rappelant que « l’URL complète, accessible lors d’un déchiffrement HTTPS, est susceptible de donner accès à des données à caractère personnel ». Il faut donc prendre des précautions. La Commission consacre un encadré au déchiffrement HTTPS : « lorsqu’un déchiffrement est nécessaire, celui-ci ne devrait être réalisé que sur les domaines non listés dans les listes d’exceptions et les données échangées dans les requêtes HTTPS ne devraient pas être conservées (à moins qu’une charge malveillante soit détectée) ».
Enfin, la Commission rappelle que toutes les personnes concernées par le traitement de leurs données, aussi bien employés que visiteurs, doivent être informées, par exemple via le règlement intérieur sous forme d’une charte informatique.
« L’information [doit] être individuelle », rappelle aussi la gardienne des libertés. Enfin, une partie concerne la gestion des logs et les informations qui y sont remontées. Par exemple, elle recommande que « seuls les noms de domaine des sites web bloqués et non catégorisés soient remontés à l’éditeur en vue de leur analyse, sans rattachement à la personne concernée par la tentative d’accès au site ».
Mise à jour du 17 mars à 8h00. OVHcloud a mis à jour son ticket de support cette nuit pour indiquer que l’incident « a été résolu ». La cause profonde a été causée par « un problème logiciel », sans plus de détails.
Mise à jour du 16 mars à 18h25. OVHcloud précise que cette panne fait suite à la procédure de migration en cours des boîtes Outlook Web Access vers Zimbra (de décembre 2025 à mai 2026). L’hébergeur assure que « les emails envoyés ou reçus seront stockés et livrés une fois l’opération terminée ». OVHcloud précise que cela ne concerne que les MX Plan.
Brief original du 16 mars à 17h21. Via un message publié sur sa page de statut, OVHcloud explique à ses clients qu’il rencontre actuellement un incident : « L’accès aux boîtes aux lettres et au webmail est indisponible ». « Nous avons déterminé l’origine du problème affectant notre offre de solutions collaboratives », ajoute l’hébergeur, mais sans donner plus de précisions.
« Les clients ne peuvent actuellement pas accéder à leurs boîtes aux lettres, ce qui signifie qu’ils ne peuvent ni lire, ni envoyer ni gérer leurs e-mails », détaille l’entreprise roubaisienne. Cela concerne aussi bien les clients Plan MX.
Via le chat, nous demandons au service client si les emails reçus pendant cette période seront quand même dans la boite de réception après l’incident. Réponse de l’agent (humain) : « Je ne peux pas répondre pour le moment car nous n’avons pas l’information ». OVHcloud ne donne aucune prévision quant au délai de retour à la normale.
Dans un premier tuto, nous avons installé un gestionnaire de mot de passe – Vaultwarden – sur un VPS à quelques euros par mois. Il ronronne depuis sur le serveur, sans en utiliser toutes les ressources, loin de là ! Nous en profitons donc pour ajouter un autre service : un serveur VPN, avec Wireguard. Coût de l’opération : 0 euro. On vous détaille toutes les étapes.
Un VPN dans le cas présent, pourra vous être utile sur des réseaux Wi-Fi publics et/ou partagés afin de créer un tunnel chiffré entre votre ordinateur/smartphone et votre VPS. Cela permet d’éviter des attaques du type Man in the middle ou le récent AirSnitch qui casse l’isolement des utilisateurs, par exemple. Vous pouvez également l’utiliser en déplacement afin d’avoir une IP française.
Installation de Wireguard sur le serveur, puis création des clés
L’installation est simple et rapide. Il faut tout d’abord se connecter au VPS en SSH, nous utilisons PuTTY pour cela. Une fois sur le terminal, on commence par un « update » des dépôts ensuite on lance l’installation de Wireguard via la commande apt (cela installe automatiquement les dépendances wireguard-tools au passage) :
Il reste 87% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
En 2024, le Département de la Justice des États-Unis (DOJ) attaquait Adobe en justice sur ses pratiques en matière de résiliation d’abonnements (dont la suite Creative Cloud). Aujourd’hui, Adobe transige : « Bien que nous contestions les affirmations du gouvernement et niions toute malversation, nous sommes heureux de régler cette affaire ».
L’éditeur annonce deux choses. Tout d’abord, « fournir gratuitement des services d’une valeur de 75 millions de dollars aux clients admissibles ». Une fois l’accord entériné par le tribunal (ce n’est pas encore fait), Adobe contactera de manière proactive les clients concernés. De plus, Adobe a « accepté de verser 75 millions de dollars au ministère de la Justice ».
Dans sa plainte, le DOJ n’était pas tendre avec les pratiques d’Adobe : « Lors de l’inscription, Adobe dissimule des conditions importantes de son plan APM [Annual, Paid Monthly, ndlr] en petits caractères, derrière des encadrés et des liens hypertextes optionnels, fournissant des informations conçues pour passer inaperçues et que la plupart des consommateurs ne consultent jamais ».
De plus, « Adobe dissuade ensuite les résiliations en employant une procédure de résiliation lourde et complexe ». Vous en voulez encore ? « Dans le cadre de cette procédure alambiquée, Adobe tend un guet-apens à ses abonnés avec des frais de résiliation anticipée (ETF), auparavant masqués, lorsqu’ils tentent de résilier ». Pour le Département de la Justice, « Adobe a enfreint les lois fédérales destinées à protéger les consommateurs ».
Adobe n’est évidemment pas du même avis et affirme être « transparent sur les termes et les conditions des contrats d’abonnement et disposer d’un processus d’annulation simple ». L’entreprise ajoute néanmoins « Ces dernières années, nous avons rendu nos processus d’inscription et d’annulation encore plus fluides et transparents ».
Dans un communiqué, le DoJ en rajoute une couche : « Adobe avait contrecarré les tentatives d’annulation des abonnés, les soumettant à des processus d’annulation complexes et inefficaces, remplis d’étapes inutiles, de retards, d’offres non sollicitées et d’avertissements ». Il ajoute que « Adobe devra clairement préciser tout frais de résiliation anticipée et la manière dont le paiement est effectué avant la souscription des clients aux abonnements ».
Cette annonce arrive quelques heures seulement après celle du départ de Shantanu Narayen, qui est CEO d’Adobe depuis 18 ans. Le communiqué est très poli en remerciant chaleureusement le futur ex-patron, mais selon Bloomberg, il démissionnerait suite à des « préoccupations des investisseurs concernant l’IA ».
DirectStorage est une fonctionnalité permettant aux GPU de discuter directement avec les périphériques de stockage de l’ordinateur, en évitant donc un passage par le processeur central. L’API vient de passer en version 1.4, avec comme principale nouveauté la prise en charge du codec zstd (ou ZStandard).
Cet algorithme est largement répandu ; nous avions d’ailleurs passé au crible ses performances en les comparant avec celles de plus d’une dizaine d’autres codecs. Microsoft a mis en ligne du code sur GitHub pour son utilisation avec les GPU.
Pour Microsoft, zstd a plusieurs avantages dans ce cas d’usage : il « se distingue par ses taux de compression et ses performances de décompression, sa large disponibilité sur le matériel et les logiciels à travers les systèmes d’exploitation, et son adoption généralisée dans les systèmes d’exploitation, le cloud et le web ».
L’entreprise annonce dans le même temps sa Game Asset Conditioning Library (GACL), elle aussi sur GitHub. Elle propose « plusieurs composants pour améliorer la compression des assets du jeu ». Les textures sont la priorité de cette bêta car elles représentent la plus grosse taille des packages dans la plupart des jeux, explique Microsoft.
GACL « prépare » le contenu qui va être envoyé à zstd pour que les algorithmes de compression soient les plus efficaces possible. La Game Asset Conditioning Library « est conçue pour fonctionner avec le contenu existant, offrant jusqu’à 50 % d’amélioration des taux de compression Zstd pour vos assets, tout en maintenant un coût de décompression à l’exécution bas lorsqu’il est utilisé avec DirectStorage », affirme l’éditeur. Tous les détails se trouvent par ici.
Vous utilisez un VPS, mais vous n’avez pas encore configuré sa sécurité ? C’est un problème à prendre au sérieux puisque votre serveur est attaqué plusieurs milliers de fois par jour. Next vous donne quelques bases pour mettre à jour les composants, les conteneurs Docker, surveiller les tentatives de connexions, etc.
Un VPS, c’est aussi un serveur hébergé chez une société tierce et directement exposé sur Internet. Il mérite donc une attention particulière au niveau de la sécurité, surtout s’il dispose de vos données (personnelles). À titre d’exemples, nos VPS sont attaqués en moyenne 10 000 fois par jour sur le port 22 (SSH).
Dans ce tuto, nous allons passer en revue quelques règles simples à mettre en place pour les mises à jour et bloquer ceux qui tenteraient de passer. Attention, cela ne remplace pas l’expertise d’un sysadmin car il existe évidemment de nombreuses autres bonnes pratiques à mettre en place, notamment une surveillance constante des logs, du fonctionnement du serveur et des applications.
Suivant l’importance des données que vous souhaitez mettre sur un serveur exposé sur Internet, il faudra passer la seconde avec des serveurs « gérés » (managed) avec des professionnels, s’occupant de l’installation et des mises à jour.
Le problème des versions non-LTS de Ubuntu (9 mois de support)
Dans notre cas, nous sommes avec Ubuntu 25.04 (la dernière disponible chez OVHcloud actuellement pour notre gamme de VPS), un problème car cette version n’est plus officiellement maintenue. Nous devons donc passer en 25.10, en attendant la 26.04 LTS qui sera maintenue plusieurs années.
Le choix d’une version LTS est intéressant pour cela, car les versions classiques ne sont maintenues que pendant neuf mois). Une solution aurait été d’installer le serveur dès le début en 24.04 (LTS), une version proposée par OVHcloud. Si vous installez votre VPS pour la première fois, partir sur une LTS peut être une bonne idée.
La commande sudo do-release-upgrade permet de se mettre à jour notre Ubuntu… sauf que non, le système nous répond : « Your Ubuntu release is not supported anymore. For upgrade information, please visit: http://www.ubuntu.com/releaseendoflife. Please install all available updates for your release before upgrading ».
Pour passer à Ubuntu 25.10, nous devons donc d’abord mettre à jour toutes nos applications, avec les commandes sudo apt update && sudo apt upgrade, puis relancer sudo do-release-upgrade pour le système d’exploitation en lui-même. Cette fois-ci ça marche !
Attention, à la fin nous avons eu un message : « System upgrade is complete. Restart required. To finish the upgrade, a restart is required ». Un reboot plus tard, retour à PuTTY et nous voilà bien avec Ubuntu 25.10. Reste maintenant plus qu’à attendre Ubuntu 26.04 LTS pour migrer sur cette version, et rester ensuite quelques années dessus (cinq ans actuellement, avec une LTS tous les deux ans).
Des mises à jour (de sécurité) installées automatiquement
Il reste 84% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Dans un communiqué, Adobe explique que Shantanu Narayen démissionnera de son poste de CEO une fois que son successeur sera trouvé. Il restera par contre président du conseil d’administration pour assurer la transition. C’est Frank Calderoni, administrateur indépendant d’Adobe, qui dirige un comité spécial en charge d’examiner les candidatures, aussi bien internes qu’externes.
Il en profite pour jeter des fleurs au futur ex-CEO, qu’il présente comme « architecte de la transformation d’Adobe au cours des 18 dernières années, et pour avoir positionné avec succès Adobe dans une ère pilotée par l’IA ». Shantanu Narayen a publié un mémo pour ses équipes. Il évoque lui aussi l’intelligence artificielle : « La prochaine ère de la créativité est en train de s’écrire – façonnée par l’IA, par de nouveaux flux de travail et par des formes d’expression entièrement nouvelles. Adobe n’a jamais attendu l’arrivée du futur. Nous l’avions anticipé. Nous l’avons construit ».
Bloomberg n’est pas vraiment du même avis : « Le CEO d’Adobe va démissionner face aux préoccupations des investisseurs concernant l’IA », titrent nos confrères. Adobe « fait partie d’un groupe d’entreprises de logiciels applicatifs, dont Salesforce Inc et Atlassian Corp, perçues comme ayant du mal à conquérir de nouveaux clients face aux nouveaux arrivants de l’IA », affirment-ils.
Toujours selon Bloomberg, les investisseurs étaient de plus en plus nombreux à remettre en question les choix et l’orientation de Shantanu Narayen pour Adobe. « L’IA générative a facilité la création de médias visuels sans les produits coûteux d’Adobe. Beaucoup des nouveaux outils créatifs d’IA les plus populaires, comme les modèles d’IA Veo 3 de Google, sont développés par des concurrents ». L’IA est pourtant au cœur des annonces des conférences MAX depuis quelque temps maintenant, mais ce n’est a priori pas suffisant.
En bourse, le cours de l’action d’Adobe est en baisse depuis maintenant près de deux ans. Après une année 2021 au plus haut, la chute a été brutale en 2022, avant une remontée en 2023 et 2024. Actuellement, l’action est à 270 dollars, en dessous des 275 dollars de septembre 2022 quand Adobe était dans le creux de la vague.
Comment les mairies appréhendent-elles la question de la souveraineté des emails ? Une question d’autant plus importante à l’aune des élections municipales. Orange est le fournisseur d’emails d’une mairie sur deux en France, mais principalement en milieu rural (qu’il verrouille d’ailleurs à sa manière). Microsoft est présent dans de plus grandes villes et touche près de 18 millions d’habitants.
Les emails sont un moyen de communication largement répandu, aussi bien pour échanger avec ses proches, des connaissances, des entreprises et même des services publics. Ils sont aussi un enjeu de souveraineté important avec trois acteurs majeurs américains fortement présents en France : Microsoft, Google et Amazon.
Les emails, un enjeu de souveraineté à ne pas négliger !
Comme nous l’avons récemment expliqué, 88 % des startups de la French Tech passent par des outils américains pour leurs emails. Même chose avec des entreprises du CAC40, des écoles et même des instituts, commissions, autorités et autres administrations françaises.
Pour les données, nous nous sommes rendus sur le site data.gouv.fr du gouvernement, plus précisément sur la page « Annuaire de l’administration – Base de données locales » qui contient « plus de 86 000 guichets publics locaux », dont les mairies. « Elle fournit leurs coordonnées (adresses, téléphones, site internet, horaires d’ouverture, coordonnées de géolocalisation) », ainsi que l’email de contact. Les données proviennent de « Public.gouv.fr /DILA ».
Nous avons aussi utilisé le fichier Base de données locales de Service-public.gouv.fr daté du 6 mars 2026. Pour la population de chaque ville, les données viennent de l’Insee (2021). Comme vous pouvez le voir sur la carte, certains points sont mal placés (des villes françaises se trouvent par exemple au… Kazakhstan), mais cela vient d’un problème dans les longitudes et latitudes du fichier en open data.
Le résultat est disponible sous la forme d’une carte interactive des villes françaises avec le fournisseur d’email utilisé. Pour cela, nous avons regardé les MX Domains de l’adresse email de contact indiquée dans le fichier en open data. Certaines villes, comme Toulouse, n’ont pas d’email de contact référencé, vous pouvez alors passer sur les MX Domains du site officiel de la commune, s’il est disponible bien évidemment.
Un sélecteur vous permet de changer de mode de vue : par villes, par départements, par régions et, un dernier mode très intéressant, par habitants. Le rond de chaque ville est ainsi proportionnel au nombre d’habitants : plus ils sont nombreux, plus le diamètre est important.
Passons maintenant à l’analyse des statistiques.
Orange domine les villes, Microsoft domine les habitants
Il reste 72% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
iXsystems, qui s’occupe du développement de TrueNAS, affirme que ses utilisateurs demandaient depuis longtemps un « moyen d’accéder aux fonctionnalités de TrueNAS Enterprise sur leur propre matériel ».
Comme l’expliquent les développeurs, il y a actuellement deux îlots distincts de TrueNAS : Community Edition (CE) en open source et Enterprise disponible seulement avec des NAS vendus par l’entreprise. TrueNAS Connect vient faire le pont entre les deux, avec des fonctions supplémentaires par rapport à CE, mais pas toutes celles de TrueNAS Enterprise non plus.
iXsystems présente Connect comme un panneau de contrôle en ligne pour simplifier la gestion de TruNAS : « depuis une seule interface, vous pouvez gérer plusieurs systèmes, surveiller l’état du système, configurer des alertes, visualiser le matériel et effectuer des installations web. TrueNAS Connect fonctionne sur votre réseau en utilisant des web sockets sécurisés, une authentification OAuth simple, et aucun matériel supplémentaire ».
Cette nouvelle version sera disponible avec un premier palier gratuit « Foundation », avec deux systèmes TrueNAS maximum et un suivi en temps réel, mais aussi des publicités dans les emails et l’interface en ligne. L’offre « Plus » est annoncée à 60 dollars par an (actuellement en promotion à 30 dollars) avec des fonctionnalités supplémentaires, puis arrivera plus tard « Business » pour ceux qui ont besoin de gérer davantage de machines.
iXsystems affirme enfin que « TrueNAS Community Edition restera toujours une solution de stockage sans frais. Aucune fonctionnalité existante ne sera payante, et de nouvelles seront ajoutées comme toujours. TrueNAS Connect est totalement optionnel ».
La première bêta de TrueNAS 26 (avec la nouvelle numérotation des versions) est toujours prévue pour avril, avec la version finale attendue pour le troisième trimestre.
Sur Internet, les serveurs sont régulièrement attaqués par des milliers de bots. Ces derniers essayent de passer en force… mais que font-ils exactement s’ils arrivent à se connecter ? Next vous propose de passer de l’autre côté du miroir.
En ce début de semaine, nous expliquions que nos sept VPS de test étaient, en moyenne, la cible de 10 000 attaques par jour juste sur le port SSH (qui permet de prendre le contrôle à distance de la machine). Allons davantage dans les détails.
Honeypot maison : la pêche est bonne, avec des milliers de bots par jour
Pour ce faire, nous avons installé sur un de ces serveurs un honeypot (pot de miel, un leurre) faisant croire aux bots qu’ils étaient entrés dans le système. En l’occurrence, nous avons, avec l’aide de Claude Code, déployé et installé Cowrie sur un VPS de test qui ne dispose évidemment d’aucune donnée sensible.
Cowrie écoute sur le port 22, c’est-à-dire celui par défaut de SSH, et nous l’avons configuré pour laisser passer tout le monde, avec n’importe quel nom d’utilisateur et mot de passe. Nous n’aurons donc a priori dans notre besace que les robots les plus bourrins. En effet, certains peuvent détecter la présence du honeypot et passer leur chemin pour ne pas perdre de temps.
Qu’importe, nous ne voulons pas être exhaustifs, mais voir les tendances générales. Cela suffit déjà à enregistrer plusieurs milliers de tentatives par jour.
Il reste 76% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Un peu moins de cinq mois après la mise en ligne de la version finale de Fedora 43, l’équipe en charge du projet a publié cette semaine la première bêta de la 44, aussi bien en version Workstation que KDE Plasma Desktop, Server, IoT et Cloud.
Parmi les changements, le passage au noyau Linux 6.19, l’environnement de bureau Gnome 50 ou KDE Plasma 6.6 suivant les versions. Bien d’autres changements sont de la partie, comme en témoignent les notes de version.
Comme toujours, à utiliser en connaissance de cause, une bêta peut rencontrer des problèmes de stabilité. Pour télécharger une des versions de Fedora, c’est par ici que ça se passe (y compris en LiveCD si vous voulez simplement tester).
Intel annonce les deux premiers processeurs « Plus » de sa gamme Core Ultra 200S (Arrow Lake) : les Ultra 7 270K Plus et Ultra 5 250K Plus. Le fondeur met en avant de « nouvelles fonctionnalités et des améliorations architecturales ».
Commençons par les présentations des caractéristiques techniques : les Core Ultra 7 270K(F) Plus et Ultra 5 250K(F) Plus « disposeront d’un plus grand nombre de cœurs et d’une augmentation de fréquence die-to-die pouvant atteindre 900 MHz par rapport aux processeurs » classiques, non « Plus ».
Les Core Ultra 200S ont été lancé fin 2024, mais un an plus tard (en septembre 2025), Intel reconnaissait officiellement avoir « raté le coche », tout en promettant de se rattraper. David Zinsner, directeur financier d’Intel et co-CEO par intérim à l’époque, n’expliquait pas comment. Cette version « Plus » pourrait être un début de réponse.
Quatre E-Core et 100 MHz en boost de plus par rapport aux 264K et 245K
Voici sans plus tarder les caractéristiques techniques des nouveaux processeurs :
Core Ultra 5 250K Plus :
18 cœurs et 18 threads : 6x P-Cores et 12x E-Core
Jusqu’à 5,3 GHz sur les P-Core, 4,7 GHz sur les E-Core
199 dollars
Core Ultra 7 270K Plus :
24 cœurs et 24 threads : 8x P-Cores et 16x E-Core
Jusqu’à 5,5 GHz sur les P-Core, 4,7 GHz sur les E-Core
299 dollars
C’est donc 100 MHz de plus sur les P-Core et E-Core, avec quatre E-Core de plus par rapport aux Ultra 7 265K(F) et Ultra 5 245K(F)… et rien de plus ? Si. Comme indiqué précédemment, Intel a procédé à des changements sous le capot, notamment sur les fréquences d’autres éléments que les cœurs eux-mêmes.
900 MHz de plus pour le D2D, Binary Optimization Tool
C’est le cas de la liaison avec la mémoire et les cœurs. « Certaines de ces fréquences ont été augmentées de près d’un GHz, ce qui réduit la latence et augmente les performances », notamment dans les jeux. 900 MHz de plus, mais par rapport à quoi comme fréquence de base ? 2,1 GHz, selon plusieurs de nos confrères, donc un saut important.
Plus précisément, « la fréquence d’horloge de la liaison die-to-die (D2D) entre la tuile du SoC d’Arrow Lake (où se trouve le contrôleur de mémoire) et celle de calcul (avec les cœurs du processeur) est considérablement augmentée, passant de 2,1 GHz sur les puces Arrow Lake normales à 3,0 GHz sur les puces plus, soit une augmentation de 900 MHz (43 %) », explique ServeTheHome.
Autre amélioration, l’Intel Binary Optimization Tool. L’entreprise explique qu’elle peut, à partir d’une charge de travail existante, « comprendre exactement comment elle utilise le processeur, et si elle n’est pas aussi optimale qu’elle pourrait l’être, nous pouvons restructurer et rationaliser cette application pour qu’elle fonctionne mieux sur un CPU Intel x86 ».
Avec tout cela, Intel annonce 15 % de performances en plus sur le Core Ultra 7 270K Plus par rapport au 265K, contre 13 % pour le 250K Plus par rapport au 245K.
Support des barrettes de mémoire 4R CUDIMM
Intel affirme que n’importe quelle carte mère avec un chipset de la série 800 fonctionnera avec ces nouveaux CPU. Une mise à jour du BIOS peut être nécessaire, mais « le système démarrera », affirme le fondeur.
Sur la mémoire, Intel annonce une prise en charge précoce des barrettes 4R CUDIMM, avec 4R pour 4-Rank, en opposition aux modules 1R et 2R qui étaient déjà supportés. La carte mère peut ainsi prendre en charge des modules de 128 Go, et ainsi monter à 256 Go avec deux barrettes ou 512 Go avec quatre, « sans compromettre les taux de transferts, la latence ou la bande passante ».
Enfin, la mémoire DDR5-7200 est prise en charge, alors que la génération précédente s’arrête à la DDR5-6400. Rendez-vous le 26 mars pour le lancement.
L’ANSSI dresse l’état des lieux de la cybermenace en 2025, une année marquée par une stabilité du volume d’incidents, mais une augmentation importante des fausses revendications sur les fuites de données. Vincent Strubel évoque aussi d’autres sujets comme les « hackers éthiques », l’utilisation de l’IA, les failles de sécurité, etc.
Vincent Strubel, patron de l’ANSSI, débutait ce matin sa conférence de présentation du panorama de la cybermenace 2025 par un état des lieux. Alors qu’on aurait pu penser que l’année passée s’était révélée très compliquée et chargée, il relativise d’entrée de jeu : « Au global, on est sur une volumétrie qui ne change quasiment pas » par rapport à 2024, qui était toutefois déjà une année chargée avec les Jeux olympiques de Paris.
« On n’est pas sur une explosion ou un raz de marée en 2025 »
Le patron de l’ANSSI ne s’en cache pas : les « niveaux de menaces sont très significatifs » mais « on n’est pas sur une explosion ou un raz-de-marée en 2025 ». « Au cours de l’année 2025, l’ANSSI a traité, avec un degré d’engagement variable, 3 586 événements de sécurité, soit une diminution de 18 % par rapport à l’année 2024 », peut-on lire dans le rapport (pdf de 60 pages).
Une autre métrique intéressante est le nombre d’incidents, c’est-à-dire « un événement de sécurité où l’ANSSI est en mesure de confirmer qu’un acteur malveillant a conduit des actions avec succès sur le SI de la victime ». Pas seulement une tentative, mais une pénétration des systèmes.
En 2024, l’Agence nationale de la sécurité des systèmes d’information dénombrait 1 361 incidents, « après une croissance les années précédentes (1 112 en 2023 et 831 en 2022) ». En 2024 toujours, les Jeux Olympiques avaient engendré à eux seuls 465 signalements et 83 incidents de cybersécurité (sur les 1 361 donc). En 2025, c’est un peu plus qu’en 2024, mais à peine, avec 1 366 incidents (+ 5 incidents). L’éducation et la recherche représentent 34 % des incidents, les ministères et les collectivités territoriales 24 %, la santé 10 % et enfin les télécommunications 9 %.
60 % des fuites de données ne sont pas avérées
Vincent Strubel revient aussi sur les fuites de données, et veut remettre l’église au centre du village. Il affirme que 60 % des fuites ne sont pas avérées : c’est du « bluff complet ou du recyclage » de précédentes fuites.
Quoi qu’il en soit, il reconnait évidemment que « 40 % de vol de données avéré, c’est 40 % de trop ». Le patron de l’ANSSI rappelle encore une fois le « besoin de regard critique par rapport aux revendications » des pirates. Cela fait « partie de leur stratégie et des dégâts que ça cause ». Nous en parlions récemment dans un édito consacré à la manière de traiter ces informations.
Interrogé sur ce chiffre de 60 % et son évolution par rapport aux années précédentes, Vincent Strubel indique ne pas avoir fait de mesures du genre précédemment car ce n’était « pas un phénomène qui nous inquiétait les années précédentes ». Les fausses revendications semblent donc être une nouveauté importante de 2025, en tout cas elles ont « beaucoup accéléré en 2025 », même si l’ANSSI n’a pas de chiffre précis.
Il revient au passage sur ceux qui se présentent comme des « hackeurs éthiques », rappelant qu’il y a une différence fondamentale « entre alerter sur la menace et donner des leçons, voire taper sur les victimes, ce que l’ANSSI ne fera jamais ». Vincent Strubel prend son rôle de cyberpompier au sérieux, et ne se voit pas (pour filer la métaphore avec les pompiers) se « prendre en selfie devant une maison en feu ».
Il revient aussi sur un point déjà évoqué à plusieurs reprises lors de ses différentes interventions, mais qu’il faut garder en tête : les attaquants n’« ont aucune raison d’être honnêtes », bien au contraire. « Dans les cyberattaques, le seul qui sait au début, c’est l’attaquant et il n’a pas de raison d’être honnête ». Le but est de mettre la pression sur les victimes, d’autant que les pirates n’ont généralement pas de « réelle crédibilité à conserver ».
Il reste 63% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.